Repaso de Teoría de la Probabilidad

Documentos relacionados
Repaso de Estadística

Tema 4: Variable Aleatoria Bidimensional

Procesos estocásticos

Ejercicios de Procesos Estocásticos

Tema 4: Variables aleatorias multidimensionales

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

SEÑALES ALEATORIAS Y RUIDO. E. T. S. de Ingenieros de Telecomunicación Universidad de Valladolid.

Tema 4: Variables aleatorias multidimensionales

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Ruido en los sistemas de comunicaciones

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Tema 7: Procesos Estoca sticos

Departamento de Matemática Aplicada a la I.T.T.

Variables aleatorias

Examen de Estadística Grado en Ingeniería de Telecomunicación

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Momentos de Funciones de Vectores Aleatorios

Tema 2: Variables Aleatorias Unidimensionales

3. Variables aleatorias

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Examen de Estadística

Tema 3: Funcio n de Variable Aleatoria

Unidad Temática 3: Probabilidad y Variables Aleatorias

Procesos estocásticos

Hoja 4 Variables aleatorias multidimensionales

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Departamento de Matemática Aplicada a la I.T.T.

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Probabilidad y Estadística

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

Variables Aleatorias y Distribución de Probabilidades

DISTRIBUCIONES DE PROBABILIDAD

Part I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Técnicas Cuantitativas para el Management y los Negocios I

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y

Material introductorio

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

INGENIERO DE TELECOMUNICACION (Troncal) Escuela Técnica Superior de Ingenieros Industriales y de Telecomunicación 2543 TEORIA DE LA COMUNICACION

Transformaciones y esperanza

Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3

Repaso de conceptos de álgebra lineal

Estadística I Tema 5: Modelos probabiĺısticos

Variables aleatorias unidimensionales

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Tema 6: Modelos de probabilidad.

Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Descriptiva y Probabilidad FORMULARIO

SEÑALES Y SISTEMAS Clase 5

Variables aleatorias bidimensionales discretas

Modelos de distribuciones discretas y continuas

Introducción al Diseño de Experimentos.

Unidad 1: Espacio de Probabilidad

Resumen de Probabilidad

Distribuciones de probabilidad más usuales

SEÑALES Y SISTEMAS Clase 17

Procesos de Poisson. 21 de marzo, FaMAF 1 / 25

TEMA 3: Probabilidad. Modelos. Probabilidad

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

Estadística I Tema 5: Modelos probabiĺısticos

Introducción a la Teoría de la Información

Introducción al Tema 9

Departamento de Matemática Aplicada a la I.T.T.

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Probabilidad y Procesos Aleatorios

Tema 2: VARIABLE ALEATORIA UNIDIMENSIONAL

Variables aleatorias continuas, TCL y Esperanza Condicional

UNIDAD 3 Características de variables aleatorias uni y bidimensionales

ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I Y II CONTENIDOS BACHILLERATO

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD

Sumario Prólogo Unidad didáctica 1. Introducción a la estadística. Conceptos preliminares Objetivos de la Unidad...

Capítulo 5: Probabilidad e inferencia

SEÑALES Y SISTEMAS Clase 13

Distribución Gaussiana Multivariable

Sistemas de Comunicaciones

Tema 2. Análisis de Sistemas en Tiempo Continuo. Indice:

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Universidad Nacional de La Plata

Probabilidad y Estadística

9. DIFERENCIACIÓN DE FUNCIONES DE VARIAS VARIABLES.

Capítulo 6: Variable Aleatoria Bidimensional

Cálculo de Probabilidades y Estadística. Segunda prueba. 1

2. VARIABLE ALEATORIA. Estadística I Dr. Francisco Rabadán Pérez

Técnicas Cuantitativas para el Management y los Negocios I

Variables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4

Transcripción:

Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos básicos sobre Teoría de la Probabilidad necesarios para la asignatura Comunicaciones Móviles. En este documento, las funciones de una variable discreta se denotan utilizando corchetes, y las de una variable continua utilizando paréntesis. Las variables aleatorias se denotan mediante letras mayúsculas en negrita. Los procesos estocásticos se denotan mediante letras minúsculas en negrita. Las probabilidades, esperanzas matemáticas y varianzas se escriben indicando su argumento entre corchetes. 2. Variables aleatorias Caracterización de una variable aleatoria discreta X se dene su función de probabilidad f X [n]: Para una variable aleatoria f X [n] = Pr[X = n]. (1) Para una variable aleatoria continua X se dene su función de distribución F X (x): F X (x) = Pr[X x]. (2) La derivada de F X (x), si existe, se denomina función de densidad de probabilidad de X, f X (x): df (X)(x) f X (x) =. (3) dx Habitualmente puede unicarse el tratamiento de ambos tipos de variables deniendo para el caso discreto una función de densidad de probabilidad formada por deltas de Dirac: f X (x) = n f X [n]δ(x n). (4) Mediana y percentil La mediana de X es el valor x 0,5 que verica Pr[X x 0,5 ] = 0,5. El percentil p es el valor x p tal que Pr[X x p ] = p. 1

Función de una variable aleatoria Si Y = g(x), f Y (y) puede calcularse a partir de f X (x) como n f X (x i ) f Y (y) = g (x i ), (5) i=1 donde x 1,..., x n son las soluciones de la ecuación y = g(x), y g (x) es la función derivada de g(x). Operador E o esperanza matemática La esperanza matemática o valor medio de X se dene como El operador E es lineal. E[X] = xf X (x)dx. (6) Media de una función de variable aleatoria E[g(X)] = g(x)f X (x)dx. (7) Varianza, desviación típica y coeciente de variación La varianza se dene como Sea η x = E[X]. Var[X] = E[(X η x ) 2 ] = E[X 2 ] η 2 x. (8) La desviación típica es la raíz cuadrada de la varianza. Se emplea habitualmente como medida de la dispersión de una variable aleatoria en torno a su media. El coeciente de variación se dene como la desviación típica entre la media. Es una medida normalizada de la dispersión. Caracterización de dos variables aleatorias Una pareja de variables aleatorias X e Y se caracteriza mediante su función de distribución conjunta, F X,Y (x, y): F X,Y (x, y) = Pr[X x, Y y]. (9) La función de densidad se dene como la siguiente derivada doble, si existe: f X,Y (x, y) = 2 F X,Y (x, y). (10) x y Dada una región D del plano, la probabilidad de que el punto (X, Y ) pertenezca a D se calcula como Pr[(X, Y ) D] = D f X,Y (x, y) dx dy. (11) 2

Probabilidad condicionada (o condicional) Dados dos sucesos A y B, la probabilidad de A condicionada a B, Pr[A B], se dene como Pr[A B] = Pr[A, B], (12) Pr[B] siendo Pr[A, B] la probabilidad de que ocurran simultáneamente A y B. Dada una variable X y un suceso A, la función de distribución de X condicionada a A viene dada por F X (x A) = Pr[X x A] = La función de densidad condicionada se dene como f X (x A) = Pr[X x, A]. (13) Pr[A] df (X)(x A). (14) dx Dadas dos variables X e Y, la función de densidad de X condicionada a Y viene dada por f X (x Y = y) = f X,Y (x, y). (15) f Y (y) Teorema de la probabilidad total Teorema de Bayes Pr[A] = f Y (y) = Pr[A X = x]f X (x)dx. (16) f Y (y X = x)f X (x)dx. (17) f X (x A) = Pr[A X = x]f X(x). Pr[A] (18) f X (x Y = y) = f Y (y X = x)f X (x). f Y (y) (19) Independencia e incorrelación Dos sucesos A y B son (estadísticamente) independientes si Pr[A, B] = Pr[A] Pr[B]. Dos variables X e Y son (estadísticamente) independientes si, para cualesquiera conjuntos C y D, Pr[X C, Y D] = Pr[X C] Pr[Y D]. Equivalentemente, X e Y son independientes si F X,Y (x, y) = F X (x)f Y (y), o bien si f X,Y (x, y) = f X (x)f Y (y). Si X e Y son independientes, también lo son g(x) y h(y ). Dos variables aleatorias X e Y son incorreladas si E[XY ] = E[X] E[Y ]. Si dos variables son independientes, son también incorreladas. Una función de dos variables aleatorias Si Z = g(x, Y ), F Z (z) = f X,Y (x, y)dx dy, D z (20) donde D z es la región del plano tal que g(x, y) z. 3

Dos funciones de dos variables aleatorias Si Z = g(x, Y ) y W = h(x, Y ), n f X,Y (x i, y i ) f Z,W (z, w) = J(x i, y i ), (21) i=1 donde (x 1, y 1 ),..., (x n, y n ) son las soluciones del sistema z = g(x), w = h(y), y J(x, y) es el determinante jacobiano de (z, w) respecto a (x, y): J(x, y) = z w x y z w y x. (22) Suma de variables aleatorias independientes o incorreladas La función de densidad de probabilidad de una suma de variables aleatorias independientes se obtiene como la convolución de las funciones de densidad individuales. La varianza de la suma de variables aleatorias incorreladas es igual a la suma de las varianzas. Algunas distribuciones Función de densidad de probabilidad gaussiana o normal de media η y desviación típica σ: f(x) = 1 σ (x η)2 e. 2π 2σ 2 (23) Función de densidad de probabilidad exponencial de parámetro c: f(x) = ce cx, para x 0. (24) El parámetro c representa el inverso del valor medio. La suma de los cuadrados de dos variables aleatorias gaussianas independientes de media nula y la misma varianza es una variable aleatoria exponencial. Función de densidad de probabilidad Rayleigh de parámetro b: f(x) = x b e x2 2b, para x 0. (25) El parámetro b representa la mitad del valor cuadrático medio: b = E[X 2 ]/2. La raíz cuadrada de una variable aleatoria exponencial es una variable Rayleigh. Variable aleatoria log-normal: es, por denición, aquélla cuyo logaritmo es una variable aleatoria gaussiana. Función de probabilidad de Poisson de parámetro a: El parámetro a representa el valor medio. a ak f[n] = e k!. (26) 4

Variables conjuntamente gaussianas Dadas n variables X 1,..., X n, éstas se denominan conjuntamente gaussianas si a 1 X 1 + +a n X n es gaussiana para cualesquiera a 1,..., a n. Si X 1,..., X n son conjuntamente gaussianas e incorreladas, son independientes. Teorema del límite central Bajo condiciones muy generales, la distribución de la suma de un gran número de variables aleatorias tiende a ser gaussiana. Una condición suciente es que las variables aleatorias sean independientes e idénticamente distribuidas con varianza nita. Ley de los grandes números y resultados relacionados Se realiza un experimento y se observa la ocurrencia o no de un suceso A, cuya probabilidad es p. Si el experimento se realiza n veces, y k denota el número de veces que ocurre A, la frecuencia relativa del suceso A, denida como k/n, tiende a p en el sentido siguiente: [ ] k Pr n p ɛ 1 para n (27) (versión débil de la ley de los grandes números). Sean n variables aleatorias X 1,..., X n independientes idénticamente distribuidas, con media η, desviación típica σ y coeciente de variación c = σ/µ. En estas condiciones, la variable suma n i=1 X i tiene coeciente de variación c/ n; y la variable promedio (o suma normalizada) 1/n n i=1 X i tiene desviación típica σ/ n. 3. Procesos estocásticos Caracterización de procesos estocásticos Para caracterizar un proceso estocástico x(t) debe conocerse la función de distribución conjunta de las variables aleatorias x(t 1 ),..., x(t n ), para todos los posibles t 1,..., t n y para todo n. Para caracterizar dos procesos estocásticos debe conocerse la función de distribución conjunta de las variables correspondientes a ambos. Un proceso x(t) es gaussiano si las variables x(t 1 ),..., x(t n ) son conjuntamente gaussianas para todos los posibles t 1,..., t n y para todo n. Autocorrelación y correlación cruzada Dado un proceso x(t) (en general complejo), su autocorrelación R x (t 1, t 2 ) se dene como E[x(t 1 )x (t 2 )]. Dados dos procesos x(t) e y(t), su correlación cruzada R x,y (t 1, t 2 ) se dene como E[x(t 1 )y (t 2 )]. 5

Estacionariedad en sentido amplio sentido amplio si Un proceso x(t) es estacionario en su media es independiente del tiempo t; y su autocorrelación depende sólo de la diferencia de tiempos τ = t 1 t 2. Para un proceso estacionario en sentido amplio, la autocorrelación se denota como R x (τ) = E[x(t + τ)x (t)]. Dos procesos son conjuntamente estacionarios en sentido amplio si cada uno de ellos es estacionario en sentido amplio; y su correlación cruzada depende sólo de la diferencia de tiempos. Espectro de potencia su espectro de potencia S x (f) como la transformada de Fourier de R x (τ). Dado x(t) estacionario en sentido amplio, se dene El valor cuadrático medio (potencia) de x(t) viene dado por E[ x(t) 2 ] = R x (0) = Sistemas lineales invariantes con entradas estocásticas S x (f)df. (28) Dado un sistema lineal invariante (determinista) con respuesta al impulso h(t), cuya entrada es un proceso estocástico en sentido amplio x(t), con autocorrelación R x (τ) y espectro de potencia S x (f), y cuya salida es y(t), se verica que los procesos de entrada y salida son conjuntamente estacionarios en sentido amplio, con Además, si x(t) es gaussiano, y(t) es gaussiano. E[y(t)] = E[x(t)] h(t) (29) R x,y (τ) = R x (τ) h ( τ) (30) R y (τ) = R x,y (τ) h (τ) (31) S x (f) = S y (f) H(f) 2. (32) Procesos puntuales Un proceso puntual es un conjunto de puntos aleatorios en el eje real. Proceso de Poisson que verica lo siguiente: Un proceso de Poisson de tasa λ es un proceso puntual El número de puntos en un intervalo (t 1, t 2 ) de longitud t = t 1 t 2 sigue una distribución de Poisson de parámetro λt. Dados dos intervalos disjuntos, los números de puntos que contienen son variables aleatorias independientes. Superposición de procesos puntuales Dados n procesos puntuales, su superposición se dene como un proceso puntual formado por la unión de todos los puntos pertenecientes a los n procesos. Teorema de Cinlar Bajo ciertas condiciones muy generales, la superposición de un gran número de procesos puntuales tiende a un proceso de Poisson. 6