Resumen de Probabilidad

Documentos relacionados
Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Momentos de Funciones de Vectores Aleatorios

Procesos estocásticos

Tema 4: Variables aleatorias multidimensionales

Variables Aleatorias y Distribución de Probabilidades

Tema 4: Variables aleatorias multidimensionales

Probabilidad y Estadística

Variables aleatorias

Variables aleatorias discretas

Capítulo 6: Variable Aleatoria Bidimensional

Universidad Nacional de La Plata

Objetivos. 1. Variable Aleatoria y Función de Distribución. PROBABILIDAD Tema 2.2: Variables aleatorias discretas Denición de Variable aleatoria

Tema 3. Probabilidad y variables aleatorias

Técnicas Cuantitativas para el Management y los Negocios I

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

VARIABLES ALEATORIAS DISCRETAS

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

Tema 4: Variable Aleatoria Bidimensional

Modelos de distribuciones discretas y continuas

Prof. Eliana Guzmán U. Semestre A-2015

Probabilidad y Estadística

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Tema 6: Modelos de probabilidad.

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Unidad 1: Espacio de Probabilidad

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Modelos Básicos de Distribuciones Discretas y Continuas

Probabilidad y Estadística

Estadística Descriptiva y Probabilidad FORMULARIO

Modelos Estocásticos I. Notas de Curso. Cimat, A.C.

Cálculo de Probabilidades II Preguntas Tema 1

Variables aleatorias bidimensionales discretas

Práctica 3 Esperanza Condicional

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

En muchos estudios no estamos interesados en saber cual evento ocurrió, sino en

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B

Funciones generadoras de probabilidad

Requisitos Matemáticos. Clase 01. Profesor: Carlos R. Pitta. ICPM050, Econometría. Universidad Austral de Chile Escuela de Ingeniería Comercial

PROBABILIDAD Y ESTADÍSTICA

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Modelos de distribuciones discretas y continuas

Ruido en los sistemas de comunicaciones

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Sesión 2: Teoría de Probabilidad

ECONOMETRÍA I. Tema 1: La naturaleza de la econometría y los datos econométricos

Cálculo de Probabilidades II Preguntas Tema 2

Distribución conjunta de variables aleatorias

Apuntes de Clases. Modelos de Probabilidad Discretos

Variables aleatorias unidimensionales

Distribuciones multivariadas

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX}

PROBABILIDAD E INFERENCIA ESTADÍSTICA TEMA 3: DISTRUBUCIONES DE PROBABILIDAD CONTINUA

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

Sesión 2: Teoría de Probabilidad

Definición de variable aleatoria

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA

Tablas de Probabilidades

Distribuciones de probabilidad bidimensionales o conjuntas

MODELOS DISCRETOS DE PROBABILIDAD

VARIABLES ALEATORIAS

CURSO INTRODUCTORIO DE PROBABILIDAD. Universidad Carlos III de Madrid

2.5. Vectores aleatorios

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Distribuciones de probabilidad más usuales

Distribución de probabilidad

Modelo de Probabilidad

Probabilidad, Variable Aleatoria Pag 1 de 26 PROBABILIDAD

Variables aleatorias continuas, TCL y Esperanza Condicional

Algunas Distribuciones EstadísticasTeóricas. Aproximación de la Distribución Binomial por la Distribución de Poisson

TEMA 2.- VARIABLES ALEATORIAS

Introducción a la Teoría de Probabilidades

Probabilidad y Estadística

2 Modelos de probabilidad discretos sobre R

Vectores aleatorios. Estadística I curso

Introducción al Tema 9

Tema 2: Variables Aleatorias Unidimensionales

Tema 5: Vectores aleatorios bidimensionales.

Tema 2 Modelos de probabilidad

Si quisiéramos estudiar también cuánto distan, es decir a b, tendríamos 6 resultados: 0, 1, 2, 3, 4 ó 5, con distribución de probabilidad dada por:

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

ESTADÍSTICA I. Unidad 4: Resumen de Contenidos Teóricos 1. Mariano Lanza DISTRIBUCIONES DE PROBABILIDAD COMÚNMENTE UTILIZADAS

Variables aleatorias

1. Teoría de probabilidad

Variables aleatorias

Transcripción:

Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS los posibles resultados de un experimento aleatorio. * σ álgebra(f) Es la clase de todos los eventos de interés. Este conjunto debe satisfacer: - Ω F. - Si A F entonces A C F. - Si tenemos una sucesión de eventos de interés, entonces A 1 A 2 A 3... A n = * Medida de probabilidad A i F Una medida de probabilidad es una función P: F [0, 1] tal que: - P(Ω)=1 - Si A 1, A 2,..., A n son mutuamente excluyentes ( i, j : i j : A i A j = ) entonces P ( A i ) = P (A i ) * Continuidad por la izquierda de la medida de probabilidad lím A n = A i n * Continuidad por la derecha de la medida de probabilidad lím A n = A i n * Probabilidad Condicional P (A B) = P (A B) P (B) 1

* Probabilidad Total P (A) = P (A B i ) * Fórmula de Bayes P (B i A) = P (A B i )P (B i ) P (A B i)p (B i ) * Independencia Dos eventos A,B son independientes si P (A B) = P (B). Otra manera P (A B) = P (A)P (B) * Espacios Equiprobables Dado Ω = {w 1, w 2,..., w n }, decimos que (Ω, P ) es un espacio equiprobable si Ω es finito y ( i : 1 i n w i Ω : P (w i ) = 1 n ) * Esperanza Dada una variable aleatoria discreta X con p(x) = P (X = x), llamamos esperanza o valor esperado al número: E(x) = x = x xp (X = x) * Varianza La varianza de una variable aleatoria X me permite saber que tan alejado está un resultado del valor esperado, es decir, conocer cual es la dispersión del valor respecto a la muestra. Se calcula de la siguiente forma: V ar(x) = E(X 2 ) E 2 (X) Variables Aleatorias Discretas Definición Una variable aleatoria X discreta es una función sobre un espacio muestral numerable y cuyo conjunto de llegada es el de los números reales (R) X : Ω R Llamaremos Función de masa de probabilidad de una variable aleatoria discreta X a la probabilidad de que X tome un valor x R P (x) = P (X = x) = P ({w Ω : X(w) = x}) Llamaremos Imagen de una variable aleatoria al conjunto de los posibles valores que puede tomar dicha variable: Im(X) = {x : x = X(ω) ω Ω} 2

Vectores Aleatorios Un vector aleatorio es un par ordenado (X, Y ) definido en ΩxΩ (X, Y ) toma valores en R. La función de masa de probabilidad de un vector aleatorio (X, Y ) es: p(x, Y ) = P (X = x, Y = y) = P ({ω : X(ω) = x, Y (ω) = y)}) Además definimos las funciones de probabilidad marginal de una variable aleatoria: p(x) = P (X = x) = y P (X = x, Y = y) probabilidad marginal de X p(y) = P (Y = y) = x P (X = x, Y = y) probabilidad marginal de Y - Si el vector aleatorio (X, Y ) tiene función de masa de probabilidad conjunta p(x, Y ) = P x (X)P y (Y ) entonces X, Y con independientes. En caso general: P (X 1 = x 1, X 2 = x 2, X 3 = x 3,... ; X n = x n ) = n P (X i = x i ) i=1 - Si k(p (X = k) = P (Y = k)), entonces se dice que las variables X, Y están igualmente distribuidas. Acerca de las variables aleatorias independientes Nos interesa conocer la probabilidad de que la suma de dos variables independientes tomen un valor determinado. Si queremos que X + Y = z, entonces tenemos que tomar todos los eventos tal que X = k y Y = z k para algun k(0 k z). Si X, Y son variables aleatorias independientes entonces: P (X + Y = z) = x P (X = x)p (Y = x z) Además si Im(X) = Im(Y ) = {0, 1, 2...}, entonces: P X+Y (z) = P (X + Y = z) = z P x (k)p y (z k) = P x (x)p y (z k) k=0 Distribuciones de variables aleatorias * Modelo de Bernoulli Es una distribución que modela experimentos en los que los posibles resultados son éxito o no éxito. Se define una variable aleatoria X tal que: X = { 1 si hay un éxito 0 si no hay éxito La función de masa de probabilidad de la distribución de Bernoulli es: 3

P (X = 1) = p P (X = 0) = 1 p donde p es la probabilidad de éxito (p es el parámetro de la distribución). La esperanza de X variable que se distribuye Bernoulli es E(X) = p La varianza de X distribuida Bernoulli es var(x) = p p 2 * Modelo Hipergeométrico Es una distribución que modela experimentos donde se toma una muestra de tamaño n de un conjunto de tamaño N (sin repetición) y se quiere saber cúal es la probabilidad de que k elementos de la muestra cumplen con una característica dada. Los parámetros de esta distribución son el tamaño del conjunto (N), el tamaño de la muestra tomada (n) y la cantidad de elementos del conjunto que cumplen con la característica (a). La función de masa de probabilidad de la distribución hipergeométrica es: ( a N a ) k)( P (X = k) = n k ( N n) con 0 k min(n, a). La esperanza de X si se distribuye hipergeométrica es E(X) = n a N La varianza de una variable que se distribuya hipergeométrica es var(x) = n N n N 1 * Modelo Binomial a N (1 a N Es una distribución para modelar una sucesión de intentos de un experimento tipo Bernoulli (donde se puede obtener éxito o fracaso). Se define una variable aleatoria X tal que X va a ser el número de exitos en todos los intentos realizados. Los parámetros de la binomial son: p (la probabilidad de éxito) y n (el número de intentos). La función de masa de probabilidad de la distribución binomial es: ( ) n P (X = k) = p k (1 p) n k p La Esperanza de una variable aleatoria X que se distribuya binomial es: E(X) = np La varianza de una variable aleatoria X que se distribuya binomial es: var(x) = np(1 p) 4

* Modelo Geométrico Es una distribución para modelar una sucesión de intentos fracasados de un experimento hasta que se obtiene un éxito (debe haber igualdad de condiciones en cada intento). Se define una variable aleatoria X tal que X va a ser el número de fracasos antes de obtener un éxito. El parámetro del modelo geométrico es p (la probabilidad de éxito). La función de masa de probabilidad de la distribución geométrica es: P (X = k) = (1 p) k p La esperanza de una variable X que se distribuye geométrica es: E(X) = 1 p La varianza de una variable que se distribuya geométrica es: var(x) = 1 p p 2 * Modelo Poisson Es una distribución para modelar experimentos que se llevan a cabo sobre un espacio continuo (como el tiempo), la variable aleatoria definida X va a representar el numero de éxitos que se obtienen sobre ese espacio. El parámetro de la distribución Poisson es λ. La función de masa de probabilidad de la distribución Poisson es: P (X = k) = e λ λ k k! La esperanza de una variable X que se distribuye Poisson es: E(X) = λ La varianza de una variable X que se distribuya Poisson es: E(X) = λ Esperanza Sea Y una variable aleatoria discreta y Y = g(x) con g : R R, entonces: E(Y ) = y yp (Y = y) = x g(x)p (X = x) (Caso multidimensional)sea g : R x R R y sea z = g(x, Y ), entonces: E(z) = E(g(X, Y )) = g(x, Y )P (X = x, Y = y) x y Las operaciones sobre la esperanza son lineales, es decir, E(aX + by ) = ae(x) + be(y) Si X, Y son independientes: -E(XY ) = E(X)E(Y ) -E(X 1 X 2 X 3... X n ) = n i=1 E(X i) 5

Covarianza la covarianza se define como: cov(x, Y ) = E[(X µ x )(Y µ y )] cov(x, Y ) = E(XY ) E(X)E(Y ) Donde µ x y µ y son las esperanzas de X y de Y respectivamente. Si X, Y son independientes, entonces la covarianza es cero. Esperanza condicional Llamaremos esperanza condicionada, a la esperanza de una variable dado un evento: E(X B) = x xp (X = x B) Fórmula de particionamiento Si B 1, B 2, B 3,..., B n es una partición del espacio muestral, entonces E(X) = i 1 E(X B i )P (B i ) Varianza La varianza se define como: var(x) = E(X 2 ) E 2 (X) * La varianza no es lineal: var(ax + by ) = a 2 var(x) + b 2 var(y ) + 2abcov(X, Y ) * Si X, Y son independientes: var(x + Y ) = var(x) + var(y ) var(x 1 + X 2 + X 3... X n ) = n var(x i ) i=1 6