Tema 1: Introducción a la Estadística Bayesiana

Documentos relacionados
Definición 1 (Probabilidad Condicional) Observación 1 Se puede aplicar la definición también a variables discretas o continuas.

Estadística I Tema 4: Probabilidad

Repaso de Probabilidad y Estadística

Tema 6: Introducción a la Inferencia Bayesiana

Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones

Mirando el diagrama Venn, vemos que A =(A y B) (A y B)

Tema 3. Probabilidad y variables aleatorias

Modelo de Probabilidad

Momentos de Funciones de Vectores Aleatorios

2 Modelos de probabilidad discretos sobre R

ENUNCIADO y SOLUCIONES. Problema 1

Selección de distribuciones de probabilidad

Tema 5: Funciones homogéneas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Tema 4: Variables aleatorias multidimensionales

Cálculo de Probabilidades II Preguntas Tema 2

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

NIVELACIÓN DE ESTADISTICA. Carlos Darío Restrepo

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Se observa X, realización del fenómeno aleatorio. Lo anterior implica razonamiento inductivo.

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Sesión 2: Teoría de Probabilidad

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

10.1 Enfoque Bayesiano del problema de la estimación

Tema 3: Cálculo de Probabilidades Unidad 1: Introducción y Concepto

ETSI de Topografía, Geodesia y Cartografía. Probabilidad, variables aleatorias y distribuciones EVALUACIÓN CONTINUA

Estadística Bayesiana

EVAU. Junio matematiib.weebly.com

Tema 4. Probabilidad Condicionada

PROBABILIDAD Y ESTADÍSTICA

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

CÁLCULO DE PROBABILIDADES

Unidad Temática 3: Probabilidad y Variables Aleatorias

Generación de variables aleatorias continuas Método de rechazo

Universidad Nacional de La Plata

Espacio de Probabilidad

Variables Aleatorias y Distribución de Probabilidades

Tema 4: Variables aleatorias multidimensionales

Sesión 2: Teoría de Probabilidad

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Departamento de Matemática Aplicada a la I.T.T.

Modelo Uniforme discreto de Probabilidad (Modelo Clásico de Probabilidad)

Cálculo de Probabilidades II Preguntas Tema 1

APLICACIONES DE LA INTEGRAL DEFINIDA

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II

3 ESTIMACION. 3.1 Introducción

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

Procesos estocásticos

(2) X(3I + A) = B 2I (3) X(3I + A)(3I + A) 1 = (B 2I)(3I + A) 1 (5) X = (B 2I)(3I + A) 1

El parte meteorológico ha anunciado tres posibilidades para el fin de semana:

UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID PRUEBA DE ACCESO A LAS ENSEÑANZAS UNIVERSITARIAS OFICIALES DE GRADO

Probabilidad, Variables aleatorias y Distribuciones

Curso de Probabilidad y Estadística

Selección de distribuciones de probabilidad

Cap. 3 : Variables aleatorias

PROBABILIDAD Y ESTADISTICAS. Propósito del curso : Ingeniería Ingeniería en Sistemas. Hardware. Clave de la materia: 503

Estadís5ca. María Dolores Frías Domínguez Jesús Fernández Fernández Carmen María Sordo. Tema 3. Probabilidad y variable aleatoria

. Luego, para el período n + 1 los resultados estarán, en cualquier caso, en el conjunto {λ k n 0 } n+1. k= (n+1). Consideremos Y = λ U n

Probabilidad Condicional

Tema 9: Contraste de hipótesis.

Hipótesis. (x), donde es el parámetro poblacional desconocido. Problemas Inferenciales sobre

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA CIVIL DEPARTAMENTO DE INGENIERÍA HIDROMETEOROLÓGICA LABORATORIO:

EXAMEN DE ESTADÍSTICA Junio 2011

1.1. Distribución exponencial. Definición y propiedades

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

Tema 6: Modelos de probabilidad.

Estadística I Tema 4: Probabilidad

Técnicas Cuantitativas para el Management y los Negocios I

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

PROCESOS DE MARKOV DE TIEMPO CONTINUO

Variables aleatorias

ESTADÍSTICA I Tema 4: Estimación por intervalos de confianza

Técnicas Cuantitativas para el Management y los Negocios I

Distribución de Probabilidad

VARIABLES ALEATORIAS CONTINUAS

Familias de distribuciones

Universidad Nacional Abierta Estadística General (745) Vicerrectorado Académico Cód. Carrera: Área de Matemática Fecha:

Tema 4. Probabilidad y variables aleatorias

Documento 2 : Nuevas funciones a partir de otras

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Dr. Francisco Javier Tapia Moreno. Octubre 14 de 2015.

INTRODUCCIÓN A LA INFERENCIA BAYESIANA

PROBABILIDAD Y ESTADÍSTICA

Prueba Integral Lapso /6

1 CÁLCULO DE PROBABILIDADES

Tablas de Probabilidades

2.3. Análisis bayesiano para datos normales

Tema 1. Probabilidad y modelos probabiĺısticos

Probabilidad Condicional

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Distribuciones de probabilidad bidimensionales o conjuntas

Ciencias Básicas y Matemáticas

Tema 2. Introducción a la Estadística Bayesiana

DISTRIBUCIÓN GAMMA. Guillermo Mir Piorno NIUB Ciencias Actuariales y Financieras ESTADÍSTICA ACTUARIAL NO VIDA

8 Resolución de algunos ejemplos y ejercicios del tema 8.

Unidad 1: Espacio de Probabilidad

Transcripción:

Tema 1: Introducción a la Estadística Bayesiana Introducción En general, se usan probabilidades de modo informal para expresar la información o la incertidumbre que se tiene acerca de observaciones de cantidades desconocidas. Sin embargo, el uso de probabilidades para expresar la información se puede hacer de modo formal. Desde el punto de vista matemático se puede demostrar que con el Cálculo de Probabilidades se puede representar de modo numérico el conjunto de racional de creencias, de modo que existe una relación entre probabilidad y e información y la regla de Bayes proporciona un modo natural de actualización de las creencias cuando aparece nueva información. Este proceso de aprendizaje inductivo por medio de la regla de Bayes es la base de la Inferencia Bayesiana. De manera general, los métodos bayesianos son métodos de análisis de datos que se derivan de los principios de la inferencia bayesiana. Estos métodos, proporcionan Estimadores de los parámetros que tienen buenas propiedades estadísticas; Una descripción parsimoniosa (simple) de los datos observados; Estimación de los datos missing y predicciones de futuras observaciones; Una metodología computacional potente para la estimación, selección y validación de modelos. La metodología bayesiana consta de tres pasos fundamentales: 1. Especificar un modelo de probabilidad que incluya algún tipo de conocimiento previo (a priori) sobre los parámetros del modelo dado. 2. Actualizar el conocimiento sobre los parámetros desconocidos condicionando este modelo de probabilidad a los datos observados. 3. Evaluar el ajuste del modelo a los datos y la sensibilidad de las conclusiones a cambios en los supuestos del modelo. 1

La diferencia fundamental entre la estadística clásica (frecuentista) y la bayesiana es el concepto de probabilidad. Para la estadística clásica es un concepto objetivo, que se encuentra en la naturaleza, mientras que para la estadística bayesiana se encuentra en el observador, siendo así un concepto subjetivo. De este modo, en estadística clásica sólo se toma como fuente de información las muestras obtenidas suponiendo, para los desarrollos matemáticos, que se pueden tomar tamaños límite de las mismas. En el caso bayesiano, sin embargo, además de la muestra también juega un papel fundamental la información previa o externa que se posee en relación a los fenómenos que se tratan de modelizar. Definiciones y Teoremas Básicos El concepto básico en estadística bayesiana es el de probabilidad condicional: Para dos sucesos A y B, P (A B) P (A B) P (B) P (A B) Se puede aplicar esta definición también a variables discretas o continuas. Desde el punto de vista bayesiano, todas las probabilidades son condicionales porque casi siempre existe algún conocimiento previo o experiencia acerca de los sucesos. Ley de la Probabilidad Total: Para un suceso A y una partición B 1,..., B k, k P (A) P (A B i )P (B i ) i1 Se puede aplicar el teorema a variables discretas: f(x) y f(x Y y)p (Y y) o a variables continuas: f(x) f(x y)f(y) dy. En una fábrica de galletas se embalan en 4 cadenas de montaje; A 1, A 2, A 3 y A 4. El 35% de la producción total se embala en la cadena A 1 y el 2%, 24% y 21% en A 2, A 3 y A 4 respectivamente. Los datos indican que no se embalan correctamente un porcentaje pequeño de las cajas; el 1% de A 1, el 3% de A 2, el 2.5% de A 3 y el 2% de A 4. Cuál es la probabilidad de que una caja elegida al azar de la producción total sea defectuosa? Defino como D defectuosa. 2

Luego, P (D) 4 P (D A i )P (A i ) i1.1.35 +.3.2 +.25.24 + +.2.21.197 Supongamos que X Y Pois(Y ), una distribución Poisson, para x, 1, 2, para y >, donde Y Exp(β), una distribución exponencial Entonces, la distribución marginal de X es P (x y) yx x! e y f(y) β exp( βy) P (x) P (x y)f(y) dy y x x! e y β exp [ βy] dy β x! β x! y x exp [ (β + 1)y] dy y (x+1) 1 exp [ (β + 1)y] dy Para resolver la integral, se observa que el integrando está relacionado con una distribución gamma Ga(x + 1, β + 1) : NOTA: Si X Ga(a, b) su función de densidad es f(x; a, b) ba Γ(a) xa 1 exp[ bx], de este modo b a Γ(a) xa 1 exp[ bx]dx 1 x a 1 exp[ bx]dx Γ(a) b a 3

Luego P (x) β Γ(x + 1) x! (β + 1) (x+1) β x! x! (β + 1) (x+1) β (β + 1) (x+1) Si se denota como p β/(1 + β), entonces < p < 1 y despejando β P (x) ( p 1 + p ) x ( ) x 1 p 1 p 1 p p(1 p) x, para x, 1, 2,... Se observa que es una distribución geométrica con parámetro p. Si X θ Exp(θ) y θ Ga(α, β), la distribución marginal es f(x) θe θx βα Γ(α) βα Γ(α) βα Γ(α) θα 1 e βθ dθ θ α e (β+x)θ dθ θ (α+1) 1 e (β+x)θ dθ p 1 p, y el integrando está relacionado con otra distribución gamma, Ga(α + 1, β + x): Entonces, f(x) βα Γ(α) θ (α+1) 1 e (β+x)θ dθ Γ(α + 1) βα (β + x) α+1 Γ(α) αβ α (β + x) α+1, Γ(α + 1) (β + x) α+1. donde se ha utilizado la propiedad básica de la función gamma, Γ(α + 1) αγ(α). αγ(α) (β + x) α+1 No es una distribución estándar, pero si se define la v.a. Z X + β, se puede ver que Z tiene una distribución de Pareto. NOTA: Ver, por ejemplo, 4

http://en.wikipedia.org/wiki/pareto_distribution Para ello aplicamos el teorema del cambio de variable: Sea X una v.a. con función de densidad p x y sea g una función diferenciable, monótona e invertible. Definimos otra v.a como Y g(x), entonces la función de densidad de Y es ( p Y (y) p X g 1 (y) ) dg 1 (y) dy O equivalentemente donde x g 1 (y). Ver demostración, e.g,. en p Y (y) p X (x) dx dy http://www.stat.duke.edu/~michael/screen.pdf En el caso del ejemplo, f Z (z) f X (z β) 1 αβ α z α 1, para Z > β. Luego Z PA(β, α). La distribución de Pareto se aplicó inicialmente a la modelización del reparto de riqueza. Es la llamada ley 8-2 que afirma que el 2% de la poblacion posee el 8% de la riqueza. El teorema de Bayes Se tiene que, para los sucesos A 1,..., A n y B, P (A i B) P (B A i)p (A i ) P (B) P (B A i)p (A i ) n P (B A i )P (A i ) i1 P (B A i )P (A i ) Volviendo al ejemplo de las galletas, supongamos que descubrimos que una caja es defectuosa. Queremos calcular la probabilidad de que la caja proceda de A 1. P (A 1 D) P (D A 1)P (A 1 ) P (D).1.35.197.18 5

Supongamos un juego televisivo en el que tienes que elegir entre tres puertas cerradas, A, B o C. Detrás de dos de las puertas hay una peineta y en la otra hay un coche, con igual probabilidad en los tres casos. Por tanto, la probabilidad de ganar el coche en cada una de las puertas es p(a) 1, p(b) 1, p(c) 1. 3 3 3 Después de que hayas elegido una puerta, digamos A, antes de mostrarte lo que hay detrás de la puerta, el presentador (Risto Mejide) abre otra puerta, digamos B, que tiene una peineta. En este punto te ofrece la opción de cambiar de la puerta A a la puerta C. Qué deberías hacer? liar... Intuitivamente parece que tú has elegido la puerta adecuada, pero que Risto Mejide te quiere así, desde un punto de vista inocente la probabilidad de encontrar el coche entre las dos puertas que quedan es 1. Pero esto es falso... 2 Asumimos que Risto Mejide va en tu contra (cobra de la productora de televisión) y calculamos cuál es la probabilidad de que el coche aparezca cuando él abre la puerta B, una vez que tú hayas abierto la puerta A: (i) La probabilidad de que Risto Mejide abra la puerta B dado que el coche está detrás de la puerta A es p (B RM A) 1 2 ya que le es indiferente abrir la puerta B o C. (ii) La probabilidad de que Risto Mejide abra la puerta B dado que el coche está detrás de la puerta B es p (B RM B) porque supones que no es estúpido. (iii) La probabilidad de que Risto Mejide abra la puerta B dado que el coche está detrás de la puerta C es p (B RM C) 1 Aplicando la definición de probabilidad condicionada se obtienen las siguientes distribuciones conjuntas: p (B RM, A) p (B RM A) p (A) 1 2 1 3 1 6 p (B RM, B) p (B RM B) p (B) 1 3 p (B RM, C) p (B RM C) p (C) 1 1 3 1 3 6

Por otro lado, dado que los sucesos son mutuamente excluyentes, por la ley de probabilidad total p(b RM ) p (B RM, A) + p (B RM, B) + p (B RM, C) 1 6 + + 1 3 1 2 Finalmente, aplicando el teorema de Bayes, se tiene que p (A B RM ) p (B RM A) p (A) p(b RM ) p (C B RM ) p (B RM C) p (C) p(b RM ) Luego es mucho mejor que elijas la puerta C. 1 1 2 3 1 2 1 1 3 1 2 1 3 2 3 Se puede aplicar el teorema de Bayes a variables discretas y continuas. En el caso de que la v.a. X sea continua se tiene f(x y) f(y x)f(x) f(y) f(y x)f(x) R f(y x)f(x)dx, como el denominador f(y) es independiente de x, entonces se puede escribir el teorema en la forma de proporcionalidad ( ): f(x y) f(y x)f(x). Este resultado es útil para los cálculos porque implica que se pueden olvidar las constantes multiplicativas hasta el final de los cálculos en modelos complicados. Retomando el ejemplo de la Poisson, se tenía que Y Exp(β) y X Y Pois(Y ). Calculamos la distribución de Y x, sabiendo que la distribución marginal de X era una geométrica: f(y x) P (x y)f(y) P (x) y x e y βe βy x! β (β+1) x+1 (β + 1)x+1 y x e (β+1)y x! (β + 1)x+1 Γ(x + 1) y(x+1) 1 e (β+1)y que es la densidad de una variable gamma: Ga(x + 1, β + 1). Volviendo al ejemplo de la distribución de Pareto, donde X θ Exp(θ) y θ Ga(α, β), calculamos la distribución de θ dada una observación x. 7

f(θ x) f(x θ)f(θ) θx βα θe Γ(α) θα 1 e βθ θ (α+1) 1 e (β+x)θ que está relacionado con una distribución gamma, es decir, θ x Ga(α + 1, β + x). La media y varianza condicional. Dadas dos variables X e Y, definimos la media y varianza de X cuando Y y como E [X Y y] xf(x y) dx V ar [X Y y] (x E[X Y y]) 2 f(x y) dx El siguiente teorema nos proporciona la relación entre la esperanza y varianza marginal y la esperanza y varianza condicional. Teorema Dadas dos variables X e Y, se tiene que (i) E x [X] E y [E x [X Y ]] (ii) V ar x [X] E y [V ar x [X Y ]] + V ar y [E x [X Y ]] Demostración: (i) Se tenía que, en general, E(g(x)) g(x)f(x) dx por ello, como E[X Y ] es una función de Y, E y [E x [X Y ]] E x (X y)f(y) dy ( ) xf(x y)dx f(y) dy ( x ) f(x y)f(y)dy dx ( x ) f(x, y)dy dx xf(x) dx E x [X] 8

(ii) La demostración, que es más larga, se puede ver, por ejemplo, en el libro de Lee (212). Volviendo al ejemplo de la Poisson, se tenía que Y Exp(β) y X Y Pois(Y ).Supongamos que queremos calcular la media y varianza de X (y que no sabemos nada acerca de la distribución marginal de X que sabíamos de antes que sigue una distribución geométrica). E x [X] E y [E x [X Y ]] E y [Y ] porque X Y Pois(Y ) 1 β la media de la exponencial V ar x [X] E y [V ar x [X Y ]] + V ar y [E x [X Y ]] E y [Y ] + V ar y [Y ] porque media varianza Y 1 β + 1 β 2 Sustituyendo p β + 1 β 2 β y despejando β p, se obtiene que 1+β 1 p E[X] 1 p p q p V ar[x] 1 p p ( 1 p + p 1 p p 2 q p 2, que son los momentos que se obtienen directamente para la distribución geométrica en la notación habitual. Retomando el ejemplo de la distribución de Pareto, donde X θ Exp(θ) y θ Ga(α, β), se tiene ) 2 9

que E[X] E θ [E x [X θ]] E θ [1/θ] 1 β α θ Γ(α) θα 1 e βθ dθ βα Γ(α) θ (α 1) 1 e βθ dθ El integrando es el núcleo de una distribución gamma; Ga(α 1, β). Entonces, E[X] es decir, la esperanza sólo existe si α > 1. βα Γ(α 1) β Γ(α) β α 1 α 1, Hemos visto anteriormente que Z X +β PA(β, α). De este modo, podemos calcular la media de X utilizando también la fórmula para la media de una distribución Pareto: E[X] E[Z] β αβ β [para α > 1] α 1 β α 1. 1