Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Documentos relacionados
Análisis de Datos en Física de Partículas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Selección de distribuciones de probabilidad

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Cálculo de Probabilidades II Preguntas Tema 2

Tablas de Probabilidades

Sumas/promedios de variables aleatorias

Modelos de distribuciones discretas y continuas

Momentos de Funciones de Vectores Aleatorios

Distribuciones multivariadas

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

2 Modelos de probabilidad discretos sobre R

ENUNCIADO y SOLUCIONES. Problema 1

Modelado de la aleatoriedad: Distribuciones

Curso de Probabilidad y Estadística

Variables Aleatorias y Distribución de Probabilidades

VARIABLES ALEATORIAS CONTINUAS

Tema 6: Modelos de probabilidad.

5. Distribuciones de probabilidad multivariadas

Distribuciones de probabilidad Discretas

Distribuciones de probabilidad multivariadas

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes.

Selección de distribuciones de probabilidad

Procesos estocásticos

Familias de distribuciones

Probabilidad y Estadística

Departamento de Matemática Aplicada a la I.T.T.

Técnicas Cuantitativas para el Management y los Negocios I

Variables aleatorias continuas y Teorema Central del Limite

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Cálculo de Probabilidades II Preguntas Tema 1

Práctica 11 Probabilidades

Tema 4: Probabilidad y Teoría de Muestras

VARIABLES ALEATORIAS CONTINUAS

Probabilidad y Verosimilitud

Probabilidad y Estadística

Prueba Integral Lapso /6

Cálculo y EstadísTICa. Primer Semestre.

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Unidad IV. Una variable aleatoria X es continua si su función de distribución es una función continua.

Distribuciones unidimensionales continuas

Departamento de Matemática Aplicada a la I.T.T.

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

METODOS ESTADÍSTICOS

ESTADISTICA GENERAL. PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales

MODELOS DE SIMULACIÓN ESTADÍSTICOS CLASE 4: DISTRIBUCIÓN t, CHI-CUADRADA y EXPONENCIAL PROFESOR: OSCAR SAAVEDRA ANDRÉS DURANGO.

Algunas Distribuciones Estadísticas Teóricas. c) Relación entre la Distribuciones de Poisson y Exponencial.

Cuáles son las características aleatorias de la nueva variable?

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Variables aleatorias continuas, TCL y Esperanza Condicional

Lista de Ejercicios (Parte 1)

Preparación de los datos de entrada

Ruido en los sistemas de comunicaciones

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Tema 3 Normalidad multivariante

Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Estadística Grupo V. Tema 10: Modelos de Probabilidad

El método de mínimos cuadrados. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Distribución Exponencial

Universidad Nacional Abierta Estadística General (745) Vicerrectorado Académico Cód. Carrera: Área de Matemática Fecha:

Sesión 2: Teoría de Probabilidad

Probabilidad y Estadística Segundo del grado en Telecomunicaciones, UAM, Examen de la convocatoria extraordinaria,

Probabilidad y Estadística

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Gráficas de funciones de masa de probabilidad y de función de densidad de probabilidad de Distribuciones especiales. x n

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Prof. Eliana Guzmán U. Semestre A-2015

Tema 4: Leyes de la desintegración

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Funciones de Variables Aleatorias. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

Tema 4: Variables aleatorias multidimensionales

PROBABILIDAD Y ESTADÍSTICA. Sesión 6 (A partir de tema 5.9)

Modelo de Probabilidad

CAPÍTULO 6: VARIABLES ALEATORIAS

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Técnicas de Inferencia Estadística II. Tema 6. Contrastes de independencia

Variable Aleatoria Continua. Principales Distribuciones

Tema 6: Introducción a la Inferencia Bayesiana

3.3: DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES ALEATORIAS CONTINUAS

REVISION DE CONCEPTOS BÁSICOS

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Generación de números aleatorios con distribución uniforme

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

1. La Distribución Normal

Modelos de distribuciones discretas y continuas

Distribuciones de probabilidad más usuales

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev

Modelos Estocásticos I. Notas de Curso. Cimat, A.C.

Transcripción:

Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas

Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo La probabilidad de acierto de un experimento dado es p El conjunto de observaciones N puede considerarse como una única medida que puede caracterizarse por la variable aleatoria n : n = número de aciertos (0 n N) El espacio de muestras S se define como el conjunto de posibles valores de n para N observaciones. Si repetimos el experimento muchas veces con N observaciones cada vez, los valores resultantes de n ocurren con frecuencias relativas determinadas por la distribución binomial.

Derivación de la forma de la distribución binomial Probabilidad de acierto para una observación dada p Probabilidad de fallo 1-p Las observaciones son independientes Probabilidad de acierto y/o fallo de una secuencia de observaciones (en un orden dado) es el producto de las observaciones individuales. Ejemplo: aafaf P=pp(1-p)p(1-p)=p 3 (1-p) En general P, para una secuencia de n aciertos y (N-n) fallos p n (1-p) N-n Puesto que el orden de acierto/fallo es irrelevante (estamos interesados sólo en el número total de aciertos n) calculamos el número de secuencias (permutaciones) con n éxitos en N observaciones: N! n!(n n)!

La distribución binomial, es, entonces: f (n; N, p) = N! n!(n n)! pn (1 p) N n Donde, la notación f(n; N,p) indica que n es una variable aleatoria, mientras que N y p son parámetros. Valor esperado y varianza (cálculo no trivial): E[n] = n= 0 n N! n!(n n)! pn (1 p) N n V[n] = E[n ] (E[n]) = Np(1 p) = Np NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de los valores verdaderos (y posiblemente desconocidos) de p y N.

Ejemplo: Observamos N desintegraciones del τ. El número n de estas observaciones correspondientes a un determinado canal (e.g, πν) sigue la distribución binomial, con p igual a la relación de semidesintegración del canal

Distribución Multinomial Similar a la binomial, pero en lugar de posibles resultados (acierto o fallo) hay m posibles resultados. p = (p 1,..., p m ) tal que m p i = 1 i=1 Para N observaciones queremos calcular la probabilidad de observar: n 1 con resultado 1 n con resultado n m con resultado m Esta probabilidad sigue la distribución multinomial Ejemplo de multinomial: n = (n 1,,n m ) representa un histograma con m bins y N entradas en total f ( n; N, p) = N! n 1!n!...n m! p n 1 n 1 p n...p m m Los n i individuales se distribuyen binomialmente con parámetros N,p i

Distribución de Poisson Considerar la distribución binomial en el límite: N p 0 E[n]=Np ν Puede demostrarse que en este caso n sigue la distribución de Poisson f (n;ν) = ν n n! e ν E[n]= n ν n n! e ν = ν n=0 (0 n ) ν V[n]= n (n-ν) n! e ν = ν n=0 Para ν grande Poisson tiende a Gauss Ejemplos de Poisson: Número de desintegraciones de una cierta cantidad de material radioactivo en un tiempo fijo t, en el límite: Número de desintegraciones posibles (e.g, número total de átomos) es muy grande Probabilidad de una desintegración individual en t es muy pequeña.

Distribución uniforme Considerar una variable continua aleatoria definida en todo R. La distribución uniforme es: f (x; α,β) = 1 β α α x β 0 en otro caso Es decir, podemos encontrar x con igual probabilidad entre α y β: β x E[x] = dx = 1 (α + β) 0 β α β V[x] = [x 1 (α + 1 β)] dx = 1 (β α) 0 β α 1

Una propiedad importante de la distribución uniforme es la de que cualquier variable aleatoria continua x con pdf f(x) y distribución acumulativa F(x) puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1 mediante el cambio de variable: y = F(x) dy dx = d x f (x')dx' = f (x) dx La pdf de y es: g(y) = f (x) dx dy = dy dx dx dy = 1 0 y 1 Usaremos esta propiedad de la distribución uniforme en el tema relacionado con técnicas de Monte Carlo.

Distribución exponencial f (x;ξ) = 1 ξ e x ξ, 0 x E[x] = 1 ξ V[x] = 1 ξ 0 0 x e x ξ dx = ξ (x ξ) e x ξ dx = ξ Ejemplo: El tiempo de desintegración de una partícula inestable (medido en su sistema de referencia) sigue una distribución exponencial

Distribución de Gauss f (x;µ,σ ) = E[x] = + + x V[x] = (x µ) 1 µ) exp( (x ) πσ σ 1 µ) exp( (x )dx = µ πσ σ 1 µ) exp( (x )dx = σ πσ σ NB: A menudo µ y σ se utlizan para denotar la media y la varianza de cualquier pdf, no sólo la pdf gausiana. Distribución de Gauss estándar: µ = 0, σ = 1 ϕ(x) = 1 π exp( x ) Φ(x) = x ϕ(x')dx' Si y es Gausiana con µ y σ entonces x=(y- µ )/σ sigue ϕ(x).

Teorema del límite central Dadas n variables aleatorias independientes x i, con: medias µ i, varianzas σ i pdf arbitraria Su suma, en el límite de n grande es una variable aleatoria distribuida gausianamente y i = n x i, i=1 n n : y i está distribuida gausianamente E[y i ]= µ i, V[y i ]= σ i i=1 n i=1 El teorema del límite central supone la justificación formal para tratar los errores como variables aleatorias distribuidas gausianamente. Es aplicable siempre que el error total sea la suma de muchas contribuciones pequeñas.

Distribución de Gauss Multivariada f ( x; µ,v ) = 1 (π ) N / V exp 1 1/ ( x µ) T V 1 ( x µ) E[x i ] = µ i cov[x i, x j ] = V ij n = f (x 1, x ;µ 1, µ,σ 1,σ, ρ) = 1 πσ 1 σ 1 ρ 1 exp (1 ρ ) ( x µ 1 1 ) + ( x µ ) ρ( x µ 1 1 )( x µ ) σ 1 σ σ 1 σ, ρ = cov[x, x ] 1 coeficiente de correlación (σ 1 σ )

Distribución χ f (z;n) = 1 n/ Γ(n / ) zn / 1 e z/, n = 1,.,,, n número de grados de libertad Γ(x)= e -t t x 1 dt 0 E[z]= z 0 función Gamma 1 n/ Γ(n / ) zn/ 1 e z/ dz = n 1 V[z]= (z-n) n / Γ(n / ) zn/ 1 e z/ dz = n 0 Dadas N variables aleatorias independientes x i, distribuidas gausianamente, con media µ i y varianza σ i, la variable: z = N i=1 (x i µ i ) σ i Sigue la distribución χ para N grados de libertad. Como veremos, estas variables son las que utilizamos para estimar la calidad de un ajuste, particularmente con el método de mínimos cuadrados