Tema 6: Modelos de probabilidad.

Documentos relacionados
Modelos de distribuciones discretas y continuas

Modelos de distribuciones discretas y continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Distribuciones de probabilidad más usuales

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Tema 7. Variables Aleatorias Continuas

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...

Técnicas Cuantitativas para el Management y los Negocios I

Apuntes de Clases. Modelos de Probabilidad Discretos

Curso de Probabilidad y Estadística

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Variables aleatorias

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas y Teorema Central del Limite

Tema 4: Probabilidad y Teoría de Muestras

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

Procesos estocásticos

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Cálculo de Probabilidades II Preguntas Tema 2

Probabilidad y Estadística

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

6.3. Distribuciones continuas

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

2 Modelos de probabilidad discretos sobre R

Variables Aleatorias y Distribución de Probabilidades

Distribuciones de probabilidad Discretas

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Momentos de Funciones de Vectores Aleatorios

Resumen teórico de los principales conceptos estadísticos

Esperanza Condicional

PROBABILIDAD Y ESTADÍSTICA

Introducción a los Procesos de Poisson *

TEMA 3: Probabilidad. Modelos. Probabilidad

MODELOS DISCRETOS DE PROBABILIDAD

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Cálculo y EstadísTICa. Primer Semestre.

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes.

Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.

Probabilidad y Estadística

Modelado de la aleatoriedad: Distribuciones

Algunas Distribuciones Estadísticas Teóricas. c) Relación entre la Distribuciones de Poisson y Exponencial.

Familias de distribuciones

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS 1º Bto. CC.SS.

Tema 5 Algunas distribuciones importantes

Probabilidad y Estadística

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

TEMA 3. Algunos modelos de probabilidad de tipo discreto. 3.1 Al finalizar el tema el alumno debe conocer...

Métodos Estadísticos de la Ingeniería Práctica 5: Distribuciones de Probabilidad y el Teorema Central del

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Selección de distribuciones de probabilidad

Prof. Eliana Guzmán U. Semestre A-2015

Tema 2 Modelos de probabilidad

Cuáles son las características aleatorias de la nueva variable?

1. Variables Aleatorias Discretas

8 Resolución de algunos ejemplos y ejercicios del tema 8.

Tema 13: Distribuciones de probabilidad. Estadística

Modelo de Probabilidad

Selección de distribuciones de probabilidad

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

VARIABLES ALEATORIAS CONTINUAS

Funciones generadoras de probabilidad

Tema 3: VARIABLES ALEATORIAS

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

Sabemos que en un proceso de Poisson la función de probabilidad está dada por:

I. Distribuciones discretas

PROCESO DE BERNOULLI Rosario Romera Febrero 2009

Algunas Distribuciones EstadísticasTeóricas. Aproximación de la Distribución Binomial por la Distribución de Poisson

Distribuciones de probabilidad

9 APROXIMACIONES DE LA BINOMIAL

1.1. Distribución exponencial. Definición y propiedades

Unidad Temática 1: Unidad 3 Distribución de Probabilidad Tema 9

Estadística Descriptiva y Probabilidad FORMULARIO

DISTRIBUCIONES DE PROBABILIDAD

4. Modelos Multivariantes

contablemente infinito.

Análisis Estadístico de Datos Climáticos. Distribuciones paramétricas de probabilidad (Wilks, cap. 4)

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

Estadística y Probabilidad

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Ejercicios de Simulación

Tema 3. Probabilidad y variables aleatorias

1. La Distribución Normal

Dónde estamos? MODELOS DE PROBABILIDAD

Análisis de Datos y Métodos Cuantitativos para la Toma de Decisiones 7ma versión MGM

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Unidad Temática 3 UT3-1: Variable Aleatoria

GRADO TURISMO TEMA 7: INTRODUCCIÓN A LOS MODELOS DE PROBABILIDAD

Tema 2: Variables Aleatorias Unidimensionales

Tema 3. VARIABLES ALEATORIAS.

5 DISTRIBUCIONES BINOMIAL Y DE POISSON

Generación de variables aleatorias continuas Método de rechazo

Tema 7: Introducción a la Teoría sobre Estimación

Transcripción:

Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos por U(n), si su ley de probabilidad viene dada por: S X = {x 1, x 2,..., x n } p(x = x i ) = 1, para cada i = 1, 2,..., n. n (b) Distribuciones definidas sobre un experimento de Bernouilli Un experimento aleatorio se denomina de Bernouilli si verifica las tres condiciones siguientes: 1 El experimento consiste en observar elementos de una población y clasificarlos en dos categorías: éxito y fracaso (que denominaremos E y F). 2 Llamaremos p a la probabilidad de que un elemento esté en E y q = 1 p a la probabilidad de que esté en F. 3 Las observaciones son independientes. Sobre los experimentos de Bernouilli se pueden definir varios modelos de variables aleatorias: Distribución de Bernouilli. La variable aleatoria X que modeliza la clasificación de un elemento observado en un experimento de Bernouilli como E ó F, tiene una distribución que llamaremos Bernouilli de parámetro p. Lo denotaremos por X B(p). Su ley de probabilidad viene dada por: S X = {0, 1} p(x = 1) = p, p(x = 0) = 1 p E(X) = p V ar(x) = pq. Distribución binomial. La variable aleatoria X que modeliza el número de elementos, entre n observados que tienen la característica E, tiene una distribución que llamaremos binomial de parámetros n y p. Lo denotaremos por X B(n, p); su ley de probabilidad viene dada por: S X = {0, 1,..., n}

Estadística 61 p(x = k) = ( n k ) p k (1 p) n k E(X) = np V ar(x) = npq. Propiedades 1 i. Si X B(n, p), entonces X es la suma de n variables de Bernouilli independientes y de parámetro p. ii. Si X 1, X 2,..., X k son variables binomiales independientes de parámetros n i y p, i = 1, 2,..., k, entonces X 1 +... + X k tiene distribución B(n 1 +... + n k, p). iii. Si X B(n, p) entonces Y = n X B(n, 1 p). iv. La distribución es simétrica si y sólo si p = 1 2. Si p < 1 2, entonces existe asimetría a la derecha y en caso contrario hay asimetría a la izquierda. Observación 1 partir de la propiedad (i). Los valores de la media y de la varianza de X se deducen fácilmente a La propiedad (ii) se denomina propiedad de aditividad y no es cierta en general para cualquier modelo de distribución: por ejemplo, si X e Y son las variables que modelizan el resultado de dos dados normales, ambas son uniformes discretas, pero su suma, que modelizaría la suma de resultados, no lo es. Distribución geométrica: La variable aleatoria X que modeliza el número de observaciones (o ensayos) necesarias para obtener el primer éxito en un experimento de Bernouilli, tiene una distribución que llamaremos geométrica de parámetro p. Lo denotaremos por X G(p); su ley de probabilidad viene dada por: S X = {1, 2,...} p(x = k) = p(1 p) k 1 k = 1, 2,... E(X) = 1 p V ar(x) = 1 p p 2 Observación 2 En ocasiones conviene utilizar la variable Y que modeliza el número de fracasos necesarios hasta obtener el primer éxito en un experimento de Bernouilli; esta variable está relacionada con la anterior por la igualdad Y = X 1; a partir de esta relación se deduce la ley de probabilidades, media y varianza de la variable Y (calcúlalas). Distribución binomial negativa. La variable aleatoria X que modeliza el número de ensayos necesarios para obtener el r- ésimo éxito, tiene una distribución que llamamos binomial negativa de parámetros r y p. Lo denotaremos por X BN (r, p). Su ley de probabilidad viene dada por: S X = {r, r + 1,...}

Estadística 62 p(x = k) = ( k 1 r 1 ) p r (1 p) k r E(X) = r p V ar(x) = r(1 p) p 2 Observación 3 EL siguiente cuadro señala las diferencias entre las variables binomial y binnomial negativa, indicando qué es lo que permanece fijo y cuáles son los valores (aleatorios) de la variable: (c) Distribución hipergeométrica. N o de ensayos N o de éxitos Binomial fijo aleatorio Binomial negativa aleatorio fijo La variable aleatoria X cuya distribución se denomina hipergeométrica de parámetros N, n y Q, se define sobre experimentos que consisten en observar elementos de una población y clasificarlos en dos categorías, éxito y fracaso, (es decir, que cumplen la condición 1) de los experimentos de Bernouilli), pero en los que las observaciones no son independientes. Corresponde a modelizar el número de individuos que tienen la característica de interés, de n (diferentes) observados de una población finita, de tamaño N, cuándo en la población hay Q individuos con esa característica. La denotaremos por X H(N, n, Q); su ley de probabilidad viene dada por: S X = [máx{0, n (N Q)},..., mín{q, n}] ( ) ( ) Q N Q p(x = i) = i n i ( ) N n E(X) = nq N V ar(x) = nq N ( 1 Q N ) ( ) N n N 1 Aproximación de la distribución hipergeométrica por la binomial. Si X es una variable aleatoria con distribución hipergeométrica H(N, n, Q), se puede demostrar que cuando N, Q y Q N p, la distribución hipergeométrica tiende a una distribución binomial B(n, p). Esto permite aproximar la hipergeométrica H(N, n, Q) por una binomial de parámetros n y Q N cuando N es suficientemente grande. En general, la aproximación se considera satisfactoria si N > 50 y n N 0.1. (d) Distribuciones discretas definidas sobre un proceso de Poisson. Un proceso de Poisson es un experimento en el que se observa la aparición de sucesos puntuales sobre un soporte continuo (intervalo de tiempo, de longitud, superficie, etc) y que cumple las siguientes condiciones:

Estadística 63 1 El número de resultados que ocurren en un intervalo de tiempo o región específica es independiente del número que ocurre en cualquier otro intervalo disjunto, es decir, no depende del número de resultados que ocurren fuera de él. 2 La probabilidad de que un suceso ocurra en un intervalo o región muy pequeña es proporcional a la longitud del intervalo o área de la región. 3 La probabilidad de que ocurra más de un resultado en un intervalo corto es despreciable. Como consecuencia de las propiedades anteriores el promedio de sucesos por unidad de soporte se mantiene constante y lo denotaremos por λ. Distribución de Poisson. La variable aleatoria X que modeliza el número de sucesos en una unidad de soporte, en un proceso de Poisson, tiene una distribución que llamaremos de Poisson de parámetro λ. La denotaremos por X P(λ). Su ley de probabilidad viene dada por: S X = {0, 1...} p(x = k) = (λ)k e λ k! E(X) = λ V ar(x) = λ. Observación 4 Si Y es la variable que modeliza el número de sucesos en t unidades de soporte (t > 0), la variable Y es también de Poisson y su parámetro es λt, pues por las propiedades de los procesos de Poisson se deduce que el número medio de sucesos en t unidades de soporte es λt. Proposición 1 Si X 1,..., X k son variables aleatorias independientes, con distribución de Poisson, con parámetros λ i, i = 1, 2,..., k entonces la variable aleatoria X = distribución de Poisson de parámetro λ = k λ i. Teorema 1 Teorema de Poisson k X i tiene Sea {X n } n=1 una sucesión de v. a., tales que X n B(n, p n ). Si lim n np n = λ y X es una v.a. con distribución P(λ), se tiene que: lim p(x n x) = p(x x), para cada x IR. n Observación 5 Este último resultado se utiliza en la práctica para aproximar las probabilidades relativas a una variable B(n, p) con n grande y p peque o por probabilidades relativas a una variable de Poisson de parámetro λ = np. Utilizaremos esta aproximación cuando n 25 y p < 0.01.

Estadística 64 6.2 Modelos continuos. (a) Distribución exponencial La variable aleatoria T que en los procesos de Poisson modeliza el tiempo entre la ocurrencia de dos sucesos consecutivos, tiene una distribución que llamaremos exponencial de parámetro λ > 0; la denotaremos por T Exp(λ). Su ley de probabilidades es: S X = (0, ) f(t) = Su función de distribución viene dada por: { 0 si t < 0 λe λt si t 0 F (t) = 1 e λt E(X) = 1 λ V ar(x) = 1. λ 2 Es el ejemplo más simple de las distribuciones utilizadas en fiabilidad. Proposición 2 Propiedad de pérdida de memoria de la distribución exponencial. Si X es una v.a. con distribución Exp(λ), entonces p(x x + h/(x > x)) = p(x h)para cada x, h 0. Demostración Para cada x > 0 y cada h 0, p(x x + h/(x > x)) = p(x x + h) p(x > x) = 1. Distribución uniforme continua = e λ(t+h) e λt = e λh = p(x h) La variable aleatoria X tiene una distribución uniforme continua de parámetros a y b, que denotaremos por U(a, b), si su ley de probabilidades es: S X = [a, b] (ó (a, b], [a, b), (a, b); denotaremos al intervalo por I) f(x) = { 1 b a si x I 0 en otro caso E(X) = a + b 2 V ar(x) = (b a)2. 12

Estadística 65 2. Distribución normal La variable aleatoria X tiene una distribución normal de parámetros µ y σ, X N (µ, σ) si su ley de probabilidades es: Propiedades 2 (a) E(X) = µ (b) V ar(x) = σ 2 S X = IR f(x) = 1 { σ 2π exp 1 ( ) } x µ 2, para cada x IR. 2 σ (c) Es simétrica respecto de media, mediana y moda, que coinciden con µ. (d) La función de densidad tiene puntos de inflexión en µ ± σ. (e) La función de densidad tiende asintóticamente a 0 en ±. (f) Q 1 = µ 0.675σ, Q 3 = µ + 0.675σ y por tanto, el IRQ es 1.35σ. (g) En µ ± 2σ se encuentra el 95.5% de la distribución y en µ ± 3σ se encuentra el 99.7% de la misma. (h) Si X N (µ, σ), entonces la variable estandarizada, Z = X µ σ tiene distribución N (0, 1). (i) Dos distribuciones normales cualesquiera están relacionadas mediante una transformación lineal. (j) Si X 1, X 2,..., X n son variables aleatorias independientes, tales que X i N (µ i, σ i ), i = 1,..., n, entonces la v.a. X = n X i tiene distribución N ( n n µ i, σi 2). 6.3 Teorema Central del Límite. El modelo normal es uno de los utilizados más frecuentemente, debido a que en muchas situaciones, los resultados de un experimento son consecuencia de múltiples causas de pequeã incidencia individual, pero cuyos efectos se suman, dando lugar a los resultados del experimento (por ejemplo, los errores de medida, en muchas situaciones); en estas situaciones, el modelo normal suele aproximar bien el comportamiento de los resultados del experimento. El siguiente teorema explica el buen funcionamiento del modelo normal: Teorema 2 Sea {X n } n=1 una sucesión de variables aleatorias independientes con E(X i) = µ i y V ar(x i ) = σi 2. Entonces la sucesión de variables aleatorias definida por: Z n = n X i n µ i ( n ) 1/2 σi 2 converge asintóticamente a una variable aleatoria con distribución N (0, 1), es decir, si F n es la función de distribución de la variable Z n, n = 1, 2,..., y φ es la función de distribución de una variable N (0, 1), entonces para cada x IR, lim F n(x) = φ(x). n

Estadística 66 También se dice que n X i es asintóticamente una variable N ( n n µ i, σi 2) Observación 6 Si {X n } n=1 una sucesión de variables aleatorias independientes e idénticamente distribuidas, todas ellas tendrán la misma media (µ) y la misma desviación típioca (σ), y en ese caso, la variable n X i es asintóticamente una variable N (nµ, σ n) Si aplicamos el teorema anterior a una sucesión de variables con distribución B(p) (Bernouilli de parámetro p), se obtiene el siguiente resultado: Teorema 3 Teorema de De Moivre Sea {X n } n=1 una sucesión de variables aleatorias independientes con distribución B(n, p). Entonces X n es asintóticamente normal, con parámetros µ = np y σ = npq. Corrección de continuidad Como la distribución binomial es discreta y la normal es continua, para que la aproximación de la variable X B(n, p) por la variable Y N (np, npq) resulte más precisa se utiliza la llamada corrección de medio punto o de continuidad, que asigna, si b IN: p(x b) p(y b + 0.5), es decir F X (b) F Y (b + 0.5). Esta misma corrección se aplica cada vez que se aproxima una variable aleatoria discreta, cuyo soporte sean los números naturales, por una variable con distribución normal. Observación 7 La aproximación de una binomial por una normal no es adecuada para valores en las colas de la distribución binomial. En concreto, para valores fuera de un intervalo np±3 npq. Tampoco es, en general, adecuada la aproximación para valores p < 1 n+1 ó p > n n+1. Si p es próximo a 0.5, con n > 10 la aproximación es satisfactoria. Como consecuencia del teorema de Poisson y del teorema de De Moivre, se puede demostrar que una distribución de Poisson de parámetro λ se puede aproximar por medio de una variable aleatoria N (λ, λ). Generalmente, esta aproximación es satisfactoria si λ > 5. 6.3 Otras distribuciones continuas. Distribución gamma: La variable aleatoria X tiene una distribución gamma de parámetros α y β(ambos positivos) si su ley de probabilidades es: f(x) = Su función de distribución viene dada por: S X = (0, ) 0 si x 0 β Γ(α) (βx)α 1 e βx si x > 0 r 1 βx (βx)i F (t) = 1 e i! i=0

Estadística 67 E(X) = α β V ar(x) = α β 2. En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes. En el caso particular de que α = 1, entonces la distribución gamma es una exponencial de parámetro β. En el caso particular de que α sea un número natural, la variable X es suma de α v. a. independientes con distribución exponencial, de parámetro β Distribución de Weibull. La variable aleatoria X tiene una distribución de Weibull de parámetros α y β (ambos positivos) si su ley de probabilidad es: f(x) = Su función de distribución viene dada por: S X = (0, ) 0 si x 0 [ ( ) α ] α β exp x α β si x > 0 [ ( ) x α ] F (t) = 1 exp β ( ) E(X) = βγ 1 + 1 α ( ) ( ) ) 2 V ar(x) = β (Γ 2 1 + 2 α Γ 1 + 1 α En general, esta variable se utiliza para modelizar el tiempo hasta el fallo en distintos componentes.