Estadística I Tema 5: Modelos probabiĺısticos

Documentos relacionados
Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 4: Probabilidad y modelos probabiĺısticos

Tema 3. Probabilidad y variables aleatorias

Tema 4. Probabilidad y variables aleatorias

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Procesos estocásticos

Introducción al Tema 7. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Modelos de distribuciones discretas y continuas

1. Variables Aleatorias Discretas

3. Variables aleatorias

Variables aleatorias

Variables Aleatorias y Distribución de Probabilidades

Tema 2 Modelos de probabilidad

6. VARIABLES ALEATORIAS

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Tema 1. Probabilidad y modelos probabiĺısticos

Objetivos. 1. Variable Aleatoria y Función de Distribución. PROBABILIDAD Tema 2.2: Variables aleatorias discretas Denición de Variable aleatoria

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Tema 5: Modelos probabilísticos

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

Modelos Básicos de Distribuciones Discretas y Continuas

Estadística aplicada al Periodismo

Tema 6: Modelos de probabilidad.

Introducción al Diseño de Experimentos.

VARIABLES ALEATORIAS Variable: Característica de los individuos u objetos

Valeri Makarov: Estadística Aplicada y Cálculo Numérico (Grado en Química)

Distribuciones de probabilidad más usuales

VARIABLES ALEATORIAS CONTINUAS

MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL

VARIABLES ALEATORIAS CONTINUAS

Tema 12: Distribuciones de probabilidad

Tema 4: Probabilidad y Teoría de Muestras

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL

Modelos de distribuciones discretas y continuas

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Variables aleatorias continuas, TCL y Esperanza Condicional

Técnicas Cuantitativas para el Management y los Negocios I

Resumen de Probabilidad

Variables aleatorias

Variables aleatorias continuas y Teorema Central del Limite

Tema 4: Modelos probabilísticos

Tema 3: VARIABLES ALEATORIAS

Definición de probabilidad

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

TEMA 2.- VARIABLES ALEATORIAS

Probabilidad y Estadística

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración

Transformaciones y esperanza

VARIABLES ALEATORIAS DISCRETAS

Probabilidad y Estadística

Tema 2: Variables Aleatorias Unidimensionales

TEMA 3.- MODELOS DISCRETOS

Distribuciones de Probabilidad

Esquema Matemáticas CCSS

Tema 6: Modelos probabilísticos

Universidad Nacional de La Plata

ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Tema 4: Variables aleatorias.

Estadística Grado en Nutrición Humana y Dietética

Capítulo 5: Probabilidad e inferencia

Bioestadística. Curso Capítulo 3

Bioestadística: Variables Aleatorias. Distribuciones de Probabilidad II

Variables aleatorias continuas

Teoría Estadística Elemental I Teoría (resumida) del 2 do Tema

Tema 7. Variables Aleatorias Continuas

1º BACHILLERATO MATEMÁTICAS CIENCIAS SOCIALES

Distribución de probabilidad

8 Resolución de algunos ejemplos y ejercicios del tema 8.

9 APROXIMACIONES DE LA BINOMIAL

Tema 5 Modelos de distribuciones de Probabilidad

6-1. Dos preguntas sobre 100 tiradas de dado

Unidad 3. Probabilidad

Variables aleatorias

Variable Aleatoria Continua. Principales Distribuciones

Funciones generadoras de probabilidad

Estadís4ca y Métodos Numéricos Tema 2. Variable Aleatoria

Matemática 3 Curso 2013

PROBABILIDAD E INFERENCIA ESTADÍSTICA TEMA 3: DISTRUBUCIONES DE PROBABILIDAD CONTINUA

Prof. Eliana Guzmán U. Semestre A-2015

VARIABLES ALEATORIAS

Tema 1. Probabilidad y modelos probabiĺısticos

Universidad Técnica de Babahoyo DISTRIBUCIONES DE PROBABILIDAD

Momentos de Funciones de Vectores Aleatorios

Universidad Autónoma de Madrid Probabilidad y Estadística

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

Repaso de Estadística

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias. Jorge Eduardo Ortiz Triviño

Transcripción:

Estadística I Tema 5: Modelos probabiĺısticos

Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y función de distribución. Media y varianza de una v.a. discreta Relación entre la media y la varianza: desigualdad de Chebyshev Variables aleatorias continuas: Función de densidad y función de distribución. Media y varianza de una v.a. continua. Modelos probabiĺısticos: Modelos de probabilidad discretos: Bernoulli, Binomial y Poisson. Modelos de probabilidad continuos: Uniforme, exponencial y normal. Teorema del Límite Central.

Variables aleatorias: concepto Sea Ω el espacio muestral asociado a un experimento aleatorio. Se denomina v.a. aleatoria (v.a.) a una función X : Ω R, que asigna a cada elemento ω Ω un número X (ω) R. Intuitivamente, una v.a. X es un modelo de un experimento aleatorio, dado como una cantidad X (ω) que varía según el resultado ω obtenido. Una v.a. se denota con letras mayúsculas (X ), mientras que las letras minúsculas (x) indican valores concretos que toma la v.a. cuando se evalúa en un punto muestral (ω). OBS: Las variables estadísticas que hemos visto en los temas 1, 2 y 3 se pueden modelizar como el resultado de evaluar v.a. en muestras de indivi duos.

Variables aleatorias V.a. discreta: Si X toma valores sobre un conjunto S R finito o infinito numerable, decimos que X es una v.a. discreta. V.a. continua Si X toma valores sobre un conjunto S R infinito no numerable (por ejemplo, en un intervalo o en una unión de intervalos de R), decimos que X es una v.a. continua. Ejemplos X = Resultado al tirar un dado es una v.a. discreta con S = {1, 2, 3, 4, 5, 6}. Y = Número de coches que pasan por cierto peaje en una semana es una v.a. discreta con S = {0, 1, 2,...} = N 0. Z = altura (en cms.) de un alumno elegido al azar es una v.a. continua con S = [0, ).

Variables aleatorias discretas Función de probabilidad Sea X una v.a. discreta con valores x S. Su función de probabilidad o función de masa es la función que asigna a cada posible valor de X su probabilidad: p x = P{X = x} para x S. Ejemplo X = resultado de lanzar un dado equilibrado. La función de probabilidad es x 1 2 3 4 5 6 P{X = x} 1 6 En este caso, S = {1, 2, 3, 4, 5, 6} y p 1 =... = p 6 = 1 6. 1 6 1 6 1 6 1 6 1 6

Variables aleatorias discretas Función de probabilidad. Propiedades Sea X una v.a. discreta que toma valores en el conjunto S con probabilidades p x = P{X = x} para x S. 0 P{X = x} 1. x S P{X = x} = 1. P{X x} = P{X = y}. y S : y x P{X > x} = 1 P{X x}.

Ejemplo Un juego consiste en tratar de ensartar 3 aros sucesivamente en una pica. Participar cuesta 3 euros. Los premios son 4 euros por un acierto, 6 euros por dos y 30 euros por tres. Suponemos que la probabilidad de ensartar un aro es de 0.1 en cada intento, y que los resultados son independientes. Definimos la v.a. X como la ganancia neta en el juego. El espacio muestral es Ω = {{f, f, f }, {a, f, f }, {f, a, f }, {f, f, a}, {a, a, f }, {a, f, a}, {f, a, a}, {a, a, a}} donde a denota acierto y f fallo. Por tanto, X solo admite cuatro posibles resultados, con las siguientes probabilidades: P{X = 3} = 0.9 3 = 0.729 P{X = 1} = 3 0.1 0.9 2 = 0.243 P{X = 3} = 3 0.1 2 0.9 = 0.027 P{X = 27} = 0.1 3 = 0.001

Ejemplo Cuál es la probabilidad de ganar al menos 3 euros, descontando los 3 euros por participar? P{X 3} = P{X = 3} + P{X = 27} = 0.027 + 0.001 = 0.028 Cuál es la probabilidad de no perder dinero? P{X 0} = P{X = 1} + P{X = 3} + P{X = 27} = o, lo que es lo mismo, = 0.243 + 0.027 + 0.001 = 0.271 P{X 0} = 1 P{X < 0} = 1 P{X = 3} = 1 0.729 = 0.271

Variables aleatorias discretas Función de distribución La función de distribución o función de probabilidad acumulada de una variable aleatoria X es la función F : R [0, 1] que asigna a cada valor x R la probabilidad: F (x) = P{X x} = P{X = y} y S : y x OBS: Está definida para todo x R, no solo para x S. Propiedades: 0 F (x) 1 para todo x R. F (y) = 0 para todo y < mín S. Por tanto, F ( ) = 0. F (y) = 1 para todo y > máx S. Por tanto, F ( ) = 1. Si x < y, entonces F (x) F (y), es decir, F (x) es no decreciente. Para todo a, b R, P{a < X b} = P{X b} P{X a} = F (b) F (a).

Ejemplo La función de probabilidad de la v.a. X en el ejemplo del juego es 0.729, si x = 3 0.243, si x = 1 P{X = x} = 0.027, si x = 3 0.001, si x = 27 Su función de distribución es 0, si x < 3 0.729, si 3 x < 1 F (x) = P{X x} = 0.729 + 0.243 = 0.972, si 1 x < 3 0.729 + 0.243 + 0.027 = 0.999, si 3 x < 27 0.729 + 0.243 + 0.027 + 0.001 = 1, si x 27 Nótese que F (x) es constante a trozos con discontinuidades de salto en los puntos de S. El salto en x S es de magnitud P{X = x}

Esperanza de una v.a. discreta Sea X una v.a. discreta que toma valores en S con probabilidades p x = P{X = x}. La esperanza de X es E[X ] = x S x P{X = x} = x S x p x

Esperanza de una v.a. discreta. Propiedades Para a, b R, E[a + bx ] = a + be[x ] Para cualquier función g(x), E[g(X )] = x S g(x)p{x = x} Sean X 1,..., X n v.a., y a 1,..., a n R. Entonces: E[a 1 X 1 + + a n X n ] = a 1 E[X 1 ] + + a n E[X n ]

Ejemplo La esperanza de la v.a. X del ejemplo del juego es E[X ] = xp{x = x} = x S = 3 P{X = 3} + 1 P{X = 1} + 3 P{X = 3} + 27 P{X = 27} = 3 0.729 + 1 0.243 + 3 0.027 + 27 0.001 = 1.836 Por lo tanto, la ganancia neta esperada es de 1.836 euros.

Varianza de una v.a. discreta La varianza de la v.a. discreta X es V [X ] = E[(X E[X ]) 2 ] = x S(x E[X ]) 2 P{X = x} = x S(x E[X ]) 2 p x La raíz cuadrada de la varianza es la desviación típica. Se denota por S[X ] = V [X ].

Varianza de una v.a. discreta. Propiedades La varianza se puede expresar también como V [X ] = E [ X 2] E[X ] 2 V [X ] 0 Var[X ] = 0 si y solo si X es constante Si a, b R, entonces V [a + bx ] = b 2 V [X ] Si X 1,..., X n son v.a. independientes, y a 1,..., a n R, V [a 1 X 1 + + a n X n ] = a1v 2 [X 1 ] + + anv 2 [X n ]

Ejemplo La varianza de la v.a. X del ejemplo del juego es V [X ] = E[X 2 ] E[X ] 2 = 7.776 ( 1.836) 2 = 4.405 donde E[X 2 ] = ( 3) 2 0.729 + 1 2 0.243 + 3 2 0.027 + 27 2 0.001 = 7.776 La desviación típica es S[X ] = 4.405 = 2.0988.

Ejemplo Consideremos la v.a. X = número de caras al tirar una moneda equilibrada dos veces. La función de probabilidad es La esperanza es x 0 1 2 P{X = x} 1 4 1 2 1 4 E[X ] = 0 1 4 + 1 1 2 + 2 1 4 = 1 y la varianza es V [X ] = E[X 2 ] E[X ] 2 = 3 2 12 = 1 2 donde E[X 2 ] = 0 2 1 4 + 12 1 2 + 22 1 4 = 3 2

Desigualdad de Chebyschev Este resultado es útil para estimar una probabilidad cuando se desconoce la distribución de probabilidad de una v.a. X. Si X es una v.a. con esperanza y varianza finitas, entonces, para todo k 1: P{ X E[X ] k} V [X ] k 2 o, de forma equivalente, P{ X E[X ] < k} 1 V [X ] k 2 OBS: La cota que da la desigualdad de Chebyschev no suele ser ajustada, por lo que solo debe utilizarse cuando no se conozca la distribución de X

Desigualdad de Chebyschev Veamos como aplicar la desigualdad de Chebyschev con la v.a. aleatoria del ejemplo del juego. Tenemos que E[X ] = 1.836 y que V [X ] = 4.405. Entonces: Por otro lado, tenemos que: P{ X + 1.836 3} 4.405 9 = 0.4894 P{ X + 1.836 3} = P{X + 1.836 3} + P{X + 1.836 3} = = P{X 1.164} + P{X 4.836} = = P{X = 3} + P{X = 27} = 0.027 + 0.001 = 0.028 Vemos que la cota de Chebyschev no es ajustada en este caso

Ejemplo de repaso Sea X la v.a. que representa el número de caras menos el número de cruces en 3 tiradas de una moneda trucada de manera que es dos veces más probable que salga cara que cruz. Indicamos por c ={cara} y por + ={cruz}. El espacio muestral es { } e1 = (c, c, c), e Ω = 2 = (+, c, c), e 3 = (c, +, c), e 4 = (c, c, +), e 5 = (+, +, c), e 6 = (+, c, +), e 7 = (c, +, +), e 8 = (+, +, +)

Ejemplo de repaso El conjunto donde X toma valores es S = { 3, 1, 1, 3} ya que X {e 1 } = 3 0 = 3 X {e 2 } = X {e 3 } = X {e 4 } = 2 1 = 1 X {e 5 } = X {e 6 } = X {e 7 } = 1 2 = 1 X {e 8 } = 0 3 = 3 La función de probabilidad es P{X = 3} = { 1 3 }3 = 1 27 P{X = 1} = 3 { 1 P{X = x} = 3 }2 2 3 = 2 9 P{X = 1} = 3 1 3 { 2 3 }2 = 4 9 P{X = 3} = { 2 3 }3 = 8 27

Ejemplo de repaso Participamos en un juego en el que hay que pagar 6 euros. Si al lanzar 3 veces la moneda anterior aparece 1 cruz, ganamos 4 euros, si aparecen 2 cruces ganamos 6 euros y si aparecen 3 cruces ganamos 30 euros. Cuál es la ganancia neta esperada? Sea Y la v.a. ganancia neta en el juego. Entonces Si no obtenemos ninguna cruz, X = 3, por lo que Y = 6 con probabilidad P{Y = 6} = P{X = 3} = 8. 27 Si obtenemos una cruz, X = 1, por lo que Y = 2 con probabilidad P{Y = 2} = P{X = 1} = 4. 9 Si obtenemos dos cruces, X = 1, por lo que Y = 0 con probabilidad P{Y = 0} = P{X = 1} = 2. 9 Si obtenemos tres cruces, X = 3, por lo que Y = 24 con probabilidad P{Y = 24} = P{X = 3} = 1. 27 Por tanto, Y toma valores en el conjunto S = { 6, 2, 0, 24}. La ganancia neta esperada es E[Y ] = 6 8 27 2 4 9 + 0 2 9 + 24 1 = 1.78 euros 27

Variables aleatorias continuas Función de distribución La función de distribución de una v.a. continua X es F (x) = P{X x}, para x R Igual que en el caso discreto, la función F (x) da las probabilidades acumuladas hasta el punto x R, pero ahora es una función continua y no de tipo escalón.

Variables aleatorias continuas Propiedades 0 F (x) 1, para todo x R F ( ) = 0. F ( ) = 1. Si x < y entonces F (x) F (y), es decir, F (x) es no decreciente. Para a < b, P(a < X b) = P(a X b) = F (b) F (a). F (x) es continua. La función de probabilidad no tiene sentido en variables aleatorias continuas, porque P(X = x) = 0. Para sustituir la función de probabilidad, en variables aleatorias continuas usaremos la función de densidad.

Variables aleatorias continuas Función de densidad Para una v.a. continua X con función de distribución F (x), la función de densidad de X es: df (x) f (x) = = F (x) dx Propiedades f (x) 0 x R P(a X b) = b a f (x)dx F (x) = P(X x) = x f (u) du f (x)dx = 1 a, b R

Variables aleatorias continuas Ejemplo Una v.a. X tiene función de densidad { 12x f (x) = 2 (1 x) para 0 < x < 1 0 en otro caso Entonces: P{X 0.5} = P{0.2 X 0.5} = F (x) = P{X x} = 0.5 f (u) du = 0.5 x 0.2 0.5 0 f (u) du = 12u 2 (1 u) du = 0.3125 0.5 0.2 f (u) du = 12u 2 (1 u) du = 0.2853 0 si x 0 12{ x 3 3 x 4 4 } si 0 < x 1 1 si x > 1

Esperanza de una v.a. continua Sea X una v.a. continua que toma valores en S R, con función de densidad f (x). Entonces, la esperanza de X es E[X ] = x f (x) dx S Se cumplen las mismas propiedades que para la esperanza de una v.a. discreta. Solo cambia la forma de calcularla.

Ejemplo La esperanza de la v.a. X del ejemplo anterior es = E[X ] = x f (x)dx = 1 R 0 1 0 x 12x 2 (1 x)dx = {12(x 3 x 4 )}dx = 12{ 1 4 x 4 1 5 x 5 } 1 0 = 12{ 1 4 1 5 } = 3 5

Varianza de una v.a. continua La varianza de la v.a. continua X es V [X ] = E[(X E[X ]) 2 ] = (x E[X ]) 2 f (x) dx = S = x 2 f (x) dx E[X ] 2 = E[X 2 ] E[X ] 2 S La raíz cuadrada de la varianza se denomina desviación típica, y se denota por S[X ] = V [X ]. Se cumplen las mismas propiedades que la varianza de una v.a. discreta. Solo cambia la forma de calcularla.

Ejemplo La varianza de la v.a. X del ejemplo anterior es la siguiente: donde: E [ X 2] = Var[X ] = E [ X 2] E[X ] 2 = 2 5 {3 5 }2 = 2 5 9 25 = 1 25 R x 2 f (x)dx = 1 0 12x 4 (1 x)dx = 12 5 x 5 x=1 x=0 12 6 x 6 x=1 x=0 = = 12 5 2 = 2 5 1 La desviación típica es por tanto S[X ] = 25 = 1 5.

Modelos probabiĺısticos Modelos de probabilidad discretos: Bernoulli, Binomial y Poisson. Modelos de probabilidad continuos: Uniforme, exponencial y normal. Teorema del Límite Central

Modelo de Bernoulli Descripción Partimos de un experimento aleatorio con dos posibles resultados, que denominamos éxito y fracaso Definimos la v.a. { 1 si el resultado es un éxito X = 0 si el resultado es un fracaso Sea p la probabilidad de éxito. Entonces, 1 p es la probabilidad de fracaso. El experimento se llama prueba de Bernoulli y diremos que la v.a. sigue una distribución de Bernoulli con parámetro p Se escribe X Ber(p).

Modelo de Bernoulli Ejemplo: Tiramos una moneda equilibrada, y obtenemos { 1 si sale cara X = 0 si sale cruz X sigue una distribución de Bernoulli con parámetro p = 1/2 Ejemplo: Una ĺınea aérea estima que los pasajeros que compran un billete para un vuelo tienen una probabilidad de 0.05 de no presentarse al embarque Definimos { 1 si el pasajero se presenta Y = 0 si no lo hace Y sigue una distribución de Bernoulli con parámetro p = 0.95

Modelo de Bernoulli Función de probabilidad: P{X = 0} = 1 p P{X = 1} = p Función de distribución: 0 si x < 0 F (x) = 1 p si 0 x < 1 1 si x 1 Propiedades: E[X ] = p 1 + (1 p) 0 = p E[X 2 ] = p 1 2 + (1 p) 0 2 = p V [X ] = E[X 2 ] E[X ] 2 = p p 2 = p(1 p) S[X ] = p(1 p)

Modelo Binomial Descripción Una prueba de Bernoulli con parámetro p se repite n veces de manera independiente. La v.a. número de éxitos obtenidos sigue una distribución Binomial con parámetros n y p Definición: Una v.a. X sigue una distribución binomial con parámetros n y p si ( ) n P{X = x} = p x (1 p) n x x para x = 0, 1,..., n donde Se escribe X B(n, p). ( ) n n! = x x!(n x)!

Modelo Binomial Ejemplo La ĺınea aérea del ejemplo anterior ha vendido 80 billetes para un vuelo. La probabilidad de que un pasajero no se presente al embarque es de 0.05. Definimos X = número de pasajeros que se presentan. Entonces (suponiendo independencia) X B(80, 0.95) La probabilidad de que todos los pasajeros se presenten es ( ) 80 P{X = 80} = 0.95 80 (1 0.95) 80 80 = 0.0165 80 La probabilidad de que al menos un pasajero no se presente es P{X < 80} = 1 P{X = 80} = 1 0.0165 = 0.9835

Modelo Binomial Propiedades E[X ] = np V [X ] = np(1 p) S[X ] = np(1 p)

Modelo de Poisson Definición: Una v.a. X sigue una distribución de Poisson con parámetro (tasa) λ (sucesos por unidad de tiempo) si P{X = x} = e λ λx, x = 0, 1, 2,..., x! donde e es la base de los logaritmos naturales Se escribe X P(λ) Descripción Se emplea la distribución de Poisson para modelizar el número de sucesos aleatorios de cierto tipo que ocurren en un intervalo de tiempo dado, suponiendo que ocurren de forma homogénea en el tiempo, siendo λ el número medio de sucesos en el intervalo. Es conveniente especificar la unidad de medida del intervalo (minutos, horas, días, semanas, etc.)

Modelo de Poisson Ejemplo A lo largo de los años se ha observado que en cierto tramo de carretera ocurren, en promedio, 25 accidentes al año. Se supone que X, el número anual de accidentes en dicho tramo, sigue una distribución de Poisson, X P(25) La probabilidad de que un año haya exactamente 25 accidentes es 25 2525 P{X = 25} = e 25! 0.0795 La probabilidad de que no haya más de 20 accidentes es P{X 20} = 20 x=0 25 25x e x! 0.1855

Modelo de Poisson Ejemplo En el ejemplo anterior, consideremos Y, el número de accidentes en dicho tramo durante dos años consecutivos La distribución de la v.a. Y es Y P(2 25) = P(50) La probabilidad de que en un periodo de dos años haya exactamente 50 accidentes es 50 5050 P{Y = 50} = e 50! 0.05633 La probabilidad de que no haya más de 40 accidentes es P{Y 40} = 40 y=0 50 50y e y! 0.08607

Modelo de Poisson Propiedades E[X ] = λ V [X ] = λ S[X ] = λ Sean X 1,..., X n v.a. independientes con distribución P(λ), y sea Y = X 1 + + X n. Entonces, Y P(nλ)

Distribución uniforme Descripción La distribución uniforme es aquella en la que todos los intervalos de igual longitud en su rango son igualmente probables. Es decir, su función de densidad es constante para todos los valores posibles de la variable Definición Se dice que una v.a. X sigue una distribución uniforme en el intervalo [a, b] (sus parámetros son a y b) si su función de densidad es Se escribe X U[a, b]. f (x) = 1 b a si a x b 0 en otro caso

Distribución uniforme: función de distribución Supongamos que X U[a, b]. Su función de distribución es 0 si x < a F (x) = x x a f (u) du = b a si a x b 1 si x > b

Distribución uniforme Propiedades Función de densidad Esperanza: E[X ] = a+b 2 Varianza: V [X ] = (b a)2 12 Desviación típica: S[X ] = b a 12

Ejemplo: Distribución U[3, 5] Una v.a. X U[3, 5] tiene función de densidad { 1 f (x) = 2 si 3 x 5 0 en otro caso Calculemos algunas probabilidades: P{X 0.5} = P{X 4} = P{3.5 X 4.5} = 0.5 4 4.5 3.5 f (u) du = 0 f (u) du = f (u) du = 4 3 4.5 3.5 1 2 du = 1 2 u 4 3 = 1 2 1 2 du = 1 2

Ejemplo: Distribución U[3, 5] Función de distribución F (x) = P{X x} = x Si x 3 entonces F (x) = P{X x} = 0. f (u) du Si 3 < x 5 entonces F (x) = P{X x} = x 3 Si x > 5 entonces F (x) = P{X x} = 5 3 Es decir, 0 si x 3 x 3 F (x) = si 3 < x 5 2 1 si x > 5 1 2 du = u 2 x 3 = x 3 2. 1 2 du = u 4 5 3 = 5 3 2 = 1.

Ejemplo: Distribución U[3, 5] Esperanza Varianza E[X ] = R x f (x)dx = 5 3 x 1 2 dx = x 2 4 Var[X ] = R x 2 f (x)dx E[X ] 2 = 5 3 5 3 = 52 3 2 4 = 4 x 2 2 dx 42 = x 3 6 5 16 = 0.33 3

Distribución exponencial Descripción La distribución exponencial se emplea para modelizar el tiempo que transcurre hasta que ocurre cierto suceso aleatorio. Es conveniente especificar la unidad de medida del tiempo (e.g., segundos, minutos, horas, etc.) Definición Se dice que una v.a. X sigue una distribución exponencial con parámetro (tasa) λ (sucesos por unidad de tiempo) si su función de densidad es Se escribe X Exp(λ) f (x) = λe λx, x 0

Distribución exponencial: función de distribución Supongamos que X Exp(λ). Su función de distribución es F (x) = x 0 si x < 0 f (u) du = x λe λu du = 1 e λx si x 0 0

Distribución exponencial: Propiedades Propiedades: Esperanza: E[X ] = 1 λ Varianza: V [X ] = 1 λ 2 Desviación típica: S[X ] = 1 λ

Relación entre las distribuciones exponencial y Poisson Supongamos que X 1, X 2, X 3,... son v.a. independientes con distribución Exp(λ) Sea Y = { 0, si X 1 > 1 k, si X 1 + + X k 1 < X 1 + + X k+1, para k = 1, 2,... Entonces, Y P(λ) Intuición: X 1 es el instante en que ocurre el primer suceso, X 1 + + X k es el instante en que ocurre el k-ésimo suceso. Por tanto, Y es el número de sucesos que ocurren en el intervalo de tiempo [0, 1]

Ejemplo: Distribución exponencial Una empresa modeliza el tiempo que emplea en completar el servicio de un cliente como una v.a. X Exp(λ) con tasa λ = 1/2 (servicios por hora) Cuánto tiempo se emplea, en promedio, para completar un servicio? E[X ] = 1 λ = 2 h. Probabilidad de que se tarde más de 2.5 h. en completar un servicio? P{X > 2.5} = 1 F (2.5) = e λ 2.5 0.2865 Probabilidad de que se tarde entre 1.5 y 2.5 h. en completar un servicio? P{1.5 X 2.5} = F (2.5) F (1.5) = e λ 1.5 e λ 2.5 0.1859

Distribución normal Descripción La distribución normal es un modelo teórico que aproxima bien muchas situaciones reales. La inferencia estadística se fundamenta básicamente en la distribución normal y en distribuciones que se derivan de ella. Definición Se dice que una v.a. X sigue una distribución normal o Gausiana con parámetros µ y σ, y se denota por X N (µ, σ), si f (x) = 1 σ (x µ) 2 2π e 2σ 2 Propiedades E[X ] = µ, V [X ] = σ 2 f (x) es simétrica respecto de µ

Distribución normal Función de densidad para 3 valores distintos de µ y σ

Distribución normal Propiedad Si X N (µ, σ), P(µ σ < X < µ + σ) 0.683 P(µ 2σ < X < µ + 2σ) 0.955 P(µ 3σ < X < µ + 3σ) 0.997

Distribución normal Transformación lineal Si X N (µ, σ), entonces: Y = ax + b N (aµ + b, a σ) Estandarización Si X N (µ, σ), Z = X µ N (0, 1) σ se llama la distribución normal estándar. Es una distribución simétrica y centrada en 0. Además, su función de distribución está tabulada

Tablas de la N (0, 1)

Distribución normal: Ejemplo Sea Z N(0, 1). Calculemos algunas probabilidades: Pr(Z < 1.5) = 0.9332. tabla Pr(Z > 1.5) = Pr(Z < 1.5) = 0.9332. por qué? Pr(Z < 1.5) = Pr(Z > 1.5) = 1 Pr(Z < 1.5) = 1 0.9332 = 0.0668. por qué no? Pr( 1.5 < Z < 1.5) = Pr(Z < 1.5) Pr(Z < 1.5) = 0.9332 0.0668 = 0.8664.

Distribución normal: Ejemplo Sea X N(µ = 2, σ = 3). Queremos calcular Pr(X < 4) y Pr( 1 < X < 3.5): En primer lugar, tipificamos la v.a. original como sigue: Pr(X < 4) = P{ X 2 3 donde Z N(0, 1). A continuación, buscamos : < 4 2 3 } = Pr{Z < 0.66 6} 0.7454, Pr( 1 < X < 3.5) = Pr( 1 2 < X 2 < 3.5 2) = P{ 1 2 < X 2 < 3.5 2 } = Pr( 1 < Z < 0.5) = 3 3 3 = Pr(Z < 0.5) Pr(Z < 1) = 0.6915 0.1587 = 0.5328. donde Z N(0, 1).

Distribución normal: otro ejemplo Es difícil etiquetar la carne empaquetada con su peso correcto debido a los efectos de pérdida de ĺıquido (definido como porcentaje del peso original de la carne). Supongamos que la pérdida de ĺıquido en un paquete de pechuga de pollo se distribuye como normal con media 4 % y desviación típica 1 %. Sea X la pérdida de ĺıquido de un paquete de pechuga de pollo elegido al azar. Cuál es la probabilidad de que 3 % < X < 5 %? Cuál es el valor de x para que un 90 % de paquetes tengan pérdidas de ĺıquido menores que x? En una muestra de 4 paquetes, hallar la probabilidad de que todos tengan pérdidas de peso de entre 3 y 5 %. Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14, 307-325.

Distribución normal: otro ejemplo Pr(3 < X < 5) = Pr{ 3 4 < X 4 < 5 4 } = Pr( 1 < Z < 1) 1 1 1 = Pr(Z < 1) Pr(Z < 1) = 0.8413 0.1587 = 0.6827 Queremos Pr(X < x) = 0.9. Entonces Pr{ X 4 1 < x 4 } = Pr(Z < x 4) = 0.9 1 Mirando las tablas, tenemos x 4 1.28 que implica que un 90 % de las paquetes tienen pérdidas de menores que x = 5.28 %. Para un paquete p = Pr(3 < X < 5) = 0.6827. Sea Y el número de paquetes en la muestra de 4 paquetes que tienen pérdidas de entre 3 % y 5 %. Luego Y B(4, 0.6827). ( ) 4 Pr(Y = 4) = 0.6827 4 (1 0.6827) 0 = 0.2172. 4

Distribución normal: otro ejemplo Si la muestra fuera de 5 paquetes, cuál seria la probabilidad que por lo menos una tuviera perdidas de entre el 3 % y 5 %? Tenemos que n = 5 y p = 0.6827. Por lo tanto, Y B(5, 0.6827). Entonces, Pr(Y 1) = 1 Pr(Y < 1) = 1 Pr(Y = 0) = ( ) 5 = 1 0.6827 0 (1 0.6827) 5 0 = 1 {1 0.6827} 5 = 0.9968. 0

Teorema del Límite Central (TLC) El siguiente resultado se refiere a la distribución ĺımite de la media de una muestra de n v.a. independientes e idénticamente distribuidas: X = 1 n X i, n y nos indica que, para n grande, la distribución de X es aproximadamente normal, sea cual sea la distribución de las X i. Teorema Sean X 1,..., X n v.a. independientes e idénticamente distribuidas con media µ y desviación típica σ finitas. Para n lo bastante grande (n 30), X µ σ/ n i=1 N (0, 1) (aproximadamente) Nota: el término central se refiere al centrado X µ en el numerador, y el ĺımite se refiere a que { } X µ ĺım P n σ/ n x = P{Z x}, donde Z N (0, 1)

Aproximación de la distribución Binomial mediante la normal Binomial Si X B(n, p) con n suficientemente grande (o bien n 30 y 0.1 p 0.9 o bien np 5 y n(1 p) 5), entonces X np np(1 p) N (0, 1) (aproximadamente)

TLC y aproximaciones: Ejemplo Sea X B(100, 1/3). Bucamos el valor de Pr(X < 40), si bien el cálculo exacto es muy largo ya que necesitamos un gran número de operaciones. Utilizando el TLC tenemos que X B(100, 1/3) N{33.3, 4.714}, ya que: Por lo tanto, E[X ] = 100 1 3 = 33. 3 V [X ] = 100 1 3 2 3 = 22. 2 S[X ] = 22. 2 = 4.714 Pr(X < 40) = P{ X 33. 3 40 33. 3 < 4.714 4.714 } P{Z < 1.414} donde Z N(0, 1) 0.921.