1. Teoría de probabilidad

Documentos relacionados
Tema 6: Modelos de probabilidad.

Variables aleatorias continuas, TCL y Esperanza Condicional

Modelos de distribuciones discretas y continuas

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

Tablas de Probabilidades

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

I. Distribuciones discretas

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

478 Índice alfabético

Definición Una hipótesis es una afirmación acerca de un parámetro.

Curso de Probabilidad y Estadística

Prof. Eliana Guzmán U. Semestre A-2015

Cálculo de Probabilidades II Preguntas Tema 1

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

Unidad 1: Espacio de Probabilidad

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Tema 4: Variable Aleatoria Bidimensional

Variables aleatorias bidimensionales discretas

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Teorema Central del Límite (1)

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Tema 4: Probabilidad y Teoría de Muestras

Variable Aleatoria Continua. Principales Distribuciones

Variables aleatorias

Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º ( )

Tema 2: Variables Aleatorias Unidimensionales

Contenidos IB-Test Matemática NM 2014.

Preparación de los datos de entrada

TEMA 2: DISTRIBUCIONES DE PROBABILIDAD

Tema 4: Variables aleatorias multidimensionales

Distribuciones de probabilidad bidimensionales o conjuntas

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

Tema 4: Variables aleatorias multidimensionales

Tema 10: Introducción a los problemas de Asociación y Correlación

Variables aleatorias unidimensionales

Modelado de la aleatoriedad: Distribuciones

Determinación del tamaño de muestra (para una sola muestra)

Unidad IV: Distribuciones muestrales

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

TEMA 3: Probabilidad. Modelos. Probabilidad

Unidad Temática 3: Probabilidad y Variables Aleatorias

Técnicas Cuantitativas para el Management y los Negocios I

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

PROBABILIDAD Y ESTADÍSTICA

1. La Distribución Normal

Cap. 5 : Distribuciones muestrales

PROBABILIDAD Y ESTADÍSTICA

Capítulo 6: Variable Aleatoria Bidimensional

INDICE. Prólogo a la Segunda Edición

Expresión decimal. Aproximación y estimación. Notación científica. Polinomios. Divisibilidad de polinomios. Regla de Ruffini.

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

CONTENIDO. Prólogo a la 3. a edición en español ampliada... Prólogo...

Derivada y diferencial

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Distribuciones de probabilidad multivariadas

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

T2. El modelo lineal simple

Variables aleatorias

Distribuciones de probabilidad más usuales

Tema 13: Distribuciones de probabilidad. Estadística

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica

Introducción a los Procesos de Poisson *

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

CUERPO TÉCNICO, OPCION ESTADISTICA

Contrastes de hipótesis paramétricos

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...

Definición de probabilidad

Ejercicio 1. Ejercicio 2

Introducción a la Inferencia Estadística

Tema 3: Funcio n de Variable Aleatoria

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Estadística Aplicada

Tema 8: Contraste de hipótesis

Ejemplos Resueltos Tema 4

Econometría II Grado en finanzas y contabilidad

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN

I.T. INDUSTRIAL METODOS ESTADÍSTICOS. FORMULARIO I. ESTADISTICA DESCRIPTIVA Xv.a. Media x = n n i x 2 Varianza poblacional σ 2 i

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

Tema 2: Variables Aleatorias

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

Tema 3. VARIABLES ALEATORIAS.

Cálculo y EstadísTICa. Primer Semestre.

Algunas Distribuciones Estadísticas Teóricas. c) Relación entre la Distribuciones de Poisson y Exponencial.

Transcripción:

Disclaimer: Este apunte no es autocontenido y fue pensado como un repaso de los conceptos, no para aprenderlos de aquí directamente 1 Teoría de probabilidad Definición 1 (espacio muestral) Un espacio muestral es el conjunto de resultados posibles de un experimento Definición 2 (evento) Un evento o suceso es un subconjunto del espacio muestral Definición 3 (frecuencia relativa y probabilidad) La frecuencia relativa del evento A está dada por la cantidad de veces que ocurre A n A sobre la cantidad de veces que se hace el experimento n fr(a) = n A /n Cuando n tiende a infinito f r(a) tiende a P (A), la probabilidad del evento A Tanto la frecuencia relativa como la probabilidad estan entre 0 y 1 Definición 4 (teoría axiomática de probabilidad) La teoría axiomática de probabilidad está definida por los siguientes axiomas (probabilidades sobre el espacio muestral S): 1 P (A) 0 2 P (S) = 1 3 Si i ja i A j = entonces P ( i A i) = i P (A i) Teorema 1 (propiedades de la probabilidad) La función de probabilidad P cumple lo siguiente: 1 P (A c ) = 1 P (A) 2 P ( ) = 0 3 Si A B entonces P (A) P (B) y P (B \ A) = P (B) P (A) 4 P (A B) = P (A) + P (B) P (A B) Definición 5 (espacio de equiprobabilidad) Un espacio de equiprobabilidad S es tal que x S se cumple P (x) = 1/#S Definición 6 (probabilidad condicional) La probabilidad condicional de A dado que sucedió B es la probabilidad de que suceda el evento A con el espacio muestra reducido a B Escribimos P (A B) = P (A B) P (B) Teorema 2 (propiedades de la probabilidad condicional) Las probabilidades condicionales sobre el espacio muestral S cumplen: 1 P (A B) 0 2 P (S B) = 1 Teorema 3 (regla del producto) Si P (A) > 0 y P (B) > 0 entonces P (A B) = P (A B)P (B) = P (B A)P (A) Teorema 4 (regla del producto generalizada) Si kp (A 1 A k ) > 0 entonces P (A 1 A n ) = P (A 1 )P (A 2 A 1 )P (A 3 A 1 A 2 )P (A n A 1 A n 1 ) Definición 7 (partición) A 1,, A k se dice una partición del espacio muestral S sii i, j: 1 A i A j = 2 P (A i ) > 0 3 k A i = S 1 de 18

Teorema 5 (teorema de la probabilidad total) Si A 1,, A k es una partición de S y B un evento, entonces P (B) = k P (B A i )P (A i ) Teorema 6 (teorema de Bayes) Si A 1,, A k es una partición de S y B un evento, entonces P (A j B) = P (B A j )P (A j ) k P (B A i)p (A i ) Definición 8 (independencia) Los eventos A y B son independientes sii P (A B) = P (A)P (B) Equivalentemente P (A) = P (A B) y P (B) = P (B A) Teorema 7 (independencia del complemento) Si A y B son independientes, A y B c también lo son Definición 9 (independencia múltiple) Un conjunto de eventos es independiente si para cualquier subconjunto de ellos la probabilidad de la intersección es el producto de las probabilidades Observación 1 Si un conjunto es independiente, sus elementos son independientes de a pares, pero no al revés 2 Variables Aleatorias Discretas Definición 10 (variable aleatoria discreta) Una variable aleatoria (va) discreta es una función X : S R del espacio muestral en los reales Puede verse como una asignación de probabilidades a distintos valores Definición 11 (función de probabilidad puntual) La función de probabilidad puntual p X de la va X es la función que dado un real dice la probabilidad de que X valga eso, es decir p X (x) = P (X = x) = P ({w S X(w) = x}) Teorema 8 (propiedades de la probabilidad puntual) La función de distribución acumulada p X cumple: de una va X 1 xp X (x) 0 2 x Im(X) p X(x) = 1 Definición 12 (función de distribución acumulada) La función de distribución acumulada de una va discreta X F X se define para todo x en R como F X (x) = P (X x) = p X (y) y x,y Im(X) Teorema 9 (propiedades de la distribución acumulada) La función de distribución acumulada F X X cumple: de una va 1 x R F X (x) [0, 1] 2 F X es monótona no decreciente 3 F x es continua a derecha 4 lím x F X (x) = 1 y lím x F X (x) = 0 5 En cada punto, el valor del salto es la probabilidad puntual: p X (x) = F X (x) F X (x ) Teorema 10 (probabilidad de un intervalo) Sean a, b R, a b Se cumple que: 1 P (a < X b) = F x (b) F x (a) 2 P (a < X < b) = F x (b ) F x (a) 2 de 18

3 P (a X b) = F x (b) F x (a ) 4 P (a X < b) = F x (b ) F x (a ) Definición 13 (esperanza) La esperanza de una va discreta X se define como E(X) = µ X = xp X (x) x Im(X) Teorema 11 (función de una va discreta) Si X es una va discreta entonces f(x) también lo es y su esperanza es E(f(x)) = yp f(x) (y) = f(x)p X (x) y Im(f(X)) x Im(X) Teorema 12 (linealidad de la esperanza) Si a, b R, E(aX + b) = ae(x) + b Definición 14 (varianza y desvío) La varianza de una va discreta X se define como V (X) = σx 2 = (x µ X ) 2 p X (X) = E[(X E(X)) 2 ] x Im(X) El desvío standard se define como σ X = σx 2 Teorema 13 (varianza) V (X) = E(X 2 ) E(X) 2 Teorema 14 (la varianza es bilineal) V (ax + b) = a 2 V (X) (σ ax+b = a σ X ) 21 Distribución Binomial Se realizan n experimentos independientes con probabilidad de éxito p Si n = 1 es llama distribución de Bernoulli La variable binomial es la va X:número de éxitos Escribimos X Bi(n, p) Teorema 15 (probabilidad puntual de distribución binomial) La función de probabilidad puntual de X Bi(n, p) es {( n ) p X (k) = k p k (1 p) n k k N, 0 k n 0 otherwise Observación 2 Por la fórmula de binomio de Newton (a + b) n (p + (1 p)) n = 1 = n k=0 ( n k) a k b n k podemos ver que x p X(x) = Teorema 16 (esperanza y varianza de distribución binomial) Si X Bi(n, p) entonces se cumple que E(X) = np y V (X) = np(1 p) Teorema 17 (límite de la distribución binomial) Supongamos que n y p 0 tal que np = λ, y sea X Bi(n, p) entonces: ( n p X (k) = )p k (1 p) n k e λ λ k k k! O sea que podemos aproximar, cuando n es grande y p chico, la distribución por su límite Ver distribución de Poisson 3 de 18

22 Distribución Geométrica La va X tiene distribución geométrica G(p) si se hacen ensayos independientes con probabilidad de éxito p hasta obtener un éxito y se cuenta cuantos se hicieron Teorema 18 (probabilidad puntal de la geométrica) Si X G(p) entonces p X (k) = (1 p) k 1 p k N Teorema 19 (distribución acumulada de la geométrica) Si X G(p) entonces F X (x) = 1 (1 p) x Teorema 20 (esperanza y varianza de la geométrica) Si X G(p) entonces E(X) = 1 p y V (X) = 1 p p 2 Teorema 21 (propiedad de falta de memoria) Si X G(p) y n, m N entonces P (X > n + m X > n) = P (X > m) 23 Distribución Binomial Negativa La va X tiene distribución binomial negativa BN(r, p) si se hacen ensayos independientes con probabilidad de éxito p hasta obtener r éxitos (rgeq1) Generaliza la geométrica Teorema 22 (probabilidad puntal de la binomial negativa) Si X BN(r, p) entonces ( ) k 1 p X (k) = (1 p) k r p r k N geqr r 1 Teorema 23 (esperanza y varianza de la binomial negativa) Si X BN(r, p) entonces E(X) = r p y V (X) = r(1 p) p 2 24 Distribución Hipergeométrica Se tienen N individuos, con D éxitos y N D fracasos Se extrae una muestra de n N Sea la variable X la cantidad de éxitos en la muestra, enonces X tiene distribución hipergeométrica X H(n, N, D) Teorema 24 (probabilidad puntal de la hipergeométrica) Si X H(n, N, D) entonces ( D )( N D ) k n k P X (k) = ( N max(0, n (N D)) k min(n, D) n) Teorema 25 (esperanza y varianza de la hipergeométrica) Si X H(n, N, D) entonces E(X) = n D ( ) N n N y V (X) = n D ( 1 D ) N 1 N N El término N n N 1 se llama factor de corrección por población finita Si n << N, el factor tiende a 1 y se puede aproximar la hipergeométrica por una binomial H(n, N, D) Bi(n, N/D) 25 Distribución de Poisson Si X P (λ) tiene distribución de poisson su función de probabilidad puntual está dada por p X (k) = e λ λ k k! Teorema 26 (esperanza y varianza de la poisson) Si X P (λ) entonces E(X) = λ y V (X) = λ 4 de 18

Un proceso de poisson es lo que pasa en un intervalo de tiempo dividible en subintervalos tal que la probabilidad de la ocurrencia de un evento en cada subintervalo es independiente de los otros y que la probabilidad de ocurrencia de mas de un evento en el mismo subintervalo es despreciable Esto hace que se aproximable por una binomial tal que n y p 0 si tendemos el subintervalo a 0 Esto hace que la distribución de la cantidad de eventos en un intervalo grande de largo t es de Poisson con parámetro λ = np, porque su función de probabilidad puntual es el límite de la binomial 3 Variables Aleatorias Continuas Las va continuas resultan de tomar limite de discretización en una variable discreta Formalmente: Definición 15 (variable aleatoria continua) X es una variable aleatoria continua si existe una función f X : R R 0 llamada función de densidad tal que A R, P (X A) = f X (x)dx Observación 3 Observamos que las funciones de densidad difieren de las de probabilidad puntual: 1 ap (X = a) = {a} f X(x)dx = 0 2 f(a) no es una probabilidad, de hecho puede ser mayor a 1 Definición 16 (función de distribución acumulada para continuas) La función de distribución acumulada de una va continua X se define como la probabilidad del intervalo (, x) y puede escribirse como F X (x) = x A f X (t)dt Teorema 27 (propiedades de la acumulada) Las funciones de distribución acumulada de va continuas cumplen: 1 x RF X (x) [0, 1] 2 F X es monótona no decreciente 3 F X es continua en todo punto 4 lím x F X (x) = 1 y lím x F X (x) = 0 Notar que todos salvo 3 son iguales a las propiedades para discretas La propiedad 3 vale porque la discontinuidad a izquierda se pierde porque al continuizar la variable se suaviza la curva Teorema 28 (funciones de variables aleatorias) Si X es una va y g : R R monótona creciente y biyectiva entonces F g(x) = F X g 1 y f g(x) = (f X g 1 )g 1 Definición 17 (percentiles) Si X es una va continua el percentil (100p)-ésimo de la distribución de X es x p tal que F X (x p ) = p Definición 18 (mediana y cuartiles) La mediana µ se define como el percentil 50-ésimo de la distribución Los cuartiles se definen como los percentiles 25 y 75-ésimos Definición 19 (esperanza de continuas) Sea X una va continua La esperanza de X se define como E(X) = µ X = xf X (x)dx Teorema 29 (funciones de una va continua) Si X es una va continua, f(x) también lo es y E(f(X)) = f(x)f X (x)dx Teorema 30 (linealidad de la esperanza) Si a, b R, E(aX + b) = ae(x) + b 5 de 18

Definición 20 (varianza y desvío de continuas) Sea X una va continua La varianza de X se define como y el desvío σ X = σ 2 X V (X) = σ 2 X = E[(X µ X ) 2 ] = Teorema 31 (varianza) V (X) = E(X 2 ) E(X) 2 (x µ x ) 2 f X (x)dx Teorema 32 (la varianza es bilineal) V (ax + b) = a 2 V (X) (σ ax+b = a σ X ) Definición 21 (función indicadora) La función indicadora del conjunto A I A : R R se define como: { 1 x A I A (x) = 0 x / A 31 Distribución Uniforme La distribución uniforme consiste en elegir un número al azar en un intervalo [A, B] de manera que cualquier subintervalo tiene una probabilidad proporcional a su largo Teorema 33 (densidad de la uniforme) Si X U(A, B) (X tiene distribución uniforme) entonces f X (x) = 1/(B A) Teorema 34 (función de distribución acumulada de la uniforme) Si X U(A, B) entonces F X (x) = x A B A I [A,B](x) + I (B, ) (x) Teorema 35 (esperanza y varianza de la uniforme) Si X U(A, B) entonces E(X) = A + B 2 y V (X) = (B A)2 2 32 Distribución Normal X tiene distribución normal (X N(µ, σ 2 )) sii su función de densidad es µ)2 1 (x e 2σ 2 2πσ El gráfico de dicha función es una campana con eje de simetría y máximo en x = µ y puntos de inflexión en x = µ σ y x = µ + σ Definición 22 (normal standard) Definimos la distribución normal standard como Z N(0, 1) Teorema 36 (standarización de normales) X N(µ, σ) X µ σ N(0, 1) Teorema 37 (acumulada de la normal) La función acumulada de la normal no puede escribirse como algo que no sea una integral Si X Z entonces F X (x) = Φ(x) Dado el anterior teorema, la acumulada de la normal standard se encuentra tabulada De dicha tabla, aplicando la standarización, se puede obtener la acumulada de cualquier normal Teorema 38 (esperanza y varianza de la normal) Si X N(µ, σ 2 ) entonces E(X) = µ y V (X) = σ 2 6 de 18

33 Distribución Gamma Definición 23 (función Gamma o factorial) Γ(α) = 0 x α 1 e x Teorema 39 (propiedades de la función Gamma) 1 Si α > 1 entonces Γ(α) = (α 1)Γ(α 1) 2 Si α N entonces Γ(α) = (α 1)! 3 Γ(1/2) = π Se dice que X tiene distribución Gamma (X Γ(α, λ)) si su función de densidad es f X (x) = e λx x α 1 λ α Γ(α) Si λ = 1 la distribución es Gamma standard de parámetro α La distribución de la Gamma standard está tabulada para distintos valores de α Teorema 40 (esperanza y varianza de la Gamma) Si X Γ(α, λ) entonces E(X) = α/λ y V (X) = α/λ 2 Teorema 41 (standarización de la Gamma) Si λ > 0 entonces X Γ(α, λ) λx Γ(α, 1) 34 Distribución Exponencial Es un caso particular de la Gamma con α = 1 Es decir, X tiene distribución exponencial (X E(λ)) si su función de densidad es f X (x) = λe λx I (0, ) (x) Teorema 42 (acumulada de la exponencial) Si X E(λ) entonces F X (x) = 1 e λx I (0, ) Teorema 43 (esperanza y varianza de la exponencial) Si X E(λ) entonces E(X) = λ 1 y V (X) = λ 2 Teorema 44 (falta de memoria) Si X E(λ) y s, t R >0 entonces P (X > s + t X > s) = P (X > t) Teorema 45 (relación entre distribución exponencial y Poisson) Sea un proceso de Poisson de tasa media v por lo cual la variable X t : cantidad de eventos en un intervalo t es X t P (vt) entonces la va X: tiempo hasta el primer evento tiene distribución exponencial X E(v) 4 Momentos Definición 24 (momento) El momento de orden k de la va X se define como E(X k ) Observación 4 (momentos 1 y 2) El momento de orden 1 E(X) = µ y el momento de orden 2 E(X 2 ) = µ 2 + σ 2 Definición 25 (función generadora de momentos) LA función generadora de momentos de la va X se define como M X (t) = E(e t x) Teorema 46 (función generadora de momentos) E(X n ) = n n t M X(0) Las funciones generadoras de momentos de las distintas distribuciones mencionadas puede encontrarse en la sección 12 Teorema 47 (unicidad de la generadora de momentos) Dada una distribución la función generadora de momentos existe y es única Dada una función generadora de momentos, la distribución es única Dado el teorema anterior, la función generadora de momentos sirve para definir completamente la distribución Esto es útil para demostraciones de que tal va tiene tal distribución 7 de 18

5 Generación de números al azar Para generar números al azar, la idea es generar X U(0, 1) y a partir de ella generar otras distribuciones como F (X) Teorema 48 Sea U U(0, 1) y G una acumulada continua y estrictamente creciente Si X = G 1 (U) entonces F X = G Teorema 49 Sea U U(0, 1) y G una acumulada Existe H tal que H(U) tiene función de distribución acumulada G 6 Vectores aleatorios Definición 26 (probabilidad conjunta) Sean X e Y va discretas sobre el mismo espacio muestral S La función de probabilidad conjunta del par (X, Y ) se define como: p XY (x, y) = P (X = x, Y = y) Teorema 50 (propiedades de la probabilidad conjunta) Una función de probabilidad conjunta satisface 1 x, yp XY (x, y) 0 2 x y p XY (x, y) = 1 Definición 27 (probabilidad marginal) Las funciones de probabilidad marginal de X e Y están dadas por: p X (x) = y p XY (x, y) y p Y (y) = x p XY (x, y) Definición 28 (acumulada conjunta discreta) La función de distribución acumulada conjunta de (X, Y ) está dada por F XY (x, y) = p XY (s, t) s x t y Definición 29 (densidad conjunta) (X, Y ) es un vector aleatorio continuo si existe una función llamada función de densidad conjunta f XY tal que: P ((X, Y ) A R 2 ) = f XY (x, y) dx dy Observación 5 En particular si A = [a, b] [c, d], P (x A) = b d a c A f XY (x, y) dx dy Teorema 51 (propiedades de la densidad conjunta) Una función de densidad conjunta satisface 1 x, yf XY (x, y) 0 2 R 2 f XY (x, y) dx dy = f XY (x, y) dx dy = 1 Definición 30 (densidad marginal) Las funciones de densidad marginal de X e Y están dadas por: f X (x) = f XY (x, y) dy y f Y (y) = f XY (x, y) dx Definición 31 (acumulada conjunta continua) La función de distribución acumulada conjunta de (X, Y ) está dada por F XY (x, y) = x y f XY (s, t) dt ds Definición 32 (probabilidad condicional) Sea (X, Y ) un vector aleatorio La función de probabilidad condicional de X dado que Y = y está dada por p X Y =y (x) = p XY (x, y) p Y (y) 8 de 18

Definición 33 (densidad condicional) Sea (X, Y ) un vector aleatorio La función de densidad condicional de X dado que Y = y está dada por f X Y =y (x) = f XY (x, y) f Y (y) Definición 34 (independencia) X e Y son independientes si p XY (x, y) = p X (x)p Y (y) Observación 6 (independencia) Si X e Y son independientes p X = p X Y =y para todo y Definición 35 (esperanza de una función de 2 va) E(h(X, Y )) = h(x, y)p XY (x, y), x y E(h(X, Y )) = h(x, y)f XY (x, y) dx dy R 2 Teorema 52 (linealidad de la esperanza) E(aX + by + c) = ae(x) + be(y ) + c Teorema 53 (esperanza de independientes) Si X e Y son independientes entonces E(XY ) = E(X)E(Y ) Definición 36 (covarianza) La covarianza de las va X e Y se define como Cov(X, Y ) = E[(X µ X )(Y µ Y )] La idea intuitiva es que la covarianza es cercana a 0 cuanto mas independientes son las variables Si es lejana al 0, el signo indica si la correlación es positiva o negativa Observación 7 (covarianza y varianza) Cov(X, X) = V (X) Teorema 54 (covarianza) Cov(X, Y ) = E(XY )AddyourGmailinboxtotheGooglehomepageY ouarecurrentlyusing1357m B(19Lastaccountactivity : 10hour Teorema 55 (covarianza e independencia) Si X e Y son independientes, entonces Cov(X, Y ) = 0 La recíproca no vale Definición 37 (coeficiente de relación) El coeficiente de relación es una estandarización de la covarianza para que no dependa de las unidades Se define como ρ(x, Y ) = Cov(X, Y ) σ X σ Y = Cov(X, Y ) V (X)V (Y ) Teorema 56 (coeficiente de relación) El coeficiente de relación cumple lo siguiente: 1 ρ(ax + b, cy + d) = ab ab ρ(x, Y ) 2 1 ρ(x, Y ) 1 3 ρ(x, Y ) = 1 Y = ax + b con probabilidad 1 Notar que el coeficiente mide la relación lineal entre las variables 9 de 18

61 Extensión a más de dos dimensiones Definición 38 (probabilidad conjunta) Si X 1,, X k son variables aleatorias discretas, su función de probabilidad conjunta es p X1,,X k (x 1,, x k ) = P (X 1 = x 1,, X k = x k ) Dado A R k P ((X 1,, X k ) A) = (x 1,,x k ) A p X1,,X k (x 1,, x k ) Teorema 57 (propiedades de la probabilidad conjunta) La probabilidad conjunta cumple: 1 p X1,,X k (x 1,, x k ) 0 2 (x 1,,x k ) R k p X 1,,X k (x 1,, x k ) = 1 Definición 39 (probabilidad marginal) La probabilidad marginal de un subvector X i1,, X ik p Xi1,,X (x ik i 1,, x ik ) = p X1,,X k (x 1,, x k ), (x j1,,x jk k ) Rk k está dada por: donde {i 1,, i k, j 1,, j k k } = {1,, k} 62 Distribución Multinomial Es una generalización de la distribución binomial Hay n experimentos posibles de k resultados posibles con probabilidades p 1,, p k tal que i p i = 1 Es vector aleatorio de la multinomial es (X 1,, X k ) donde X i es el número de veces que salió el resultado i Escribimos X M(n, p 1,, p k ) Definición 40 (probabilidad conjunta distribución multinomial) Si (X 1,, X k ) M(n, p 1,, p k ) entonces p X1,,X k (x 1,, x k ) = n! Observación 8 Si (X 1,, X k ) M(n, p 1,, p l ) entonces X i Bi(n, p i ) En general las marginales de una multinomial son binomiales o multinomiales Definición 41 (densidad conjunta) X 1,, X k son va continuas si tienen una función de densidad conjunta f X1,,X k (x 1,, x k ) k p xi i x i! Tal que dado A R k P ((X 1,, X k ) A) = A p X1,,X k (x 1,, x k )dx 1 dx k Teorema 58 (propiedades de la densidad conjunta) La densidad conjunta cumple: 1 f X1,,X k (x 1,, x k ) 0 2 R k f X1,,X k (x 1,, x k )dx 1 dx k = f X 1,,X k (x 1,, x k )dx 1 dx k = 1 Definición 42 (densidad marginal) La densidad marginal de un subvector X i1,, X ik está dada por: f Xi1,,X (x ik i 1,, x ik ) = f X1,,X k (x 1,, x k )dx j1 dx jk k, donde {i 1,, i k, j 1,, j k k } = {1,, k} (x j1,,x jk k ) Rk k 10 de 18

Definición 43 (independencia) X 1, X k son vectores aleatorios independientes sii: k p X1,,X k (x 1,, x k ) = p Xi (x i ), o k f X1,,X k (x 1,, x k ) = f Xi (x i ) Para buscar la distribución de una función g de varias variables aleatorias de las que se sabe la conjunta, si es continua se puede plantear la ecuación P (g(x 1,, X k ) = x) = P ((X 1,, X k ) = (x 1,, x k )) (x 1,,x k ) R k g(x 1,,x k )=x Para las continuas, por otro lado, se debe plantear F g(x1,,x k )(x) = P (g(x 1,, X k ) x) = (x 1,,x k ) R k g(x 1,,x k ) x f X1,,X k (x 1,, x k )dx 1 dx k Teorema 59 (Suma de binomiales) Si X Bi(n, p) e Y Bi(m, p) son independientes, entonces X + Y Bi(n + m, p) Teorema 60 (Suma de poisson) Si X P (λ) e Y P (µ) son independientes, entonces X + Y P (λ + µ) Teorema 61 (Suma de geométricas) Si X i G(p) son independientes, entonces i X i BN(n, p) Teorema 62 (Suma de exponenciales) Si X E(λ) e Y E(λ) son independientes, entonces X + Y Γ(2, λ) Teorema 63 (Suma de gamma) Si X Γ(α, λ) e Y Γ(β, λ) son independientes, entonces X + Y Γ(α + β, λ) Teorema 64 (Suma de normales) Si X N(µ, σ 2 ) e Y N(µ, σ 2 ) son independientes, entonces ax + by N(aµ + bµ, a 2 σ 2 + b 2 σ 2 ) Teorema 65 (Generadora de momentos de la suma) Si X e Y son independientes entonces Teorema 66 (Esperanza y varianza de la suma) M X+Y (t) = M X (t)m Y (t) E(aX + by ) = ae(x) + be(y) y V (ax + by ) = a 2 V (X) + b 2 V (Y ) + 2ab Cov(X, Y ) Teorema 67 (Esperanza y varianza del promedio) Sean X 1,, X n vaiid (variables aleatorias independientes idénticamente distribuidas) con E(X i ) = µ y V (X i ) = σ 2 Entonces E( X) = µ y V ( X) = σ2 n Teorema 68 (desigualdad de Chebyshev) Si X es una va con E(X) = µ y V (X) = σ 2 entonces: 1 ε > 0 P ( X µ > ε) σ2 ε 2 2 k > 0 P ( X µ > kσ) 1 k Definición 44 (límite en probabilidad) Diremos que una sucesión de va X n tiende en probabilidad a la va X y notaremos X i p X sii ε > 0 lím P ( X n X > ε) = 0 n Teorema 69 (ley de los grandes números) Sean X 1, X 2, vaiid (muestra aleatoria) con E(X i ) = µ y V (X i ) = σ 2 <, entonces X n p µ donde X n = n X i/n 11 de 18

Usando esta idea con la desigualdad de Chebyshev se puede encontrar la mínima cantidad de repeticiones de un experimento para estimar la media con error menor a un valor dado Teorema 70 (teorema central del límite) Sean X 1, X 2, vaiid con E(X i ) = µ y V (X i ) = σ 2 <, entonces si n es suficientemente grande (n)( X µ) donde d quiere decir que σ d Z N(0, 1), ( ) (n)( X µ) P a Φ(a) σ Observación 9 (corrección por continuidad) Cuando se usa el teorema central del límite para aproximar variables discretas tiene un problema Si se calcula P (X k) + P (X k + 1) debería dar 1, pero en la aproximación se pierde la medida del intervalo [k, k + 1] que por ser la aproximación continua, no es 0 Para esto se estima P (X k) como P (X (k + k )/2) donde k es el valor del rango de la va inmediato siguiente a k Observación 10 (aproximaciones normales) Algunas distribuciones, como la binomial, la poisson o la gamma, son sumas de sí misma Por lo tanto si el parametro sobre el cual se suma es suficientemente grande, es posible aproximarla por una normal como si se estuviera aproximando la suma 7 Medidas de resúmen Definición 45 (promedio o media muestral) El promedio o media muestral de una muestra aleatoria x 1,, x n está dado por x = 1 n x i n La media muestra es muy sensible a la presencia de anomalías Definición 46 (mediana muestral) La mediana muestral de una muestra aleatoria x 1 x 2 x n está dada por { x k x = 2k x = 1 2 (x k + x k+1 ) x = 2k + 1 Definición 47 (media α-podada) La media α-podada de una muestra aleatoria x 1 x 2 x n se define como la media de x [αn]+1,, x n [αn] Observación 11 (media, mediana y media α-podada) La media α-podada es un intermedio entre media y mediana La media es la media 0-podada y la mediana la media (0,5 ε)-podada Definición 48 (rango muestral) El rango muestral de una muestra aleatoria x 1 x 2 x n se define como x n x 1 El rango muestral es muy sensible a la presencia de outliers Definición 49 (varianza y desvío muestral) La varianza muestral de una muestra aleatoria x 1,, x n se define como n S 2 1 = (x i x) n 1 y el desvío como S = S 2 Definición 50 (coeficiente de variación) El coeficiente de variación de una muestra aleatoria x 1,, x n son desvío S se define como S/ x Definición 51 (percentiles y cuartiles) El percentil 100α de la muestra x 1,, x n es x α(n+1) si α(n + 1) es entero o mayor a n y (x α(n+1) + x α(n+1) )/2 en otro caso Llamaremos primer, segundo y tercer cuartil a los percentiles 25, 50 y 75 respectivamente El primer y tercer cuartiles tambien se llaman cuartil inferior y superior 12 de 18

Definición 52 (distancia intercuartil) Se define como la diferencia entre los cuartiles inferior y superior Es menos sensible a outliers que la varianza, el desvío y el rango Definición 53 (cuartos y distancia intercuartos) El cuarto inferior es la mediana de la mitad inferior de la muestra (redondeado hacia arriba) El cuarto superior es la mediana de la mitad superior La distancia intercuartos es la diferencia entre ambos Cuartos y cuartiles son muy similares Definición 54 (desvío absoluto mediano) El desvío absoluto mediano de la muestra x 1 x 2 x n se define como la mediana de las distancias a la mediana MAD = mediana( x i x ) Definición 55 (números de resúmen) Los 5 números de resúmen de una muestra son el mínimo, el máximo, la mediana y los cuartiles 8 Gráficos Tallo hoja Se pone la parte mas significativa de la medición como tallo y se usa para agrupar Como hoja se pone la parte menos significativa (se repite una sola vez el tallo por cada grupito y luego una lista de las hojas) Tallo hoja espalda con espalda Para comparar 2 grupos de mediciones, se usa el mismo tallo y se ponen ambas listas de hojas una hacia cada lado Histograma Se divide la muestra en intervalos disjuntos y se grafica una barra para cada intervalo con area igual a la frecuencia (o frecuencia relativa) de las mediciones dentro del intervalo Box-plot Se hace una caja entre los dos cuartiles con un segmento en el medio indicando la mediana Luego se hacen rectas que salen de la caja hasta el valor mas alejado hacia cada lado menor o igual a 15 de la distancia intercuartil (bigotes) Los valores que quedan fuera de este rango se representan con puntos individuales y son considerados anómalos (outliers) Box-plot paralelos Para comparar varios conjuntos de muestras, se hace un box plot para cada una paralelos con la misma escala en el eje Y QQ-plot Sirve para ver si una muestra se parece una distribución En el eje X se ponen los puntos observados ordenados y en el eje Y percentiles equidistribuidos de la distribución teórica y se observa cuánto se parece a una recta el gráfico obtenido 9 Métodos de estimación puntual Nota: Notaremos con X 1,, X n las va que representan la medición antes de hacerla y como x 1,, x n los valores de las mediciones propiamente dichas Cualquier función de los X i sera una va Definición 56 (momentos muestrales) Dada una muestra aleatoria (ma) X 1,, X n definimos el momento muestral de órden k como 1 m Xi k n Definición 57 (estimación de momentos) La estimación de momentos de los k parámetros de una distribución dada una muestra X 1,, X n estima los parámetros como las soluciones del sistema de ecuaciones que resulta de igualar los primeros momentos de la distribución con el correspondiente momento muestral (la cantidad necesaria de momentos a igualar dependen de la distribución) Teorema 71 (estimador de momentos de la exponencial) Si X 1,, X n entonces su estimador de momentos es ˆλ = 1/ X es una ma de una distribución E(λ) Teorema 72 (estimador de momentos de la gamma) Si X 1,, X n es una ma de una distribución Γ(α, λ) entonces su estimador de momentos es X X ˆλ 2 = X 2 + 1 n y ˆα = n X2 i X 2 + 1 n n X2 i 13 de 18

Teorema 73 (estimador de momentos de la uniforme) Si X 1,, X n es una ma de una distribución U(0, θ) entonces su estimador de momentos es ˆθ = 2 X Definición 58 (función de verosimilitud y estimación de máxima verosimilitud) Sea una distribución con función de probabilidad puntual p X o de densidad f X que depende de parámetros θ 1,, θ k Si x 1,, x n son los valores observados la función de verosimilitd L(θ 1,, θ k ) se define como p o f en el punto x 1,, x n usando θ 1,, θ k como parámetros La estimación de máxima verosimilitud (EMV) es el punto máximo de L Teorema 74 (estimador de máxima verosimilitud de la binomial) Sea X 1,, X n una ma de un experimento binomial de parámetro p Su EMV es ˆp = X Teorema 75 (estimador de máxima verosimilitud de la exponencial) Sea X 1,, X n una ma de una distribución E(λ), entonces su EMV es ˆλ = 1/ X Teorema 76 (estimador de máxima verosimilitud de la normal) Sea X 1,, X n una ma de una distribución N(µ, σ 2 ), entonces su EMV es ˆµ = X y ˆσ2 = 1 n (X i n X) 2 Teorema 77 (estimador de máxima verosimilitud de la uniforme) Sea X 1,, X n una ma de una distribución U(0, θ), entonces su EMV es ˆθ = máx i (X i ) Teorema 78 (invarianza de los EMV) Si θ 1,, θ n son estimadores de máxima verosimilitud de θ 1,, θ n entonces para toda función inyectiva f f( θ 1,, θ n ) lo es de f(θ 1,, θ n ) Definición 59 (sesgo) El sesgo de un estimador θ del parámetro θ se define como b( θ) = E θ ( θ) θ Un estimador θ se dice insesgado si b( θ) = 0 Definición 60 (asintóticamente insesgado) Un estimador θ es asintóticamente insesgado si lím n E θ ( θ) = θ Teorema 79 (sesgo del estimador de momentos de la uniforme) El estimador de momentos θ de una U(0, θ) es insesgado Teorema 80 (sesgo de EMVs conocidos) El EMV p de una Bi(n, p) es insesgado El EMV µ de una normal es insesgado, pero el EMV σ 2 sólo es asintóticamente insesgado El EMV θ de una U(0, θ) sólo es asintóticamente insesgado Teorema 81 (la varianza muestral es insesgado de la varianza) La varianza muestral S 2 es un estimador insesgado de σ 2 para cualquier distribución Definición 61 (estimador insesgado de mínima varianza) Se define como el estimador insesgado de varianza mínima (IMVU) al estimador θ insesgado tal que para todo estimador insesgado θ pasa que V θ ( θ) V θ ( θ ) Teorema 82 (estimador IMVU de la normal) Si la ma X 1,, X n viene de una N(µ, σ 2 ) entonces X es el estimador IMVU de µ Definición 62 (error estándar y error estándar estimado) Si θ es un estimador su error estándar es V θ ( θ) Reemplazando en dicha expresión los parámetros desconocidos por estimadores de los mismos se define el error estándar estimado Teorema 83 (error de estimación de la normal) Si la ma X 1,, X n viene de una N(µ, σ 2 ) y consideramos el estimador X de µ su error estándar es σ 2 /n y estimado S 2 /n Definición 63 (error cuadrático medio) El error cuadrático medio de θ es ECM θ ( θ) = E θ [( θ θ) 2 ] Teorema 84 (relación entre ECM y varianza) ECM θ ( θ) = V θ ( θ) + b( θ) 2 Definición 64 (estimador de menor ECM) Se define un estimador como tomar, entre varios estimadores, el de menor ECM Es una forma de hacer trade-off entre la varianza y el sesgo Para estimadores insesgados, el criterio es obviamente igual al de mínima varianza 14 de 18

Definición 65 (consistencia) Un estimador θ n basado en la muestra X 1,, X n es consistente si θ n p θ Teorema 85 (media consistente) X es un estimador consistente de µ = E(X) Teorema 86 (varianza consistente) S 2 X es un estimador consistente de σ2 = V (X) Teorema 87 (consistencia) Si el estimador θ n consistente lím E θ( θ n ) = θ y n lím V θ( θ n ) = 0 n 10 Intervalos de confianza Definición 66 (intervalo de confianza) Sea X 1,, X n una ma dependiente de un parámetro θ y dos funciones de la misma a y b tal que P (a(x 1,, X n ) θ b(x 1,, X n )) = 1 α, con α cercano a 0 Se llama intervalo de confianza para θ de nivel 1 α a [a(x 1,, X n ), b(x 1,, X n )] Definición 67 (distribución de Student) Si Z N(0, 1) y U χ 2 n = Γ(n/2, 1/2) son independientes entonces T = Z (U/n) t n donde t n es la distribución de student con n grados de libertad Está tabulada para distintos valores de n y tiende a una normal standard cuando n Teorema 88 Sea X 1,, X n una ma de una N(µ, σ 2 ), se cumple que: 1 X N(µ, σ 2 /n) n X µ σ N(0, 1) 2 (n 1)S 2 /σ 2 χ 2 n 1 3 X y S 2 son independientes 4 n x µ S t n 1 Notación: z α = P (X N(0, 1) α), t n,α = P (X Student(n) α), χ 2 n,α = P (X χ 2 n α) Teorema 89 (intervalos de confianza para la normal) Si X 1,, X n es una ma de distribucion N(µ, σ 2 ) y queremos intervalos de confianza de nivel 1 α entonces 1 Si σ 2 = σ0 2 es conocida, el intervalo para µ es [ X z 1 α/2σ 0, X + z ] 1 α/2σ 0 n n 2 Si µ = µ 0 es conocida, el intervalo para σ 2 es n (X i µ 0 ) 2 χ 2, n,1 α/2 n (X i µ 0 ) 2 χ 2 n,α/2 3 Si son ambos parámetros desconocidos el intervalo para µ es [ X t n 1,α/2 S n, X + t n 1,α/2 S n ] y para σ [ (n 1)S 2 χ 2, n 1,1 α/2 ] (n 1)S2 χ 2 n 1,α/2 15 de 18

Definición 68 (pivote) Sea X 1,, X n una ma dependiente de θ, se llama pivote a una función T (X 1,, X n, θ) cuya distribución no depende de θ ni de ningún otro parámetro Entonces, se toman a y b tal que Despejando se obtiene un intervalo de confianza para θ P (a T (X 1,, X n, θ) b) = 1 α Definición 69 (intervalos de confianza de nivel asintótico) Sea X 1, X 2, una ma dependiente de un parámetro θ y dos sucesiones de funciones de la misma a y b tal que lím P (a n(x 1,, X n ) θ P (b n (X 1,, X n )) = 1 α, n con α cercano a 0 Se llama sucesión de intervalos de confianza para θ de nivel asintótico 1 α a [a n (X 1,, X n ), b n (X 1,, X n )] También se dice que para n suficientemente grande [a n (X 1,, X n ), b n (X 1,, X n )] tiene nivel aproximado 1 α Teorema 90 (intervalos de confianza aproximados por la normal) Como n( X µ)/σ d N(0, 1) podemos usar la normal para determinar intervalos de confianza aproximados En particular el intervalo de confianza de nivel aproximado 1 α de µ = E(X i ) con σ desconocido es [ ] s X z α/2, X s + z α/2 n n 11 Test de hipótesis Definición 70 (hipótesis) Se denomina hipótesis nula y se nota H 0 a la hipótesis que implica el statu quo Por otro lado, la hipótesis alternativa o hipótesis del investigador H 1 es la que implica un cambio Definición 71 (zona de rechazo) La zona de rechazo es el conjunto de valores para los cuales se rechaza la hipótesis nula Su forma depende de como sea la hipótesis alternativa Definición 72 (test de hipótesis) Un test de hipótesis se basa en un estadístico (función de la muestra) y una zona de rechazo Definición 73 (p-valor) Definimos como p-valor a la probabilidad de que el estadístico tenga un valor menor o igual al observado si H 0 es cierta (suponiendo que H 1 es de la forma θ > θ 0 y que el estadístico es creciente en θ) Definición 74 (nivel de significación del test) El nivel de significación del test, notado α es la probabilidad de de rechazar H 0 si es cierta A la probabilidad de no rechazarla dado que no es cierta se la nota por β En general construimos el estadístico suponiendo que H 0 es cierta, asi que podemos controlar α y es lo que haremos Definición 75 (función de potencia) La función de potencia de un test π(µ) es la probabilidad de rechazar H 0 cuando el verdadero valor del parámetro es µ (ie, la probabilidad de la zona de rechazo) Depende de ambos tipos de error, pues { α(µ) µ H 0 π(µ) = 1 β(µ) µ H 1 Teorema 91 (test para la normal de varianza conocida) Para testear contra el valor µ 0 el estadístico del test es T = n X µ 0 σ 0 N(0, 1) Según cual sea H 1 la zona de rechazo y la función de potencia serán ( 1 H 1 = µ > µ 0 : T z α, π(µ) = 1 Φ z α + n µ ) 0 µ ( 2 H 1 = µ < µ 0 : T z α, π(µ) = Φ z α + n µ ) 0 µ σ 0 σ 0 16 de 18

( 3 H 1 = µ µ 0 : T z α/2, π(µ) = 1 Φ z α/2 + n µ ) ( 0 µ + Φ z α/2 + n µ ) 0 µ σ 0 σ 0 Teorema 92 (test para la normal de varianza desconocida) Para testear contra el valor µ 0 el estadístico del test es T = n X µ 0 t n 1 S Según cual sea H 1 la zona de rechazo será 1 H 1 = µ > µ 0 : T t n 1,α 2 H 1 = µ < µ 0 : T t n 1,α 3 H 1 = µ µ 0 : T t n 1,α/2 Teorema 93 (test para la varianza de la normal con media desconocida) Para testear contra el valor µ 0 el estadístico del test es (n 1)S2 T = σ0 2 χ 2 n 1 Según cual sea H 1 la zona de rechazo será 1 H 1 = µ > µ 0 : T χ 2 n 1,α 2 H 1 = µ < µ 0 : T χ 2 n 1,1 α 3 H 1 = µ µ 0 : T χ 2 n 1,α/2 ó T χ2 n 1,1 α/2 Teorema 94 (test aproximado para la media de una distribución cualquier) Como X n d N(0, 1) podemos usar un test similar al de la normal usando s en lugar de σ (ya que s σ) 17 de 18

12 Resúmen de distribuciones 121 Distribuciones Discretas Nombre X p X (k) E(X) V(X) M X (t) ( ) n Binomial Bi(n, p) p k (1 p) n k np np(1 p) (e t p + 1 p) n k Geométrica G(p) (1 p) k 1 1 p ( ) p k 1 Binomial Negativa BN(p, r) (1 p) k r p r r r 1)( ) p N D Hipergeométrica H(n, N, D) Poisson P (λ) 122 Distribuciones Continuas ( D k ( n ) k n D N N n e λ λ k k! 1 p p 2 r(1 p) p 2 ( ) N n n D ( 1 D ) N 1 N N pe t ( 1 (1 p)e t pe t 1 (1 p)e t λ λ e λ(et 1) ) r Nombre X f X (x) F X (x) E(X) V(X) M X (t) 1 Uniforme U(A, B) B A I x A [A,B](x) B A I A + B (B A) 2 e tb e ta [A,B](x) 2 12 t(b a) µ)2 σ 2 t 2 Normal N(µ, σ 2 1 (x ) e 2σ 2 + µt Φ(x) µ σ 2 e 2 2πσ e λx x α 1 λ α ( ) α α α λ Gamma Γ(α, λ) Γ(α) λ λ 2 λ t Exponencial E(λ) e λx λ 1 e λx λ 1 λ 2 λ λ t 123 Distribución Vectorial Discreta Nombre X p X1,,X k (x 1,, x k ) Multinomial M(n, p 1,, p k ) k p xi i n! x i! 18 de 18