Comportamiento asintótico de estimadores
|
|
- Felipe Rojo Peña
- hace 5 años
- Vistas:
Transcripción
1 Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos que cuanto mayor sea el tamaño de la muestra n, más precisa será la estimación. Nos disponemos ahora a analizar consistencia de estimadores; distribución asintótica (exacta/aproximada) de estimadores; Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
2 Consistencia Para cada n, tenemos muestra aleatoria (X 1,..., X n ) y estimador T n = h n (X 1,..., X n ) Habitual: la sucesión de estimadores (T n ) se obtiene con funciones h n que tienen la misma forma (promedio, máximo, etc.): h n (x 1, x 2,..., x n ) = 1 n n j=1 x j; h n (x 1, x 2,..., x n ) = max(x 1, x 2,..., x n );... Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
3 Decimos que una sucesión (T n ) de estimadores de un parámetro θ (donde cada T n es una función de (X 1,..., X n )) es consistente cuando lim P θ( T n θ ε) = 0, para todo ε > 0. n Es decir, cuando para n grande, la probabilidad de que T n yerre siquiera ε del verdadero valor θ sea casi nula. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
4 Criterio habitual: Lema 1 Sea (T n ) n 1 una sucesión de estimadores insesgados de θ tales que lim V θ(t n ) = 0. n Entonces la sucesión (T n ) n 1 es consistente. Demostración. Como E θ (T n ) = θ, por la desigualdad de Chebyshev tenemos, para ε > 0 dado, que P θ ( T n θ ε) V θ(t n ) ε 2 n 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
5 Lema 2 Sea (T n ) n 1 una sucesión de estimadores de θ tales que lim ECM θ(t n ) = 0. n Entonces la sucesión (T n ) n 1 es consistente. Demostración. Por la desigualdad de Markov tenemos, para ε > 0 dado, que P θ ( T n θ ε) E θ( T n θ ) Eθ ((T n θ) 2 ) ε ε ECM(Tn ) n = 0. ε donde la segunda desigualdad es consecuencia de la de Cauchy-Schwarz. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
6 Ejemplo 1. X y S 2 como estimadores consistentes, respectivamente, de E(X ) y de V(X ). Para indicar la dependencia en el tamaño de la muestra, escribiremos X (n) y S 2 (n) Sabemos que, para cualquier n, X (n) es estimador insesgado de E(X ) y además que V(X (n) ) = V(X ). n Así que X (n) es una sucesión consistente de estimadores de E(X ). Esto requiere, por supuesto, que E(X 2 ) < +. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
7 Análogamente para S 2 (n), pues E(S 2 (n) ) = V(X ) y V(S 2 (n) ) E[ (X E(X )) 4] n con la hipótesis de que E(X 4 ) < +. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
8 Ejemplo 2. El estimador T n = n+1 n max(x 1, X 2,..., X n ) del parámetro a de Unif[0, a]. Como ya sabemos, y V a (M n ) = E a (M n ) = a 1 n(n + 2) a2. Ejemplo 3. Estimamos E(X ) con T n = X (n) + 1 n. No son estimadores insesgados, pues E(T n ) = E(X ) + 1/n, pero sí son consistentes, pues V(T n ) = V(X )/n y el sesgo 1/n tiende a 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
9 Distribución exacta/aproximada de T n En ocasiones, podemos determinar la distribución de T n, lo que permitirá obtener cotas de P θ ( T n θ ε) mucho mejores que las dadas, por ejemplo, por la desigualdad de Chebyshev, precisando así mucho más la confianza en las estimaciones de sucesiones de estimadores consistentes. Veremos algunos ejemplos en que podremos calcular expĺıcitamente la distribución del estimador; cómo utilizar el teorema del ĺımite central para obtener la distribución aproximada del estimador X ; cómo utilizar el teorema del ĺımite central para obtener la distribución aproximada de estimadores que dependan de X ; Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
10 a) Distribución exacta Ejemplo 1. Sea X N (µ, σ 2 ). Sabemos que X (n) N (µ, σ 2 /n). La desigualdad de Chebyshev daría: P( X (n) µ ε) V(X ) ε 2 = σ2 nε 2. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
11 Pero también ( X (n) µ P( X (n) µ ε) = P σ/ n ε ) ( σ/ = 2 1 Φ n ( nε σ )). Usando la estimación 1 Φ(x) φ(x) x, para x > 0, de la cola de la normal estándar, deducimos: P( X (n) µ ε) 2σ ε 1 e nε2 /σ 2. n 2π Comparación: pongamos que σ = 1 y tomemos ε = 1/n 1/4. Tendríamos 2 π n1/4 e n vs 1 n. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
12 Ejemplo 2. Sea X N (µ, σ 2 ). Sabemos que (n 1)S 2 (n) /σ2 χ 2 n 1. Así que ( P( S(n) 2 (n 1)S 2 σ2 (n) ε) = P σ 2 (n 1) ( ( = P χ 2 n 1 > (n 1) ( 1 + ε σ 2 ) ) + P Una expresión exacta, en términos de percentiles de χ 2 n 1. ε(n 1) ) σ 2 χ 2 n 1 < (n 1) ( 1 ε ) ) σ 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
13 Ejemplo 3. Sea X unif[0, a]. El estimador es Como E a (M n ) = no). Conocemos su distribución: M n = max(x 1, X 2,..., X n ). n n+1 a, el estimador es sesgado (aunque asintóticamente, P a ( M n a ε) = P a (M n a ε) = ( 1 ε a) n. Así que M n no sólo es consistente, sino que además la probabilidad de error de estimación converge exponencialmente a 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
14 Pero más interesante, si cambiamos la escala del error y consideramos P a ( M n a (aε/n)) = ( 1 ε/n ) n n e ε Esto nos dice que n a (a M n) converge en distribución a exp(1). Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
15 b) Aproximación normal: el teorema del ĺımite central Recordemos que el teorema del ĺımite central (TLC) afirma que para una variable Z n que sea suma (o promedio) de n variables iid (con varianza finita), la versión tipificada de Z n converge en distribución a la normal estándar. Aplicación básica. Media muestral X como estimador de E(X ) para una variable general con E(X 2 ) < +. Si X tiene E(X ) = µ y V(X ) = σ 2, entonces n(x µ) converge en distribución a N (0, σ 2 ), Así que, para n grande, P( X µ ε) = P( n (X µ) nε) 2 ( 1 Φ( nε/σ) ). En el caso en el que X sea normal, el es un =. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
16 Un ejemplo adicional. Cuasivarianza muestral S 2 como estimador de σ 2 para una variable N (µ, σ 2 ). Una χ 2 n 1 es una suma de n 1 variables idénticas e independientes (cuadrados de normales estándar). Su esperanza es n 1 y su varianza 2(n 1). Por el teorema del ĺımite central tenemos que (n 1)S 2 (n) σ 2 (n 1) 2(n 1) converge en distribución a N (0, 1). Esto nos daría que, para n grande, ( P( S(n) 2 σ2 ε) 2 1 Φ ( ε n 1) ). 2 σ 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
17 c) El método delta Con frecuencia, el estadístico T n para estimar un cierto parámetro es una cierta función de X, por ejemplo, 1/X. O de X 2, como X 2. Teorema 3 (Método delta) Sea Z n una sucesión de variables aleatorias en un espacio (Ω, P) tal que n (Zn µ) converge en distribución a N (0, σ 2 ) Sea g una función continua en R, C 2 en un intervalo que contiene a µ y tal que g (µ) 0. Entonces n (g(zn ) g(µ)) converge en distribución a N (0, g (µ) 2 σ 2 ) Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
18 (Idea de la) demostración. Se tiene que n (Zn µ) σy, donde Y normal estándar. Obviemos. Así Z n = µ + σ n Y. Obsérvese que Z n será proximo a µ para n grande. Por otro lado, g(x) g(µ) + g (µ)(x µ), si x próximo a µ. Obviemos. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
19 Combinando, tenemos que g(z n ) = g(µ) + g (µ) (Z n µ) = g(µ) + g (µ)σ n Y. Es decir, n (g(zn ) g(µ)) = g (µ) σ Y. Es decir, como la normal estándar es simétrica, n (g(z n ) g(µ)) es una normal de media 0 y varianza g (µ) 2 σ 2. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
20 Ejemplo 1. Estimador 1/X del parámetro λ para X exp(λ). Recordemos que E λ (X ) = 1/λ y que V λ (X ) = 1/λ 2. Denotemos X (n) a la media muestral de tamaño n. Por el teorema del ĺımite central, n ( X (n) 1 λ) converge en distribución a N ( 0, 1 λ 2 ). Consideremos ahora g(x) = 1/x para x (0, + ). Obsérvese que Entonces, por el teorema 3, ( 1 ) n λ X (n) g (µ) 2 = g (1/λ) 2 = λ 4. converge en distribución a N ( 0, λ 2). Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
21 Ejemplo 2. X ber(p). Se tiene que E(X ) = p. Para estimar p, tomamos la media muestral X (n). El TLC nos dice que n ( X (n) p ) converge en distribución a N ( 0, p(1 p) ), Pero para estimar el parámetro q = p/(1 p) ( odds a favor ), tomaríamos X (n) 1 X (n) Consideramos g(x) = x/(1 x) para x (0, 1). Se tiene que g (p) = 1/(1 p) 2. Entonces ( X (n) n p ) 1 X (n) 1 p converge en distribución a ( p ) N 0, (1 p) 3, Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
22 Ahora queremos estimar el parámetro p(1 p) (la varianza). Usamos X (n) (1 X (n) ). Consideramos, en x (0, 1) para la que g (x) = 1 2x. g(x) = x(1 x) Esto nos da, si p 1/2, n ( X (n) (1 X (n) ) p(1 p)) d N ( 0, (1 2p) 2 p(1 p) ), Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
23 Pero, y si p = 1/2? En este caso, g (p) = 0. Teorema 4 (Método delta con g (µ) = 0) Sea Z n una sucesión de variables aleatorias en un espacio (Ω, P) tales que n(zn µ) converge en distribución a N (0, σ 2 ). Sea g una función continua en R, C 3 en un intervalo que contiene a µ y tal que g (µ) = 0, pero g (µ) 0. Entonces n (g(z n ) g(µ)) converge en distribución a g (µ)σ 2 2 χ 2 1 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
24 Demostración. Los = que siguen son en realidad. Primero, g(x) g(µ) = 1 2 g (µ)(x µ) 2 Además, Z n µ = σ n Y, con Y normal estándar. Concluimos que Es decir, g(z n ) g(µ) = 1 2 g (µ) σ2 n Y 2 n (g(z n ) g(µ)) = g (µ)σ 2 2 Y 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
25 Para la función g(x) = x(1 x), tenemos que g (x) = 2. En el caso p = 1/2 tenemos E(X ) = 1/2 y V(X ) = 1/4. La conclusión, vía el teorema 4, es que, si p = 1/2, entonces ( ) n X (n) (1 X (n) ) p(1 p) converge en distribución a 1 4 χ2 1. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25
Sumas/promedios de variables aleatorias
Sumas/promedios de variables aleatorias Dadas unas variables aleatorias X 1,..., X n, interesa considerar las variables S n = X i o bien Z n = 1 n X i. De las variables S n y Z n querremos calcular sus
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesProbabilidades y Estadística
Probabilidades y Estadística Profesor: Fernando Lema Auxiliares: Víctor Carmi - Abelino Jiménez Universidad de Chile Indice General 1 Indice General 1 Advertencias y Recomendaciones Tener presente siempre
Más detallesEXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006
EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar
Más detallesInferencia. Mauricio Olivares. 19 de junio de 2015 ITAM
Inferencia Mauricio Olivares ITAM 19 de junio de 2015 Recuerda de nuestra clase anterior que m(x) = α + βx. Recuerda de nuestra clase anterior que m(x) = α + βx. Esta es una relación poblacional, no hay
Más detallesTema 2: Introducción a la Inferencia Estadística
Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.
Más detallesCapítulo 3. Estimación estadística de modelos probabilistas
Capítulo 3. Estimación estadística de modelos probabilistas 3.1. Muestreo aleatorio. 3.2. Estimación puntual. 3.3. Estimación por intervalos de confianza. 3.4. Contrastes de hipótesis. 3. Estimación estadística
Más detallesTema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2.
Tema 3 - Introducción 1 Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesMuestreo e intervalos de confianza
Muestreo e intervalos de confianza Intervalo de confianza para la media (varianza desconocida) Intervalo de confinza para la varianza Grados en Biología y Biología sanitaria M. Marvá. Departamento de Física
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesEconometría II. Hoja de Problemas 1
Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli
Más detalles5.3. Información y cota de Cramér Rao
5.3. Información y cota de Cramér Rao 39 5.3. Información y cota de Cramér Rao Es deseable disponer de estimadores con el menor error cuadrático medio posible, o alternativamente, de estimadores insesgados
Más detallesINFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza
INFERENCIA ESTADISTICA Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Por este proceso es posible utilizar estadísticos calculados a partir de muestras para estimar los valores de los parámetros de
Más detallesCurso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones
Más detallesMomentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Más detallesTema 6. Estimación puntual
1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos
Más detallesConceptos básicos de inferencia estadística (I): Inferencia estadística (repaso)
Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Tema 1 (I) Estadística 2 Curso 08/09 Tema 1 (I) (Estadística 2) Inferencia estadística Curso 08/09 1 / 24 Inferencia estadística
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesVariables aleatorias continuas y Teorema Central del Limite
Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R
Más detallesEstadística I Tema 5: Introducción a la inferencia estadística
Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesPart VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores
Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual
Más detallesTema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.
ema El Modelo de Regresión Lineal con Regresores Aleatorios Introducción En este tema vamos a analizar las propiedades del modelo de regresión lineal con regresores aleatorios Suponer que los regresores
Más detallesFunción característica. Sean X e Y v.a. en (Ω,A,P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C
Dada una variable aleatoria X, introduciremos la función caracteística de X, que se denotará φ X (t). El objetivo de los Teoremas que se enuncian a continuación es probar que X n D X φ Xn (t) φ X (t) t
Más detallesConceptos Básicos de Inferencia
Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos
Más detallesTema 4: Estimación por intervalo (Intervalos de Confianza)
Tema 4: Estimación por intervalo (Intervalos de Confianza (a partir del material de A. Jach (http://www.est.uc3m.es/ajach/ y A. Alonso (http://www.est.uc3m.es/amalonso/ 1 Planteamiento del problema: IC
Más detallesExperimentos de Monte Carlo. Walter Sosa-Escudero
Introduccion Test de Breusch-Pagan de heterocedasticidad: LM = 1 2 SCE g,z χ 2 (p 1) g = residuos al cuadrado, z, variables explicativas de la heterocedasticidad. Esta es una aseveracion asintotica. Que
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesEstimación. Introducción. Sea X la variable aleatoria poblacional con distribución de probabilidad f θ donde. es el parámetro poblacional desconocido
Tema : Introducción a la Teoría de la Estimación Introducción Sea X la variable aleatoria poblacional con distribución de probabilidad f θ (x), donde θ Θ es el parámetro poblacional desconocido Objetivo:
Más detallesBLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población
BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el
Más detalles3 ESTIMACION. 3.1 Introducción
3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto
Más detallesIntervalo para la media si se conoce la varianza
178 Bioestadística: Métodos y Aplicaciones nza para la media (caso general): Este se trata del caso con verdadero interés práctico. Por ejemplo sirve para estimar intervalos que contenga la media del colesterol
Más detallesAplicación de la distribución empírica: Tests de bondad de ajuste
Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida
Más detallesVariables aleatorias. Utilizando el resultado anterior, vemos que
Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un
Más detalles2.3. Análisis bayesiano para datos normales
2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos
Más detallesCurso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población
Más detallesTema 7: Ejercicios de Inferencia en una población Normal
Tema 7: s de Inferencia en una población Normal Bernardo D Auria Departamento de Estadística Universidad Carlos III de Madrid GRUPO 83 - INGENIERÍA INFORMÁTICA Otros I3 En una explotación minera las rocas
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 6 Teoremas ĺımite Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST. Tema
Más detallesTema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detalles6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid
6. Inferencia con muestras grandes 1 Tema 6: Inferencia con muestras grandes 1. Intervalos de confianza para μ con muestras grandes 2. Determinación del tamaño muestral 3. Introducción al contraste de
Más detallesCálculo de probabilidad. Tema 3: Variables aleatorias continuas
Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice
Más detallesIntegral de Lebesgue
Integral de Lebesgue Problemas para examen n todos los problemas se supone que (, F, µ) es un espacio de medida. Integración de funciones simples positivas. La representación canónica de una función simple
Más detallesNotas sobre convergencia y funciones generatrices
Notas sobre convergencia y funciones generatrices Universidad Carlos III de Madrid Abril 2013 Para modelar un fenómeno aleatorio que depende del tiempo, podemos considerar sucesiones de variables X 1,X
Más detalles7. Inferencia Estadística. Métodos Estadísticos para la Mejora de la Calidad 1
7. Inferencia Estadística Métodos Estadísticos para la Mejora de la Calidad 1 Tema 7: Inferencia Estadística 1. Intervalos de confianza para μ con muestras grandes 2. Introducción al contraste de hipótesis
Más detallesFundamentos para la inferencia. Estadística Prof. Tamara Burdisso
Fundamentos para la inferencia Estadística 018 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una
Más detallesCurso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza
Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República,
Más detallesSuficiencia y Completitud. Estimadores IMVU.
1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución
Más detallesRegresión Lineal Múltiple
Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta
Más detallesEstimación. Diseño Estadístico y Herramientas para la Calidad. Estimación. Estimación. Inferencia Estadística
Diseño Estadístico y Herramientas para la Calidad Estimación Epositor: Dr. Juan José Flores Romero juanf@umich.m http://lsc.fie.umich.m/~juan M. en Calidad Total y Competitividad Estimación Inferencia
Más detallesDistribución Empírica
1 Distribución Empírica X 1,...,X n i.i.d. X i F, X i P I A (X j (ω)) = { 1 Xj (ω) A 0 X j (ω) / A F n (x,ω) = 1 n P n (A,ω) = 1 n n i=1 n i=1 I (,x] (X j (ω)) = #{X j(ω) x} n I A (X j (ω)) = #{X j(ω)
Más detallesSuficiencia y Completitud. Estimadores IMVU.
1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución
Más detallesTema 4: INFERENCIA ESTADÍSTICA - I
Tema 4: INFERENCIA ESTADÍSTICA - I Intervalos de confianza para la media, muesras grandes, varianza conocida Biología sanitaria 2017/18. Universidad de Alcalá M. Marvá. Actualizado: 2018-03-20 Biología
Más detallesFunción característica. Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C.
Función característica Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C Z(w) =X(w)+i Y(w) w Ω La esperanza de Z se define: si E(X)
Más detallesFolleto de Estadísticas. Teoría del 2do Parcial
Folleto de Estadísticas Teoría del 2do Parcial 2012 Variables aleatorias conjuntas continuas: Sean X y Y dos variables aleatorias continuas con ellas se asocia una función denominada función de densidad
Más detalles6-1. Dos preguntas sobre 100 tiradas de dado
Semana 6 Esperanza y Varianza 6-1. Dos preguntas sobre 100 tiradas de dado 6-2. Esperanza 6-3. Propiedades básicas de la esperanza 6-4. Distancia esperada a la media 6-5. Varianza 6-6. Demostraciones 6-1.
Más detallesVariables aleatorias continuas, TCL y Esperanza Condicional
Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función
Más detallesCurso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos
Más detallesTema 3: Estimación estadística de modelos probabilistas. (primera parte)
Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:
Más detallesEstimación de densidades basada en núcleos: algunos elementos. Isabel Cañette
Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos
Más detallesDistribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides
Distribuciones Fundamentales de Muestreo UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Muestrales La distribución de probabilidad de un estadístico
Más detallesCálculo de Probabilidades II Preguntas Tema 2
Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución
Más detallesAsignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA
Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA Typeset by FoilTEX 5.1 MÉTODO DE LA CANTIDAD PIVOTAL X
Más detallesEstimaciones puntuales. Estadística II
Estimaciones puntuales Estadística II Estimación Podemos hacer dos tipos de estimaciones concernientes a una población: una estimación puntual y una estimación de intervalo. Una estimación puntual es un
Más detalles2. Modelos con regresores endógenos
. Introducción ema 3. Regresores Endógenos. Bibliografía: Wooldridge, 5., 5.4 y 6.2 En este tema vamos a estudiar el modelo lineal con regresores potencialmente endógenos. Veremos primero las consecuencias
Más detallesTeorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
Más detallesINGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION
INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 005 SOLUCION 1.- Sea ( X,..., X ) una muestra aleatoria simple de una variable aleatoria X con 1 n E(X) µ y Var (X) k µ. Considérense los siguientes estimadores
Más detallesEstimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
Más detallesCuál es el campo de estudio de la prueba de hipótesis?
ESTIMACIÓN Establecer generalizaciones acerca de una población a partir de una muestra es el campo de estudio de la inferencia estadística. La inferencia estadística se divide en estimación y prueba de
Más detallesInferencia Estadística
Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características
Más detallesDepartamento de Matemáticas
MA5 Clase : Series de números reales Definición de Serie Elaborado por los profesores Edgar Cabello y Marcos González Definicion Dada una sucesión de escalares (a n ), definimos su sucesión de sumas parciales
Más detallesEstadística I Tema 7: Estimación por intervalos
Estadística I Tema 7: Estimación por intervalos Tema 7: Estimación por intervalos Ideas a transmitir Definición e interpretación frecuentista. Intervalos de confianza para medias y varianzas en poblaciones
Más detallesEstadística Clase 3. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri
Estadística 010 Clase 3 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri 1. Pasos en un proceso estadístico 1. Plantear una hipótesis sobre una población.. Diseñar
Más detallesTEMA 7. Estimación. Alicia Nieto Reyes BIOESTADÍSTICA. Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13
TEMA 7. Estimación Alicia Nieto Reyes BIOESTADÍSTICA Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13 1 Estimación Puntual 1 Estimación por intervalos Estimación por intervalos de la Media
Más detallesMovimiento Browniano o proceso de Wiener
1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),
Más detallesLos estimadores mínimo cuadráticos bajo los supuestos clásicos
Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni MCO bajo los supuestos clásicos 1
Más detallesBLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN
BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN Aproximación intutitiva a la inferencia estadística La Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes
Más detallesAnálisis Multivariante de Datos
Análisis Multivariante de Datos Curso 2016-2017 Por qué es importante realizar inferencia sobre los parámetros de la normal? La estimación máximo-verosímil (MV) de la distribución Normal son la media y
Más detallesPROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS
Estadística 1 PROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS 1. Obtener un estimador insesgado para p en una m.a.s. de tamaño n de una distribución binomial B(m,p) con m conocido y calcular su error
Más detallesESTADISTICA GENERAL. PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales
ESTADISTICA GENERAL PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales OBJETIVOS Describir las características de las distribuciones de probabilidad : Normal, Ji-cuadrado, t de student
Más detallesReglas de derivación Sumas, productos y cocientes. Tema 4
Tema 4 Reglas de derivación Aclarado el concepto de derivada, su significado analítico y sus interpretaciones geométrica y física, pasamos a desarrollar las reglas básicas para el cálculo de derivadas
Más detallesGermán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1
. Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones
Más detallesEstadística Clase 4. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri
Estadística 011 Clase 4 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 4 1. Pasos en un proceso estadístico. Inferencia Estadística 3. Estimación Puntual
Más detallesMedidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez.
Medidas Problemas para examen Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Sigma-álgebras 1. Propiedades elementales de σ-álgebras. Demuestre que una σ-álgebra es
Más detallesSoluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015
Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Conteste todas las preguntas en dos horas y media. Pregunta 1 (33 puntos: Un investigador está considerando las
Más detallesUniversidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA
Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Ateneo Ruperto P. Bonet Chaple UTB-Julio 2016 OBJETIVO Aplicar las técnicas de Muestreo e Inferencia Estadística Determinar el tamaño
Más detallesTema 8: Contraste de hipótesis
Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste
Más detallesEstimación (puntual) de parámetros
Capítulo 5 Estimación (puntual) de parámetros 5.1. Generalidadessobreestimadores... 3 5.1.1. Dependencia de la función de densidad respecto de los parámetros... 4 5.1.2. Sesgodeunestimador.Estimadoresinsesgados...
Más detallesTema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Más detallesVariables aleatorias
Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables
Más detallesTEMA 2: Propiedades de los estimadores MCO
TEMA 2: Propiedades de los estimadores MCO Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 2: Pdades de los estimadores MCO Curso
Más detallesBootstrap. Patricia Kisbye. 13 de mayo, FaMAF
Bootstrap Patricia Kisbye FaMAF 13 de mayo, 2010 Técnica de bootstrap La técnica de Bootstrap fue introducida por B. Efron, 1982. Consiste en aproximar la precisión de un estimador a partir de una muestra
Más detallessup si A no es acotado.
Capítulo 5 Teoría de Baire 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y la
Más detalles