Comportamiento asintótico de estimadores

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Comportamiento asintótico de estimadores"

Transcripción

1 Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos que cuanto mayor sea el tamaño de la muestra n, más precisa será la estimación. Nos disponemos ahora a analizar consistencia de estimadores; distribución asintótica (exacta/aproximada) de estimadores; Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

2 Consistencia Para cada n, tenemos muestra aleatoria (X 1,..., X n ) y estimador T n = h n (X 1,..., X n ) Habitual: la sucesión de estimadores (T n ) se obtiene con funciones h n que tienen la misma forma (promedio, máximo, etc.): h n (x 1, x 2,..., x n ) = 1 n n j=1 x j; h n (x 1, x 2,..., x n ) = max(x 1, x 2,..., x n );... Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

3 Decimos que una sucesión (T n ) de estimadores de un parámetro θ (donde cada T n es una función de (X 1,..., X n )) es consistente cuando lim P θ( T n θ ε) = 0, para todo ε > 0. n Es decir, cuando para n grande, la probabilidad de que T n yerre siquiera ε del verdadero valor θ sea casi nula. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

4 Criterio habitual: Lema 1 Sea (T n ) n 1 una sucesión de estimadores insesgados de θ tales que lim V θ(t n ) = 0. n Entonces la sucesión (T n ) n 1 es consistente. Demostración. Como E θ (T n ) = θ, por la desigualdad de Chebyshev tenemos, para ε > 0 dado, que P θ ( T n θ ε) V θ(t n ) ε 2 n 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

5 Lema 2 Sea (T n ) n 1 una sucesión de estimadores de θ tales que lim ECM θ(t n ) = 0. n Entonces la sucesión (T n ) n 1 es consistente. Demostración. Por la desigualdad de Markov tenemos, para ε > 0 dado, que P θ ( T n θ ε) E θ( T n θ ) Eθ ((T n θ) 2 ) ε ε ECM(Tn ) n = 0. ε donde la segunda desigualdad es consecuencia de la de Cauchy-Schwarz. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

6 Ejemplo 1. X y S 2 como estimadores consistentes, respectivamente, de E(X ) y de V(X ). Para indicar la dependencia en el tamaño de la muestra, escribiremos X (n) y S 2 (n) Sabemos que, para cualquier n, X (n) es estimador insesgado de E(X ) y además que V(X (n) ) = V(X ). n Así que X (n) es una sucesión consistente de estimadores de E(X ). Esto requiere, por supuesto, que E(X 2 ) < +. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

7 Análogamente para S 2 (n), pues E(S 2 (n) ) = V(X ) y V(S 2 (n) ) E[ (X E(X )) 4] n con la hipótesis de que E(X 4 ) < +. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

8 Ejemplo 2. El estimador T n = n+1 n max(x 1, X 2,..., X n ) del parámetro a de Unif[0, a]. Como ya sabemos, y V a (M n ) = E a (M n ) = a 1 n(n + 2) a2. Ejemplo 3. Estimamos E(X ) con T n = X (n) + 1 n. No son estimadores insesgados, pues E(T n ) = E(X ) + 1/n, pero sí son consistentes, pues V(T n ) = V(X )/n y el sesgo 1/n tiende a 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

9 Distribución exacta/aproximada de T n En ocasiones, podemos determinar la distribución de T n, lo que permitirá obtener cotas de P θ ( T n θ ε) mucho mejores que las dadas, por ejemplo, por la desigualdad de Chebyshev, precisando así mucho más la confianza en las estimaciones de sucesiones de estimadores consistentes. Veremos algunos ejemplos en que podremos calcular expĺıcitamente la distribución del estimador; cómo utilizar el teorema del ĺımite central para obtener la distribución aproximada del estimador X ; cómo utilizar el teorema del ĺımite central para obtener la distribución aproximada de estimadores que dependan de X ; Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

10 a) Distribución exacta Ejemplo 1. Sea X N (µ, σ 2 ). Sabemos que X (n) N (µ, σ 2 /n). La desigualdad de Chebyshev daría: P( X (n) µ ε) V(X ) ε 2 = σ2 nε 2. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

11 Pero también ( X (n) µ P( X (n) µ ε) = P σ/ n ε ) ( σ/ = 2 1 Φ n ( nε σ )). Usando la estimación 1 Φ(x) φ(x) x, para x > 0, de la cola de la normal estándar, deducimos: P( X (n) µ ε) 2σ ε 1 e nε2 /σ 2. n 2π Comparación: pongamos que σ = 1 y tomemos ε = 1/n 1/4. Tendríamos 2 π n1/4 e n vs 1 n. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

12 Ejemplo 2. Sea X N (µ, σ 2 ). Sabemos que (n 1)S 2 (n) /σ2 χ 2 n 1. Así que ( P( S(n) 2 (n 1)S 2 σ2 (n) ε) = P σ 2 (n 1) ( ( = P χ 2 n 1 > (n 1) ( 1 + ε σ 2 ) ) + P Una expresión exacta, en términos de percentiles de χ 2 n 1. ε(n 1) ) σ 2 χ 2 n 1 < (n 1) ( 1 ε ) ) σ 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

13 Ejemplo 3. Sea X unif[0, a]. El estimador es Como E a (M n ) = no). Conocemos su distribución: M n = max(x 1, X 2,..., X n ). n n+1 a, el estimador es sesgado (aunque asintóticamente, P a ( M n a ε) = P a (M n a ε) = ( 1 ε a) n. Así que M n no sólo es consistente, sino que además la probabilidad de error de estimación converge exponencialmente a 0. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

14 Pero más interesante, si cambiamos la escala del error y consideramos P a ( M n a (aε/n)) = ( 1 ε/n ) n n e ε Esto nos dice que n a (a M n) converge en distribución a exp(1). Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

15 b) Aproximación normal: el teorema del ĺımite central Recordemos que el teorema del ĺımite central (TLC) afirma que para una variable Z n que sea suma (o promedio) de n variables iid (con varianza finita), la versión tipificada de Z n converge en distribución a la normal estándar. Aplicación básica. Media muestral X como estimador de E(X ) para una variable general con E(X 2 ) < +. Si X tiene E(X ) = µ y V(X ) = σ 2, entonces n(x µ) converge en distribución a N (0, σ 2 ), Así que, para n grande, P( X µ ε) = P( n (X µ) nε) 2 ( 1 Φ( nε/σ) ). En el caso en el que X sea normal, el es un =. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

16 Un ejemplo adicional. Cuasivarianza muestral S 2 como estimador de σ 2 para una variable N (µ, σ 2 ). Una χ 2 n 1 es una suma de n 1 variables idénticas e independientes (cuadrados de normales estándar). Su esperanza es n 1 y su varianza 2(n 1). Por el teorema del ĺımite central tenemos que (n 1)S 2 (n) σ 2 (n 1) 2(n 1) converge en distribución a N (0, 1). Esto nos daría que, para n grande, ( P( S(n) 2 σ2 ε) 2 1 Φ ( ε n 1) ). 2 σ 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

17 c) El método delta Con frecuencia, el estadístico T n para estimar un cierto parámetro es una cierta función de X, por ejemplo, 1/X. O de X 2, como X 2. Teorema 3 (Método delta) Sea Z n una sucesión de variables aleatorias en un espacio (Ω, P) tal que n (Zn µ) converge en distribución a N (0, σ 2 ) Sea g una función continua en R, C 2 en un intervalo que contiene a µ y tal que g (µ) 0. Entonces n (g(zn ) g(µ)) converge en distribución a N (0, g (µ) 2 σ 2 ) Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

18 (Idea de la) demostración. Se tiene que n (Zn µ) σy, donde Y normal estándar. Obviemos. Así Z n = µ + σ n Y. Obsérvese que Z n será proximo a µ para n grande. Por otro lado, g(x) g(µ) + g (µ)(x µ), si x próximo a µ. Obviemos. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

19 Combinando, tenemos que g(z n ) = g(µ) + g (µ) (Z n µ) = g(µ) + g (µ)σ n Y. Es decir, n (g(zn ) g(µ)) = g (µ) σ Y. Es decir, como la normal estándar es simétrica, n (g(z n ) g(µ)) es una normal de media 0 y varianza g (µ) 2 σ 2. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

20 Ejemplo 1. Estimador 1/X del parámetro λ para X exp(λ). Recordemos que E λ (X ) = 1/λ y que V λ (X ) = 1/λ 2. Denotemos X (n) a la media muestral de tamaño n. Por el teorema del ĺımite central, n ( X (n) 1 λ) converge en distribución a N ( 0, 1 λ 2 ). Consideremos ahora g(x) = 1/x para x (0, + ). Obsérvese que Entonces, por el teorema 3, ( 1 ) n λ X (n) g (µ) 2 = g (1/λ) 2 = λ 4. converge en distribución a N ( 0, λ 2). Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

21 Ejemplo 2. X ber(p). Se tiene que E(X ) = p. Para estimar p, tomamos la media muestral X (n). El TLC nos dice que n ( X (n) p ) converge en distribución a N ( 0, p(1 p) ), Pero para estimar el parámetro q = p/(1 p) ( odds a favor ), tomaríamos X (n) 1 X (n) Consideramos g(x) = x/(1 x) para x (0, 1). Se tiene que g (p) = 1/(1 p) 2. Entonces ( X (n) n p ) 1 X (n) 1 p converge en distribución a ( p ) N 0, (1 p) 3, Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

22 Ahora queremos estimar el parámetro p(1 p) (la varianza). Usamos X (n) (1 X (n) ). Consideramos, en x (0, 1) para la que g (x) = 1 2x. g(x) = x(1 x) Esto nos da, si p 1/2, n ( X (n) (1 X (n) ) p(1 p)) d N ( 0, (1 2p) 2 p(1 p) ), Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

23 Pero, y si p = 1/2? En este caso, g (p) = 0. Teorema 4 (Método delta con g (µ) = 0) Sea Z n una sucesión de variables aleatorias en un espacio (Ω, P) tales que n(zn µ) converge en distribución a N (0, σ 2 ). Sea g una función continua en R, C 3 en un intervalo que contiene a µ y tal que g (µ) = 0, pero g (µ) 0. Entonces n (g(z n ) g(µ)) converge en distribución a g (µ)σ 2 2 χ 2 1 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

24 Demostración. Los = que siguen son en realidad. Primero, g(x) g(µ) = 1 2 g (µ)(x µ) 2 Además, Z n µ = σ n Y, con Y normal estándar. Concluimos que Es decir, g(z n ) g(µ) = 1 2 g (µ) σ2 n Y 2 n (g(z n ) g(µ)) = g (µ)σ 2 2 Y 2 Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

25 Para la función g(x) = x(1 x), tenemos que g (x) = 2. En el caso p = 1/2 tenemos E(X ) = 1/2 y V(X ) = 1/4. La conclusión, vía el teorema 4, es que, si p = 1/2, entonces ( ) n X (n) (1 X (n) ) p(1 p) converge en distribución a 1 4 χ2 1. Pablo Fernández Gallardo (UAM) Estadística I, November 4, / 25

Sumas/promedios de variables aleatorias

Sumas/promedios de variables aleatorias Sumas/promedios de variables aleatorias Dadas unas variables aleatorias X 1,..., X n, interesa considerar las variables S n = X i o bien Z n = 1 n X i. De las variables S n y Z n querremos calcular sus

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Probabilidades y Estadística

Probabilidades y Estadística Probabilidades y Estadística Profesor: Fernando Lema Auxiliares: Víctor Carmi - Abelino Jiménez Universidad de Chile Indice General 1 Indice General 1 Advertencias y Recomendaciones Tener presente siempre

Más detalles

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006

EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006 EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar

Más detalles

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM Inferencia Mauricio Olivares ITAM 19 de junio de 2015 Recuerda de nuestra clase anterior que m(x) = α + βx. Recuerda de nuestra clase anterior que m(x) = α + βx. Esta es una relación poblacional, no hay

Más detalles

Tema 2: Introducción a la Inferencia Estadística

Tema 2: Introducción a la Inferencia Estadística Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.

Más detalles

Capítulo 3. Estimación estadística de modelos probabilistas

Capítulo 3. Estimación estadística de modelos probabilistas Capítulo 3. Estimación estadística de modelos probabilistas 3.1. Muestreo aleatorio. 3.2. Estimación puntual. 3.3. Estimación por intervalos de confianza. 3.4. Contrastes de hipótesis. 3. Estimación estadística

Más detalles

Tema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2.

Tema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3 - Introducción 1 Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Muestreo e intervalos de confianza

Muestreo e intervalos de confianza Muestreo e intervalos de confianza Intervalo de confianza para la media (varianza desconocida) Intervalo de confinza para la varianza Grados en Biología y Biología sanitaria M. Marvá. Departamento de Física

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

5.3. Información y cota de Cramér Rao

5.3. Información y cota de Cramér Rao 5.3. Información y cota de Cramér Rao 39 5.3. Información y cota de Cramér Rao Es deseable disponer de estimadores con el menor error cuadrático medio posible, o alternativamente, de estimadores insesgados

Más detalles

INFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza

INFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Por este proceso es posible utilizar estadísticos calculados a partir de muestras para estimar los valores de los parámetros de

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

Tema 6. Estimación puntual

Tema 6. Estimación puntual 1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos

Más detalles

Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso)

Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Tema 1 (I) Estadística 2 Curso 08/09 Tema 1 (I) (Estadística 2) Inferencia estadística Curso 08/09 1 / 24 Inferencia estadística

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Variables aleatorias continuas y Teorema Central del Limite

Variables aleatorias continuas y Teorema Central del Limite Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R

Más detalles

Estadística I Tema 5: Introducción a la inferencia estadística

Estadística I Tema 5: Introducción a la inferencia estadística Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores

Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual

Más detalles

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios. ema El Modelo de Regresión Lineal con Regresores Aleatorios Introducción En este tema vamos a analizar las propiedades del modelo de regresión lineal con regresores aleatorios Suponer que los regresores

Más detalles

Función característica. Sean X e Y v.a. en (Ω,A,P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C

Función característica. Sean X e Y v.a. en (Ω,A,P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C Dada una variable aleatoria X, introduciremos la función caracteística de X, que se denotará φ X (t). El objetivo de los Teoremas que se enuncian a continuación es probar que X n D X φ Xn (t) φ X (t) t

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Tema 4: Estimación por intervalo (Intervalos de Confianza)

Tema 4: Estimación por intervalo (Intervalos de Confianza) Tema 4: Estimación por intervalo (Intervalos de Confianza (a partir del material de A. Jach (http://www.est.uc3m.es/ajach/ y A. Alonso (http://www.est.uc3m.es/amalonso/ 1 Planteamiento del problema: IC

Más detalles

Experimentos de Monte Carlo. Walter Sosa-Escudero

Experimentos de Monte Carlo. Walter Sosa-Escudero Introduccion Test de Breusch-Pagan de heterocedasticidad: LM = 1 2 SCE g,z χ 2 (p 1) g = residuos al cuadrado, z, variables explicativas de la heterocedasticidad. Esta es una aseveracion asintotica. Que

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Estimación. Introducción. Sea X la variable aleatoria poblacional con distribución de probabilidad f θ donde. es el parámetro poblacional desconocido

Estimación. Introducción. Sea X la variable aleatoria poblacional con distribución de probabilidad f θ donde. es el parámetro poblacional desconocido Tema : Introducción a la Teoría de la Estimación Introducción Sea X la variable aleatoria poblacional con distribución de probabilidad f θ (x), donde θ Θ es el parámetro poblacional desconocido Objetivo:

Más detalles

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población

BLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el

Más detalles

3 ESTIMACION. 3.1 Introducción

3 ESTIMACION. 3.1 Introducción 3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto

Más detalles

Intervalo para la media si se conoce la varianza

Intervalo para la media si se conoce la varianza 178 Bioestadística: Métodos y Aplicaciones nza para la media (caso general): Este se trata del caso con verdadero interés práctico. Por ejemplo sirve para estimar intervalos que contenga la media del colesterol

Más detalles

Aplicación de la distribución empírica: Tests de bondad de ajuste

Aplicación de la distribución empírica: Tests de bondad de ajuste Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida

Más detalles

Variables aleatorias. Utilizando el resultado anterior, vemos que

Variables aleatorias. Utilizando el resultado anterior, vemos que Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un

Más detalles

2.3. Análisis bayesiano para datos normales

2.3. Análisis bayesiano para datos normales 2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población

Más detalles

Tema 7: Ejercicios de Inferencia en una población Normal

Tema 7: Ejercicios de Inferencia en una población Normal Tema 7: s de Inferencia en una población Normal Bernardo D Auria Departamento de Estadística Universidad Carlos III de Madrid GRUPO 83 - INGENIERÍA INFORMÁTICA Otros I3 En una explotación minera las rocas

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 6 Teoremas ĺımite Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST. Tema

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid 6. Inferencia con muestras grandes 1 Tema 6: Inferencia con muestras grandes 1. Intervalos de confianza para μ con muestras grandes 2. Determinación del tamaño muestral 3. Introducción al contraste de

Más detalles

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice

Más detalles

Integral de Lebesgue

Integral de Lebesgue Integral de Lebesgue Problemas para examen n todos los problemas se supone que (, F, µ) es un espacio de medida. Integración de funciones simples positivas. La representación canónica de una función simple

Más detalles

Notas sobre convergencia y funciones generatrices

Notas sobre convergencia y funciones generatrices Notas sobre convergencia y funciones generatrices Universidad Carlos III de Madrid Abril 2013 Para modelar un fenómeno aleatorio que depende del tiempo, podemos considerar sucesiones de variables X 1,X

Más detalles

7. Inferencia Estadística. Métodos Estadísticos para la Mejora de la Calidad 1

7. Inferencia Estadística. Métodos Estadísticos para la Mejora de la Calidad 1 7. Inferencia Estadística Métodos Estadísticos para la Mejora de la Calidad 1 Tema 7: Inferencia Estadística 1. Intervalos de confianza para μ con muestras grandes 2. Introducción al contraste de hipótesis

Más detalles

Fundamentos para la inferencia. Estadística Prof. Tamara Burdisso

Fundamentos para la inferencia. Estadística Prof. Tamara Burdisso Fundamentos para la inferencia Estadística 018 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una

Más detalles

Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza

Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Curso: Métodos de Monte Carlo Unidad 2, Sesión 5: Cálculo de intervalos de confianza Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República,

Más detalles

Suficiencia y Completitud. Estimadores IMVU.

Suficiencia y Completitud. Estimadores IMVU. 1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución

Más detalles

Regresión Lineal Múltiple

Regresión Lineal Múltiple Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta

Más detalles

Estimación. Diseño Estadístico y Herramientas para la Calidad. Estimación. Estimación. Inferencia Estadística

Estimación. Diseño Estadístico y Herramientas para la Calidad. Estimación. Estimación. Inferencia Estadística Diseño Estadístico y Herramientas para la Calidad Estimación Epositor: Dr. Juan José Flores Romero juanf@umich.m http://lsc.fie.umich.m/~juan M. en Calidad Total y Competitividad Estimación Inferencia

Más detalles

Distribución Empírica

Distribución Empírica 1 Distribución Empírica X 1,...,X n i.i.d. X i F, X i P I A (X j (ω)) = { 1 Xj (ω) A 0 X j (ω) / A F n (x,ω) = 1 n P n (A,ω) = 1 n n i=1 n i=1 I (,x] (X j (ω)) = #{X j(ω) x} n I A (X j (ω)) = #{X j(ω)

Más detalles

Suficiencia y Completitud. Estimadores IMVU.

Suficiencia y Completitud. Estimadores IMVU. 1 Suficiencia y Completitud. Estimadores IMVU. Graciela Boente 1 1 Universidad de Buenos Aires and CONICET, Argentina 2 Definición X P θ con θ Θ. Se dice que T = t(x) es suficiente para θ si: la distribución

Más detalles

Tema 4: INFERENCIA ESTADÍSTICA - I

Tema 4: INFERENCIA ESTADÍSTICA - I Tema 4: INFERENCIA ESTADÍSTICA - I Intervalos de confianza para la media, muesras grandes, varianza conocida Biología sanitaria 2017/18. Universidad de Alcalá M. Marvá. Actualizado: 2018-03-20 Biología

Más detalles

Función característica. Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C.

Función característica. Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C. Función característica Sean X e Y v.a. en (Ω, A, P), Z = X + iy es una variable aleatoria compleja, es decir, Z : Ω C Z(w) =X(w)+i Y(w) w Ω La esperanza de Z se define: si E(X)

Más detalles

Folleto de Estadísticas. Teoría del 2do Parcial

Folleto de Estadísticas. Teoría del 2do Parcial Folleto de Estadísticas Teoría del 2do Parcial 2012 Variables aleatorias conjuntas continuas: Sean X y Y dos variables aleatorias continuas con ellas se asocia una función denominada función de densidad

Más detalles

6-1. Dos preguntas sobre 100 tiradas de dado

6-1. Dos preguntas sobre 100 tiradas de dado Semana 6 Esperanza y Varianza 6-1. Dos preguntas sobre 100 tiradas de dado 6-2. Esperanza 6-3. Propiedades básicas de la esperanza 6-4. Distancia esperada a la media 6-5. Varianza 6-6. Demostraciones 6-1.

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos

Más detalles

Tema 3: Estimación estadística de modelos probabilistas. (primera parte)

Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:

Más detalles

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos

Más detalles

Distribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides

Distribuciones Fundamentales de Muestreo. UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Fundamentales de Muestreo UCR ECCI CI-0115 Probabilidad y Estadística Prof. Kryscia Daviana Ramírez Benavides Distribuciones Muestrales La distribución de probabilidad de un estadístico

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA

Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA Typeset by FoilTEX 5.1 MÉTODO DE LA CANTIDAD PIVOTAL X

Más detalles

Estimaciones puntuales. Estadística II

Estimaciones puntuales. Estadística II Estimaciones puntuales Estadística II Estimación Podemos hacer dos tipos de estimaciones concernientes a una población: una estimación puntual y una estimación de intervalo. Una estimación puntual es un

Más detalles

2. Modelos con regresores endógenos

2. Modelos con regresores endógenos . Introducción ema 3. Regresores Endógenos. Bibliografía: Wooldridge, 5., 5.4 y 6.2 En este tema vamos a estudiar el modelo lineal con regresores potencialmente endógenos. Veremos primero las consecuencias

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION

INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 2005 SOLUCION INGENIERÍA INFORMÁTICA DE GESTIÓN Septiembre 005 SOLUCION 1.- Sea ( X,..., X ) una muestra aleatoria simple de una variable aleatoria X con 1 n E(X) µ y Var (X) k µ. Considérense los siguientes estimadores

Más detalles

Estimación Máxima Verosimilitud

Estimación Máxima Verosimilitud Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay

Más detalles

Cuál es el campo de estudio de la prueba de hipótesis?

Cuál es el campo de estudio de la prueba de hipótesis? ESTIMACIÓN Establecer generalizaciones acerca de una población a partir de una muestra es el campo de estudio de la inferencia estadística. La inferencia estadística se divide en estimación y prueba de

Más detalles

Inferencia Estadística

Inferencia Estadística Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características

Más detalles

Departamento de Matemáticas

Departamento de Matemáticas MA5 Clase : Series de números reales Definición de Serie Elaborado por los profesores Edgar Cabello y Marcos González Definicion Dada una sucesión de escalares (a n ), definimos su sucesión de sumas parciales

Más detalles

Estadística I Tema 7: Estimación por intervalos

Estadística I Tema 7: Estimación por intervalos Estadística I Tema 7: Estimación por intervalos Tema 7: Estimación por intervalos Ideas a transmitir Definición e interpretación frecuentista. Intervalos de confianza para medias y varianzas en poblaciones

Más detalles

Estadística Clase 3. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 3. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 010 Clase 3 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri 1. Pasos en un proceso estadístico 1. Plantear una hipótesis sobre una población.. Diseñar

Más detalles

TEMA 7. Estimación. Alicia Nieto Reyes BIOESTADÍSTICA. Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13

TEMA 7. Estimación. Alicia Nieto Reyes BIOESTADÍSTICA. Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13 TEMA 7. Estimación Alicia Nieto Reyes BIOESTADÍSTICA Alicia Nieto Reyes (BIOESTADÍSTICA) TEMA 7. Estimación 1 / 13 1 Estimación Puntual 1 Estimación por intervalos Estimación por intervalos de la Media

Más detalles

Movimiento Browniano o proceso de Wiener

Movimiento Browniano o proceso de Wiener 1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),

Más detalles

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Los estimadores mínimo cuadráticos bajo los supuestos clásicos Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni MCO bajo los supuestos clásicos 1

Más detalles

BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN

BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN Aproximación intutitiva a la inferencia estadística La Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes

Más detalles

Análisis Multivariante de Datos

Análisis Multivariante de Datos Análisis Multivariante de Datos Curso 2016-2017 Por qué es importante realizar inferencia sobre los parámetros de la normal? La estimación máximo-verosímil (MV) de la distribución Normal son la media y

Más detalles

PROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS

PROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS Estadística 1 PROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS 1. Obtener un estimador insesgado para p en una m.a.s. de tamaño n de una distribución binomial B(m,p) con m conocido y calcular su error

Más detalles

ESTADISTICA GENERAL. PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales

ESTADISTICA GENERAL. PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales ESTADISTICA GENERAL PRINCIPALES DISTRIBUCIONES CONTINUAS Profesor: Celso Celso Gonzales OBJETIVOS Describir las características de las distribuciones de probabilidad : Normal, Ji-cuadrado, t de student

Más detalles

Reglas de derivación Sumas, productos y cocientes. Tema 4

Reglas de derivación Sumas, productos y cocientes. Tema 4 Tema 4 Reglas de derivación Aclarado el concepto de derivada, su significado analítico y sus interpretaciones geométrica y física, pasamos a desarrollar las reglas básicas para el cálculo de derivadas

Más detalles

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1 . Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones

Más detalles

Estadística Clase 4. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 4. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 011 Clase 4 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 4 1. Pasos en un proceso estadístico. Inferencia Estadística 3. Estimación Puntual

Más detalles

Medidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez.

Medidas. Problemas para examen. Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Medidas Problemas para examen Estos problemas están redactados por Egor Maximenko y Breitner Arley Ocampo Gómez. Sigma-álgebras 1. Propiedades elementales de σ-álgebras. Demuestre que una σ-álgebra es

Más detalles

Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015

Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Soluciones Examen Final de Econometría Universidad Carlos III de Madrid 26 de Mayo de 2015 Conteste todas las preguntas en dos horas y media. Pregunta 1 (33 puntos: Un investigador está considerando las

Más detalles

Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA

Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Ateneo Ruperto P. Bonet Chaple UTB-Julio 2016 OBJETIVO Aplicar las técnicas de Muestreo e Inferencia Estadística Determinar el tamaño

Más detalles

Tema 8: Contraste de hipótesis

Tema 8: Contraste de hipótesis Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste

Más detalles

Estimación (puntual) de parámetros

Estimación (puntual) de parámetros Capítulo 5 Estimación (puntual) de parámetros 5.1. Generalidadessobreestimadores... 3 5.1.1. Dependencia de la función de densidad respecto de los parámetros... 4 5.1.2. Sesgodeunestimador.Estimadoresinsesgados...

Más detalles

Tema1. Modelo Lineal General.

Tema1. Modelo Lineal General. Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Un poco más general: si ahora S n está dada por la suma de variables independientes de la forma: S n =c 1 X 1 +... +c n X n, entonces la función generatriz viene dada por: Variables

Más detalles

TEMA 2: Propiedades de los estimadores MCO

TEMA 2: Propiedades de los estimadores MCO TEMA 2: Propiedades de los estimadores MCO Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 2: Pdades de los estimadores MCO Curso

Más detalles

Bootstrap. Patricia Kisbye. 13 de mayo, FaMAF

Bootstrap. Patricia Kisbye. 13 de mayo, FaMAF Bootstrap Patricia Kisbye FaMAF 13 de mayo, 2010 Técnica de bootstrap La técnica de Bootstrap fue introducida por B. Efron, 1982. Consiste en aproximar la precisión de un estimador a partir de una muestra

Más detalles

sup si A no es acotado.

sup si A no es acotado. Capítulo 5 Teoría de Baire 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y la

Más detalles