ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

Tamaño: px
Comenzar la demostración a partir de la página:

Download "ESTADÍSTICA I Tema 3: Estimación puntual paramétrica"

Transcripción

1 ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud La información de Fisher. Estimadores eficientes. Eficiencia asintótica de los e.m.v. Construcción de estimadores: el método de los momentos La metodología bayesiana Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 1

2 Planteamiento del problema Se supone que la muestra X 1,..., X n está tomada de una distribución absolutamente continua (resp. discreta) con función de densidad (resp. con función de probabilidad) f (.; θ) que es totalmente conocida excepto por el valor de un parámetro θ del cual se conoce sólo su rango de posibles valores, denotado por Θ (Antonio utiliza también la notación T). El conjunto Θ recibe el nombre de espacio paramétrico. En lo sucesivo, a menos que se advierta lo contrario, supondremos que Θ R, aunque una parte importante de los conceptos y de los resultados se aplica también al caso Θ R k. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 2

3 El problema consiste en estimar (o aproximar) el valor desconocido de θ. Esto se hace mediante un estimador que es una función medible T n (X 1,..., X n ) (o, más bien, una sucesión {T n } de funciones medibles) de los valores muestrales. Se trata por tanto de determinar qué se entiende por una buena estimación; estudiar las propiedades de estos estimadores; ofrecer algún procedimiento general para construir estimadores; mostrar algunos ejemplos de especial interés. En términos muy generales, los puntos anteriores constituyen el objeto de la estimación paramétrica. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 3

4 Estimadores Sean X 1,..., X n v.a.i.i.d. con distribución común caracterizada por la función de densidad (resp. de masa) f ( ; θ), donde θ es un parámetro desconocido, del que sólo se sabe que pertenece al espacio paramétrico Θ R. Un estimador es una función medible T n (X 1,..., X n ) que se utiliza para estimar o aproximar el valor de θ (es frecuente utilizar también la notación ˆθ n para denotar un estimador de θ). Es habitual definir los estimadores para todos los posibles valores de n. En este caso, la sucesión {T n } se suele llamar también, con abuso de de notación, estimador. Por tanto, los estimadores son v.a. y tiene sentido hablar de su media, su varianza, su distribución, etc. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 4

5 La calidad de un estimador se evalúa mediante su error cuadrático medio ECM(T n ) = E[(T n θ) 2 ] Obsérvese que esta expresión en general depende de θ. Para enfatizar esto a veces se denota ECM θ (T n ). Sumando y restando E(T n ) es inmediato ver que es decir, ECM(T n ) = E[(T n E(T n )) 2 ] + (E(T n ) θ) 2 ECM(T n ) = Varianza de T n + (Sesgo de T n ) 2 Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 5

6 Propiedades interesantes de los estimadores: Ausencia de sesgo: Se dice que un estimador T n es insesgado si, siempre que X i f (.; θ), se tiene que E θ (T n ) = θ, θ Θ. Ejemplo: X es estimador insesgado de µ = E(X ). S 2 = 1 n 1 n (X i X ) 2 (cuasi-varianza muestral) es estimador insesgado de σ 2 = V(X ). En cambio, ˆσ 2 = 1 n (X i X ) 2 n es estimador sesgado. i=1 i=1 Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 6

7 Consistencia: Se dice que {T n } := {T n (X 1,..., X n )} es consistente en probabilidad si, siempre que X i f (.; θ), T n P θ, θ Θ P Si se reemplaza por, c.s. se obtiene la consistencia fuerte (o casi segura). Teorema de la aplicación continua.- Sea g : R R continua en todo punto de un conjunto C tal que P{X C} = 1. (i) Si X n d X, entonces g(x d n) g(x ). n n P (ii) Si X n X, entonces g(x P n) g(x ). n n c.s. (iii) Si X n X, entonces g(x c.s. n) g(x ). n n Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 7

8 Cómo demostrar fácilmente la consistencia? Mediante la ley de los grandes números: Si g : R R es continua entonces, T n = g( X ) es estimador consistente c.s. de θ = g(µ). La consistencia en probabilidad se puede intentar probar usando la desigualdad de Markov: y, por tanto, P{ T n θ > ɛ} E T n θ ɛ P{ T n θ > ɛ} E[(T n θ) 2 ] ɛ 2 E T n θ 0 T n E[(T n θ) 2 ] 0 T n P θ P θ. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 8

9 c.s Respecto a la consistencia c.s recordemos que T n θ si y solo si P{ω Ω : lim T n(x 1 (ω),..., X n (ω)) = θ} = 1. (1) n Esta condición es, en general, difícil de comprobar directamente. Por ello, es habitual utilizar condiciones suficientes. Por ejemplo, c.s. una condición suficiente para que T n θ es la condición de n Borel-Cantelli P{ T n θ > ɛ} <, ɛ > 0. (2) n=1 Por la desigualdad de Markov, (2) puede establecerse a su vez usando alguna de las condiciones suficientes E T n θ < o bien n=1 E[(T n θ) 2 ] <. n=1 Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 9

10 Ejercicio: Sean X 1,..., X n v.a.i.i.d. con distribución uniforme en el intervalo [0, θ], θ > 0. Estudiar la consistencia de los siguientes estimadores de θ: a) T n = 2 X b) T n = X (n) = max{x 1,..., X n }. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 10

11 Normalidad asintótica: Se dice que una sucesión de estimadores {T n } del parámetro θ es asintóticamente normal (con tasa n) si se verifica d n(tn θ) N(0, σ(θ)), (3) n donde σ 2 (θ) es una cierta función del parámetro θ denominada varianza asintótica del estimador. La propiedad (3) es muy útil para obtener una idea más precisa del error cometido en la estimación ya que permite hacer cálculos aproximados del tipo P{ T n θ < c} = P{ n T n θ < nc} ( ) ( ) c Φ σ(θ)/ c Φ n σ(θ)/ n Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 11

12 Cómo se puede probar en la práctica la normalidad asintótica? Por el TCL sabemos que n( X µ) d N(0, σ). n Supongamos que T n = g( X ), siendo g : R R función derivable con derivada continua. Se tiene entonces n(g( X ) g(µ)) d N(0, g (µ) σ). n Este resultado se llama método delta y es consecuencia casi inmediata del teorema del valor medio y de las propiedades elementales de la convergencia en distribución. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 12

13 Una observación sobre la normalidad asintótica: En general, también se habla de normalidad asintótica (con tasa {a n }) cuando se verifica un resultado del tipo a n (T n θ) d N(0, σ(θ)), (4) n donde 0 < a n es una sucesión de constantes. Tiene especial importancia el caso a n = n porque es el que aparece en el Teorema Central del Límite. Sin embargo, en muy diversos problemas estadísticos se obtiene normalidad asintótica con sucesiones a n diferentes. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 13

14 Construcción de estimadores Planteamiento: En lo que sigue suponemos que la muestra X 1,..., X n está formada por v.a.i.i.d. cuya distribución tiene una función de densidad o de masa f ( ; θ 0 ) perteneciente a una familia {f ( ; θ) : θ Θ}. El verdadero valor del parámetro se denota por θ 0 y la letra θ designa un valor genérico de este parámetro. Habitualmente θ 0 es desconocido y nuestro objetivo es definir un método general para estimarlo. En el resto de este tema la expresión función de densidad deberá entenderse en sentido amplio para incluir también a las funciones de probabilidad de las variables discretas. Parametrización adecuada: Suponemos también que se cumple (MV0) Las distribuciones correspondientes a f ( ; θ) son distintas para diferentes valores de θ Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 14

15 El método de máxima verosimilitud Dada una muestra fija x 1,..., x n, llamamos función de verosimilitud (likelihood function) a L n (θ; x 1,..., x n ) := L n (θ) = n f (x i ; θ). i=1 Denominamos estimador de máxima verosimilitud (EMV, maximum likelihood estimator, MLE) a ˆθ n = ˆθ n (x 1,..., x n ) = arg max L n (θ; x 1,..., x n ), (5) θ Θ cuando este máximo está bien definido. También se puede utilizar log L n en lugar de L n en la expresión (5), ya que el logaritmo es una función creciente. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 15

16 Cálculo efectivo del EMV: Típicamente ˆθ n se obtiene como solución de la ecuación de verosimilitud Ejemplos: θ log L n = θ n log f (θ; x i ) = 0. i=1 Para la distribución de Poisson de parámetro λ, ˆλ n = x. Para la exponencial de parámetro θ, ˆθ n = x Para la normal N(µ, σ), ˆµ n = x, ˆσ 2 n = n i=1 (x i x) 2 /n. Para otras distribuciones, como la gamma o la Weibull, los e.m.v. de los parámetros existen pero no hay expresiones cerradas para ellos (aparecen como soluciones únicas de ciertas ecuaciones). Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 16

17 Motivación del método de m.v.: Por la L.G.N., 1 n log L n(θ) c.s. Ψ(θ) := E θ0 [log f (X ; θ)] = log f (x; θ)f (x; θ 0 )dx. Teorema 1.- Sea X f ( ; θ 0 ). Supongamos que (MV0) Se verifica la condición de buena parametrización. (MV1) Las distribuciones f ( ; θ) tienen un soporte común. (MV2) Ψ(θ) es finita para todo θ Θ. Entonces θ 0 es el único máximo de la función Ψ(θ) y además P θ0 {L n (θ 0 ; X 1,..., X n ) > L n (θ; X 1,..., X n )} n 1, θ θ 0. La demostración del teorema se hará en clase. Ver también: Lehmann & Casella (1998). Theory of Point Estimation. Springer. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 17

18 Consistencia de los estimadores de m.v.: Teorema 2.- Supongamos que se verifican las condiciones del Teorema 1 y además (MV3) El espacio paramétrico Θ es un intervalo abierto (no necesariamente finito) y, para casi todo x, f (x; θ) es diferenciable respecto a θ con derivada continua. Entonces, con probabilidad tendiendo a 1, la ecuación θ log L n(θ; X 1,..., X n ) = 0 (6) P tiene una raíz ˆθ n = ˆθ n (x 1,..., x n ) tal que ˆθ n (X 1,..., X n ) θ 0. Si además suponemos que la raíz de (6) es única se tiene que ˆθ n maximiza la verosimilitud L n y, por tanto, es el estimador de máxima verosimilitud. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 18

19 La información de Fisher I (θ) y su significado En la discusión que sigue suponemos que en la integral f (x; θ)dx se puede derivar dos veces bajo el signo integral. Entonces f (x; θ)dx = 1 f (x; θ)dx = 0. θ Por tanto, θ (log f (x; θ))f (x; θ)dx = E θ[ log f (X ; θ)] = 0 θ y también (comprobarlo) [ ] [ ( ) ] 2 E θ 2 log f (X ; θ) = E θ2 θ θ log f (X ; θ). Si esta última cantidad es finita se denota por I (θ) y se denomina información de Fisher. Representa intuitivamente la cantidad de información acerca del valor del parámetro θ contenida en una observación de la v.a. X. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 19

20 Según esto, la v.a. Z = n i=1 θ log f (X i; θ) satisface E θ (Z) = 0, V θ (Z) = n I (θ). Sea ahora T n = T n (X 1,..., X n ) un estimador insesgado de θ. Comprobemos que Cov θ (Z, T n ) = 1, lo que, en este caso, equivale a E θ (ZT n ) = 1. En efecto, E θ (ZT n ) =... T n (x 1,..., x n ) [ n i=1 θ f (x i; θ) f (x i ; θ) ] n f (x j, θ)dx j j=1 Pero [ n i=1 θ f (x i; θ) f (x i ; θ) ] n f (x j, θ) = θ j=1 n f (x j, θ) i=1 Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 20

21 Por tanto, Cov θ (Z, T n ) = = θ T n (x 1,..., x n ) θ T n (x 1,..., x n ) = θ E θ(t n ) = θ θ = 1. n f (x i, θ)dx i i=1 n f (x i, θ)dx i i=1 Por otra parte, la desigualdad de Cauchy-Schwartz establece que Cov 2 θ (Z, T n) V θ (Z)V θ (T n ) es decir, V θ (T n ) 1 n I (θ). Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 21

22 En definitiva, hemos probado que Supuesto que todas las integrales anteriores son finitas, que existen las derivadas utilizadas en los cálculos y que se dan las condiciones que permiten intercambiar las derivadas y las integrales, se verifica que para cualquier estimador insesgado de θ, T n, V θ (T n ) 1 n I (θ) 1 La expresión n I (θ) se denomina cota de Fréchet-Cramér-Rao. Los estimadores (insesgados) cuya varianza coincide con el valor de esta cota se denominan eficientes. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 22

23 Eficiencia asintótica de los e.m.v. Teorema 3.- Supongamos que se verifican las condiciones (MV0)-(MV3) y además (MV4) La integral f (x; θ)dx se puede derivar dos veces bajo el signo integral. (MV5) Para cada x la densidad f (x; θ) es tres veces diferenciable con respecto a θ, con la tercera derivada continua en θ. (MV6) 0 < I (θ 0 ) < (MV7) Para cada θ 0 Θ existen un número c > 0 y una función M(x) (que pueden depender de θ 0 ) tales que E θ0 [M(X )] < y 3 log f θ 3 (x; θ) M(x), x, θ (θ 0 c, θ 0 + c). Entonces, si ˆθ n (X 1,..., X n ) es cualquier sucesión consistente de soluciones de las ecuaciones de verosimilitud, se verifica n(ˆθn θ 0 ) d N ( 0, 1 I (θ0 ) ). Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 23

24 Demostración del Teorema 3: Denotemos Ψ n (θ) := n log f (X i ; θ) i=1 Ψ n = ( / θ) Ψ n f = ( / θ)f. Recordemos que Ψ n (θ) depende de la muestra. Para cada muestra fija se tiene Ψ n(ˆθ n ) = Ψ n(θ 0 ) + (ˆθ n θ 0 ) Ψ n (θ 0 ) (ˆθ n θ 0 ) 2 Ψ n (θn), para algún θ n entre ˆθ n y θ 0. Como el primer miembro es 0, resulta n(ˆθn θ 0 ) = (1/ n) Ψ n(θ 0 ) (1/n) Ψ n (θ 0 ) (1/2n)(ˆθ n θ 0 ) Ψ n (θn) (7) Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 24

25 Demostración del Teorema 3 (cont.): La idea clave de la demostración es: Paso 1 Probar que el numerador de (7) tiende en distribución a una N(0, I (θ 0 )) (recordemos que, en nuestra notación, el segundo parámetro de la normal denota la desv. típica, no la varianza). Paso 2 Probar que el primer término del denominador de (7) tiende en probabilidad a I (θ 0 ). Paso 3 Probar que el segundo término del denominador de (7) tiende en probabilidad a 0. Paso 4 A partir de aquí el resultado es inmediato ya que, como consecuencia del Teorema de Slutsky, d n(ˆθn θ 0 ) 1 I (θ 0 ) N(0, ( ) 1 I (θ 0 )) = N 0,. I (θ0 ) Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 25

26 Demostración del Teorema 3 (cont.): Paso 1: 1 Ψ n n (θ 0 ) = n 1 n [ f ( (X i ; θ 0 ) f )] n f (X i ; θ 0 ) E (X i ; θ 0 ) θ 0, f (X i ; θ 0 ) i=1 ( ) Como E f (X i ;θ 0) θ0 f (X i ;θ 0) = 0, la aplicación del TCL (a las variables Y i = f (X i ;θ 0) f (X i ;θ ) y la definición de I (θ 0) 0) proporcionan directamente Paso 2: 1 n (1/ n) Ψ n(θ 0 ) Ψ n (θ 0 ) = 1 n Por la LGN esto tiende en probabilidad a d N(0, I (θ 0 )). f 2 (X i ; θ 0 ) f (X i ; θ 0 )f (X i ; θ 0 ) f 2. (X i ; θ 0 ) I (θ 0 ) E θ0 ( f (X i ; θ 0 ) f (X i ; θ 0 ) ) = I (θ 0 ) Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 26

27 Demostración del Teorema 3 (cont.): Paso 3: Por último, 1 Ψ n (θ) = 1 3 n n θ 3 log f (X i; θ), de modo que 1 Ψ n (θ ) n < 1 n M(X i ) n i=1 con probabilidad tendiendo a 1. Por tanto 1 n Ψ n (θ) está acotado en probabilidad ya que el segundo miembro de la desigualdad anterior tiende P a E θ0 [M(X )]. En definitiva, como ˆθ n θ0, se deduce (1/2n)(ˆθ n θ 0 ) Ψ n (θn) P 0, lo que concluye la prueba del Paso 3 y del teorema. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 27

28 El método de los momentos Sea X f ( ; θ), donde θ = (θ 1,..., θ p ) es un parámetro p-dimensional (p 1). Si los momentos α k (θ) := E θ (X k ), k = 1,..., p, son funciones sencillas de los θ i, un procedimiento natural para obtener un estimador de θ, es resolver en θ 1,..., θ p el sistema de ecuaciones m 1 = α 1 (θ),..., m p = α p (θ), n i=1 X k i n. donde m k es el momento muestral de orden k, m k = La idea es estimar el parámetro como aquel valor de θ que hace que los momentos poblacionales (tantos como componentes tenga θ) coincidan con los correspondientes momentos muestrales. En general, si θ 0 es el verdadero valor del parámetro, NO sucederá que m k = α k (θ 0 ) (de hecho, m k es aleatorio) pero, por la ley de los grandes números, m k α k (θ 0 ) cuando n. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 28

29 La principal ventaja del método de los momentos es que proporciona estimadores con expresión sencilla en algunos casos en los que el e.m.v. no se puede obtener en forma cerrada (porque aparece la solución de una ecuación complicada). Esto sucede, por ejemplo, en la estimación de los parámetros a y p en la distribución gamma. En los ejercicios se pueden encontrar más ejemplos. En general, el método de m.v. proporciona estimadores mejores (con menor error) que el de los momentos, aunque en algunos casos importantes ambos métodos llevan al mismo estimador. También puede plantearse el método de los momentos (en el caso k = 2) definiendo el estimador como solución de las ecuaciones E θ (X ) = X, V θ (X ) = s 2, es decir, usando la varianza en lugar del momento de orden 2, E θ (X 2 ). Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 29

30 Ejemplos del método de los momentos: Si se tiene el modelo f (x; θ) = 1 + θx 2 1 [ 1,1] (x), θ [ 1, 1] no es sencillo calcular el e.m.v., pero sí obtener el estimador por el método de los momentos: E θ (X ) = 1 1 xf (x; θ)dx = θ 3 Por tanto, la solución de X = E θ (X ) es θ n = 3 X, cuya varianza es V θ ( θ n ) = V θ (3 X ) = 9 σ2 n = 3 θ2 n ya que σ 2 = V θ (X ) = E θ (X 2 ) (E θ (X )) 2 = 1 3 θ2 9. Este c.s. estimador es consistente ya que, por la LGN, 3 X 3E θ (X ) = θ. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 30

31 Si X Beta(a, b), f (x; a, b) = Γ(a + b) Γ(a)Γ(b) x a 1 (1 x) b 1 1 [0,1] (x). E θ (X ) = = 1 0 Γ(a + b) Γ(a) Γ(a + b) Γ(a)Γ(b) x a (1 x) b 1 dx Γ(a + 1) Γ(a + b + 1) V θ (X ) = 1 0 Γ(a + b + 1) Γ(a + 1)Γ(b) x a (1 x) b 1 dx = ab (a + b) 2 (a + b + 1) Los estimadores por el método de los momentos son: ( ) ( ) X (1 X ) X (1 X ) â = X s 2 1, ˆb = (1 X ) s 2 1. a a + b Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 31

32 La metodología bayesiana: ideas básicas La distribución a priori En muchos casos se tiene cierta información a priori (es decir, antes de extraer la muestra) sobre la probabilidad (entendida como grado de creencia subjetiva ) de los diferentes valores del parámetro θ. En estos casos se sabe, o se supone, que ciertos intervalos de valores de θ son más probables que otros y se concreta esta información en una distribución a priori sobre θ cuya función de densidad se denota π(θ). Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 32

33 La función de verosimilitud Formalmente, este planteamiento equivale a considerar el parámetro θ como una variable aleatoria con distribución conocida. En consecuencia, la densidad f (x; θ) con la que se generan los datos puede considerarse como la densidad condicionada de la v.a. X dado el valor θ de la v.a. parámetro. Por este motivo se suele emplear la notación f (x θ) en lugar de f (x; θ). Del mismo modo, la función de verosimilitud L n (x 1,..., x n ; θ) = n i=1 f (x i θ) puede interpretarse (cuando se considera como función de (x 1,..., x n ) para cada θ fijo) como la densidad de la v.a. vectorial (X 1,..., X n ), condicionada al valor θ del parámetro. Por este motivo, suele denotarse (con cierto abuso de notación), n f (x 1,..., x n θ) := f (x i ; θ). i=1 Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 33

34 La distribución a posteriori Esencialmente, la idea metodología bayesiana consiste en combinar la información a priori (recogida en π(θ)) con la información muestral y la del modelo (recogidas en la verosimilitud). Esto se consigue aplicando la fórmula de Bayes para obtener la distribución a posteriori, definida por la siguiente función de densidad en Θ f (x 1,..., x n θ)π(θ) π(θ x 1,..., x n ) = Θ f (x 1,..., x n θ)π(θ)dθ La densidad a posteriori (8) recoge toda la información disponible sobre el parámetro y es la base de todos los procedimientos de inferencia en la metodología bayesiana. (8) Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 34

35 El cálculo de π(θ x 1,..., x n ) puede ser complicado a veces, pero en muchos casos se simplifica recordando que π(θ x 1,..., x n ) debe ser una función de densidad en θ y, por tanto, debe integrar 1. Esto significa que la integral que aparece en el denominador de (8) puede ser considerada como una constante (en el sentido de que no depende de θ) y esta es justamente la constante necesaria para que la integral en θ de π(θ x 1,..., x n ) sea 1. Por tanto, en algunos ejemplos importantes, no es necesario calcular esa integral, siempre que, a partir del numerador de (8), se pueda identificar el tipo de distribución al que corresponde π(θ x 1,..., x n ). Por ejemplo, si el numerador de la fórmula de Bayes (8) es, salvo constantes multiplicativas, de la forma θ p 1 e aθ, entonces no es necesario calcular la integral del denominador porque ya podemos asegurar que π(θ x 1,..., x n ) es una densidad gamma de parámetros a y p. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 35

36 Ejemplo: En un problema de la relación 3, θ es la proporción de votantes de un partido (P). Sea X la v.a. Bernoulli que toma valor 1 cuando un votante elige el partido P y 0 en caso contrario: f (x θ) = θ para x = 1, f (x θ) = 1 θ para x = 0. Entonces tenemos que f (x 1,..., x n θ) = n i=1 f (x i θ) = θ n i=1 x i (1 θ) n n i=1 x i. Suponemos que la distribución a priori es una Beta(4,10): π(θ) = Γ(14) Γ(4)Γ(10) θ3 (1 θ) 9 1 [0,1] (θ). Así pues, aplicando la fórmula de Bayes (8), tenemos (usando aquí el signo para indicar proporcional a ): π(θ x 1,..., x n ) θ x i (1 θ) n x i θ 3 (1 θ) 9 = θ 3+ x i (1 θ) 9+n x i, densidad que corresponde a una beta de parámetros a = 4 + x i, b = 10 + n x i. Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 36

37 Estimadores Bayes El estimador Bayes se define, para cada muestra dada (x 1,..., x n ), como la esperanza de la distribución a posteriori T n (x 1,..., x n ) = θπ(θ x 1,..., x n )dθ. Θ Ejemplo (cont.): Hemos visto que π(θ x 1,..., x n ) tiene distribución Beta(a = 4 + x i, b = 10 + n x i ). Por tanto el estimador Bayes es T n = 4 + x i 14 + n = ( n n ) ( ) x n Es sencillo comprobar que en este caso el emv coincide con el estimador basado en el método de los momentos, ˆθ n = x. En la muestra concreta que tenemos x i = 125 y n = 1000, luego T n = = , ˆθ n = = Estadística I (Mat/DG). Profesora: Amparo Baíllo Tema 3: Estimación puntual 37

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Introducción a la Inferencia Estadística

Introducción a la Inferencia Estadística MÁSTER EN ESTADÍSTICA PÚBLICA Experto Universitario: Estadística Aplicada y Técnicas de Encuestación 1 Introducción a la Inferencia Estadística Estimación puntual paramétrica M a Teresa Gómez Departamento

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.

ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que

Más detalles

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio

Más detalles

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith) INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que

Más detalles

Definición Una hipótesis es una afirmación acerca de un parámetro.

Definición Una hipótesis es una afirmación acerca de un parámetro. Capítulo 8 Prueba de hipótesis Existen dos áreas de interés en el proceso de inferencia estadística: la estimación puntual y las pruebas de hipótesis. En este capítulo se presentan algunos métodos para

Más detalles

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE Estudiamos algunos ejemplos de distribuciones de variables aleatorias continuas. De ellas merecen especial mención las derivadas de la distribución normal (χ, t de Student y F de Snedecor), por su importancia

Más detalles

TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07

TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07 TEMA 2: Estimadores y distribuciones en el muestreo 1) Introducción 2) Tipos de muestreos 3) Estadísticos INDICE 4) Estimadores y propiedades 5) Distribución muestral 6) Teorema Central del Límite 7) Distribuciones

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Tema 8: Contraste de hipótesis

Tema 8: Contraste de hipótesis Tema 8: Contraste de hipótesis 1 En este tema: Conceptos fundamentales: hipótesis nula y alternativa, nivel de significación, error de tipo I y tipo II, p-valor. Contraste de hipótesis e IC. Contraste

Más detalles

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA 1. Introducción Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA Los análisis económicos y empresariales se efectúan sobre la base de la toma de decisiones, las cuales se toman a partir de la información

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis Facultad de Ciencias Sociales, UdelaR Índice 1. Introducción: hipótesis estadística, tipos de hipótesis, prueba de hipótesis 2.

Más detalles

INFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez

INFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez INFERENCIA ESTADÍSTICA Notas de clase Profesores: A. Leonardo Bañuelos S. Naelli Manzanarez Gómez TEMA II ESTIMACIÓN PUNTUAL DE PARÁMETROS POBLACIONALES La estimación puntual de un parámetro relativo a

Más detalles

Muestreo de variables aleatorias

Muestreo de variables aleatorias Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 Distribución de la muestra 3 4 5 Distribuciones de la media y la varianza en poblaciones normales Introducción Tiene como

Más detalles

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la estimación mediante Intervalos de Confianza, que es otro de los tres grandes

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios. ema El Modelo de Regresión Lineal con Regresores Aleatorios Introducción En este tema vamos a analizar las propiedades del modelo de regresión lineal con regresores aleatorios Suponer que los regresores

Más detalles

Estimador de Máxima Verosimilitud

Estimador de Máxima Verosimilitud Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de

Más detalles

8. Estimación puntual

8. Estimación puntual 8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona

Kolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona Kolmogorov y la teoría de la la probabilidad David Nualart Academia de Ciencias y Universidad de Barcelona 1 La axiomatización del cálculo de probabilidades A. N. Kolmogorov: Grundbegriffe des Wahrscheinlichkeitsrechnung

Más detalles

Estimaciones puntuales. Estadística II

Estimaciones puntuales. Estadística II Estimaciones puntuales Estadística II Estimación Podemos hacer dos tipos de estimaciones concernientes a una población: una estimación puntual y una estimación de intervalo. Una estimación puntual es un

Más detalles

EST Propiedades de los estimadores

EST Propiedades de los estimadores EST-712 - Propiedades de los estimadores Felipe Osorio www.ies.ucv.cl/fosorio Instituto de Estadística, PUCV Mayo 20, 2016 1 / 32 Propiedades: MSE y Sesgo Definición (MSE) Sea P = {P θ : θ Θ} un modelo

Más detalles

Tema 9: Contraste de hipótesis.

Tema 9: Contraste de hipótesis. Estadística 84 Tema 9: Contraste de hipótesis. 9.1 Introducción. El objetivo de este tema es proporcionar métodos que permiten decidir si una hipótesis estadística debe o no ser rechazada, en base a los

Más detalles

Teoremas de Convergencia

Teoremas de Convergencia Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y

Más detalles

Estimación de Máxima Verosimilitud Utilizando la Función optim en R

Estimación de Máxima Verosimilitud Utilizando la Función optim en R Estimación de Máxima Verosimilitud Utilizando la Función optim en R Juan F. Olivares-Pacheco * 15 de diciembre de 2006 Resumen En este trabajo se muestra el método de verosimilitud para la estimación de

Más detalles

ESTADÍSTICA I Tema 5: Contraste de hipótesis

ESTADÍSTICA I Tema 5: Contraste de hipótesis ESTADÍSTICA I Tema 5: Contraste de hipótesis Planteamiento del problema. Conceptos básicos: hipótesis nula y alternativa, tipos de errores, nivel de significación, región crítica o de rechazo, tamaño del

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Tema 2 Resolución de EcuacionesNo Lineales

Tema 2 Resolución de EcuacionesNo Lineales Tema 2 Resolución de Ecuaciones No Lineales E.T.S.I. Informática Indice Introducción 1 Introducción 2 Algoritmo del método de Bisección Análisis del 3 4 5 6 Algoritmo de los métodos iterativos Interpretación

Más detalles

Límites y Continuidad

Límites y Continuidad Tema 2 Límites y Continuidad Introducción En este tema se trata el concepto de límite de una función real de variable real y sus propiedades, así como algunas de las técnicas fundamentales para el cálculo

Más detalles

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición... Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................

Más detalles

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad Diferenciabilidad 1 Función diferenciable 2 Regla de la cadena (2 variables) 3 Regla de la cadena (vectorial) OBJETIVO Generalizar el concepto de diferenciabilidad (conocido ya para funciones de una variable)

Más detalles

CONTRASTE DE HIPÓTESIS

CONTRASTE DE HIPÓTESIS CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región

Más detalles

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará

Más detalles

DEFINICIONES BÁSICAS

DEFINICIONES BÁSICAS 1 CLASES DE ESTADÍSTICA II CLASE 14) INTRODUCCIÓN A LAS PRUEBAS DE HIPÓTESIS. A menudo el analista debe tomar decisiones acerca de la investigación que se está desarrollando. En ese proceso de toma de

Más detalles

Funciones de Una Variable Real I. Derivadas

Funciones de Una Variable Real I. Derivadas Contents : Derivadas Universidad de Murcia Curso 2010-2011 Contents 1 Funciones derivables Contents 1 Funciones derivables 2 Contents 1 Funciones derivables 2 3 Objetivos Funciones derivables Definir,

Más detalles

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población

Más detalles

T2. El modelo lineal simple

T2. El modelo lineal simple T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria Tema 4: Variables aleatorias discretas Objetivos Dominar el uso de las funciones asociadas a una variable aleatoria discreta para calcular probabilidades. Conocer el signicado y saber calcular la esperanza

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

Tema 8. Fundamentos de Análisis discriminante

Tema 8. Fundamentos de Análisis discriminante Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. Tema 8. Fundamentos de Análisis discriminante 8.1. Introducción. Empezamos deniendo el problema discriminante.

Más detalles

Derivada y diferencial

Derivada y diferencial Derivada y diferencial Una cuestión, que aparece en cualquier disciplina científica, es la necesidad de obtener información sobre el cambio o la variación de determinadas cantidades con respecto al tiempo

Más detalles

Teoría de la Probabilidad Tema 2: Teorema de Extensión

Teoría de la Probabilidad Tema 2: Teorema de Extensión Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada

Más detalles

Variables aleatòries vectorials Els problemes assenyalats amb un (*) se faran a classe. 1.- Los estudiantes de una universidad se clasifican de acuerdo a sus años en la universidad (X) y el número de visitas

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable

Más detalles

La reordenación aleatoria de un conjunto finito

La reordenación aleatoria de un conjunto finito La reordenación aleatoria de un conjunto finito Pérez Cadenas J. I. 0.06.2003 Resumen Al desordenar y, a continuación, reordenar aleatoriamente un conjunto finito es posible que algunos de sus elementos

Más detalles

1. Ejercicios. 2 a parte

1. Ejercicios. 2 a parte 1. Ejercicios. 2 a parte Ejercicio 1 Calcule 1. P (χ 2 9 3 33) 2. P (χ 2 15 7 26). 3. P (15 51 χ 2 8 22). 4. P (χ 2 70 82). Ejercicio 2 Si X χ 2 26, obtenga un intervalo [a, b] que contenga un 95 % de

Más detalles

MLG Ana M. Bianco FCEyN

MLG Ana M. Bianco FCEyN MLG Ana M. Bianco FCEyN 2008 44 Propiedades de los Estimadores de Máxima Verosimilitud Recordemos que si la variable aleatoria Y tiene función de densidad (f.d.)o probabilidad puntual (f.p.p.)f(y, θ),

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

NOTACIÓN O GRANDE. El análisis de algoritmos estima el consumo de recursos de un algoritmo.

NOTACIÓN O GRANDE. El análisis de algoritmos estima el consumo de recursos de un algoritmo. NOTACIÓN O GRANDE El análisis de algoritmos estima el consumo de recursos de un algoritmo. Esto nos permite comparar los costos relativos de dos o más algoritmos para resolver el mismo problema. El análisis

Más detalles

Problemas de VC para EDVC elaborados por C. Mora, Tema 4

Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Ejercicio Determinar las funciones enteras f para las que Solución f( + w) = f()f(w), w C. En primer lugar, f(0) = f(0 + 0) = f(0)f(0) = f(0) 2,

Más detalles

CONTINUIDAD DE FUNCIONES. SECCIONES A. Definición de función continua. B. Propiedades de las funciones continuas. C. Ejercicios propuestos.

CONTINUIDAD DE FUNCIONES. SECCIONES A. Definición de función continua. B. Propiedades de las funciones continuas. C. Ejercicios propuestos. CAPÍTULO IV. CONTINUIDAD DE FUNCIONES SECCIONES A. Definición de función continua. B. Propiedades de las funciones continuas. C. Ejercicios propuestos. 121 A. DEFINICIÓN DE FUNCIÓN CONTINUA. Una función

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

si existe un entorno V de a contenido en A, tal que la diferencia f(x) f(a) no cambia de signo cuando x V :

si existe un entorno V de a contenido en A, tal que la diferencia f(x) f(a) no cambia de signo cuando x V : Capítulo 7 Extremos Relativos Una aplicación clásica del Teorema Local de Taylor es el estudio de los extremos relativos de una función escalar. Aunque la analogía con el caso de una variable es total,

Más detalles

CUERPO TÉCNICO, OPCION ESTADISTICA

CUERPO TÉCNICO, OPCION ESTADISTICA CUERPO TÉCNICO, OPCION ESTADISTICA ESTADÍSTICA TEÓRICA BÁSICA TEMA 1. Fenómenos aleatorios. Conceptos de probabilidad. Axiomas. Teoremas de probabilidad. Sucesos independientes. Teorema de Bayes. TEMA

Más detalles

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i : Teorema de Bayes(5) 75 Gráficamente, tenemos un suceso A en un espacio muestral particionado. Conocemos las probabilidades a priori o probabilidades de las partes sabiendo que ocurrió A: Teorema de Bayes(6)

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Tema 13: Distribuciones de probabilidad. Estadística

Tema 13: Distribuciones de probabilidad. Estadística Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número

Más detalles

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También

Más detalles

ESTADÍSTICA. Tema 4 Regresión lineal simple

ESTADÍSTICA. Tema 4 Regresión lineal simple ESTADÍSTICA Grado en CC. de la Alimentación Tema 4 Regresión lineal simple Estadística (Alimentación). Profesora: Amparo Baíllo Tema 4: Regresión lineal simple 1 Estructura de este tema Planteamiento del

Más detalles

478 Índice alfabético

478 Índice alfabético Índice alfabético Símbolos A, suceso contrario de A, 187 A B, diferencia de los sucesos A y B, 188 A/B, suceso A condicionado por el suceso B, 194 A B, intersección de los sucesos A y B, 188 A B, unión

Más detalles

Análisis Estadístico de Datos Climáticos. Distribuciones paramétricas de probabilidad (Wilks, cap. 4)

Análisis Estadístico de Datos Climáticos. Distribuciones paramétricas de probabilidad (Wilks, cap. 4) Análisis Estadístico de Datos Climáticos Distribuciones paramétricas de probabilidad (Wilks, cap. 4) 2013 Variables aleatorias Una variable aleatoria es aquella que toma un conjunto de valores numéricos

Más detalles

Tema 2: Estimación puntual

Tema 2: Estimación puntual Tema 2: Estimación puntual 1 (basado en el material de A. Jach (http://www.est.uc3m.es/ajach/) y A. Alonso (http://www.est.uc3m.es/amalonso/)) Planteamiento del problema: estimador y estimación Insesgadez

Más detalles

INFERENCIA ESTADISTICA

INFERENCIA ESTADISTICA 1 INFERENCIA ESTADISTICA Es una rama de la Estadística que se ocupa de los procedimientos que nos permiten analizar y extraer conclusiones de una población a partir de los datos de una muestra aleatoria,

Más detalles

Funciones de Clase C 1

Funciones de Clase C 1 Capítulo 7 Funciones de Clase C 1 Vamos a considerar ahora la extensión a varias variables del concepto de función de clase C 1. Cada vez que establezcamos una propiedad de las funciones diferenciables,

Más detalles

(a, 0) + (b, 0) = (a + b, 0), (a, 0) (b, 0) = (ab, 0),

(a, 0) + (b, 0) = (a + b, 0), (a, 0) (b, 0) = (ab, 0), NÚMEROS COMPLEJOS 1. Preliminares Definición. Se llama número complejo a todo par ordenado de números reales. Si z = (a, b) es un número complejo, se dice que a es la parte real de z y b es la parte imaginaria

Más detalles

Modelos de distribuciones discretas y continuas

Modelos de distribuciones discretas y continuas Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Modelos de distribuciones discretas y continuas Estadística I curso 2008 2009 1. Distribuciones discretas Aquellas

Más detalles

10. Series de potencias

10. Series de potencias FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

Resumen de Análisis Matemático IV

Resumen de Análisis Matemático IV Resumen de Análisis Matemático IV 1. Funciones inversas e implícitas y extremos condicionados 1.1. Teorema de la función inversa Teorema de la función inversa: Sea A abierto de R n, f : A R n tal que f

Más detalles

El Teorema de Recurrencia de Poincaré

El Teorema de Recurrencia de Poincaré El Teorema de Recurrencia de Poincaré Pablo Lessa 9 de octubre de 204. Recurrencia de Poincaré.. Fracciones Continuas Supongamos que queremos expresar la relación que existe entre los números 27 y 0. Una

Más detalles

INTRO. LÍMITES DE SUCESIONES

INTRO. LÍMITES DE SUCESIONES INTRO. LÍMITES DE SUCESIONES Con el estudio de límites de sucesiones se inaugura el bloque temático dedicado al cálculo (o análisis) infinitesimal. Este nombre se debe a que se va a especular con cantidades

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2015) Selectividad-Opción A Tiempo: 90 minutos

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2015) Selectividad-Opción A Tiempo: 90 minutos Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2015) Selectividad-Opción A Tiempo: 90 minutos Problema 1 (2 puntos) Se considera el sistema de ecuaciones dependiente del parámetro real a:

Más detalles

DERIV. DE UNA FUNC. EN UN PUNTO

DERIV. DE UNA FUNC. EN UN PUNTO DERIVADA DE UNA FUNCIÓN Se abre aquí el estudio de uno de los conceptos fundamentales del cálculo diferencial: la derivada de una función. En este tema, además de definir tal concepto, se mostrará su significado

Más detalles

Cota Inferior de Cramer Rao

Cota Inferior de Cramer Rao Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica

Más detalles

Resumen teórico de los principales conceptos estadísticos

Resumen teórico de los principales conceptos estadísticos Temas de Estadística Práctica Antonio Roldán Martínez Proyecto http://www.hojamat.es/ Muestreo aleatorio simple Resumen teórico Resumen teórico de los principales conceptos estadísticos Muestreo aleatorio

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Mag. María del Carmen Romero 2014 romero@econ.unicen.edu.ar Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo

Más detalles

Derivadas Parciales de Orden Superior

Derivadas Parciales de Orden Superior Capítulo 9 Derivadas Parciales de Orden Superior La extensión a funciones de varias variables del concepto de derivada de orden superior, aunque teóricamente no ofrece ninguna dificultad, presenta ciertas

Más detalles

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos Problema 1 (3 puntos) Se considera el sistema lineal de ecuaciones, dependiente del parámetro

Más detalles

Grupo 23 Semestre Segundo examen parcial

Grupo 23 Semestre Segundo examen parcial Probabilidad Grupo 23 Semestre 2015-2 Segundo examen parcial La tabla siguiente presenta 20 postulados, algunos de los cuales son verdaderos y otros son falsos. Analiza detenidamente cada postulado y elige

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

El Teorema de la Convergencia Dominada

El Teorema de la Convergencia Dominada Capítulo 22 l Teorema de la Convergencia Dominada Los dos teoremas de convergencia básicos en la integración Lebesgue son el teorema de la convergencia monótona (Lema 19.10), que vimos el capítulo y el

Más detalles

Cap. 5 : Distribuciones muestrales

Cap. 5 : Distribuciones muestrales Cap. 5 : Distribuciones muestrales Alexandre Blondin Massé Departamento de Informática y Matematica Université du Québec à Chicoutimi 18 de junio del 2015 Modelado de sistemas aleatorios Ingeniería de

Más detalles

Espacios topológicos. 3.1 Espacio topológico

Espacios topológicos. 3.1 Espacio topológico Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 3 Variables aleatorias Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Distribuciones de probabilidad bidimensionales o conjuntas

Distribuciones de probabilidad bidimensionales o conjuntas Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso

Más detalles

Determinación del tamaño de muestra (para una sola muestra)

Determinación del tamaño de muestra (para una sola muestra) STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto

Más detalles

Distribuciones de probabilidad

Distribuciones de probabilidad Distribuciones de probabilidad Prof, Dr. Jose Jacobo Zubcoff Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir

Más detalles