Técnicas Cuantitativas II Estimación puntual de Parámetros. TC II Estimación puntual de parámetros 1 / 34
|
|
- Patricia Ruiz Saavedra
- hace 5 años
- Vistas:
Transcripción
1 Técnicas Cuantitativas II Estimación puntual de Parámetros TC II Estimación puntual de parámetros 1 / 34
2 TC II Estimación puntual de parámetros 2 / 34
3 : concepto de estimador de un parámetro TC II Estimación puntual de parámetros 3 / 34
4 Concepto de estimador de un parámetro Supongamos que el número medio de mensajes multimedia recibidos en el móvil semanalmente por los estudiantes de la Universidad de Granada puede considerarse como una variable aleatoria con distribución Poisson de parámetro λ. Un problema fundamental en estadística es conocer el valor del parámetro desconocido λ, para lo cual existen distintas técnicas. En el presente tema se presenta la puntual, que consiste en obtener un único número calculado a partir de las observaciones muestrales y que es utilizado como del valor del parámetro desconocido. Así, se entiende por estimador un estadístico muestral usado para calcular una aproximación numérica de un parámetro desconocido de la población. Esto es: Definición 1 Sea θ el parámetro desconocido de una determinada distribución de probabilidad. Un estimador de θ, que se denota como ˆθ(x 1,...,x n ), será un estadístico muestral que aproxime el verdadero valor deθ a partir de la muestra. Téngase en cuenta que el estimador depende sólo de la muestra y, en ningún caso, del parámetro que se desea estimar. Por tanto, el estimador será un valor numérico distinto dependiendo de la muestra considerada. Además, para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos aquel que posea mejores propiedades. TC II Estimación puntual de parámetros 4 / 34
5 Concepto de estimador de un parámetro Ejemplo 1 La inversión en publicidad de seis empresas automovilistas españolas en millones de euros durante el año 2008 fue 86 6, 69 7, 45 1, 44, 42 y Suponiendo que los datos se distribuyen según una normal, se pide obtener estimaciones puntuales de la inversión media en publicidad y de la proporción de estas cuya inversión en publicidad fue inferior a 45. Como veremos, un estimador de la media poblacional sería la media muestral: ˆµ(x 1,...,x 6 ) = X = = Considerando la proporción muestral como estimador puntual de la proporción poblacional. Dado que tres de las seis empresas no superaron los 45 millones de euros en inversion en publicidad, a partir de A i = { 1, la empresaitiene inversión inferior a 45 0, en otro caso coni = 1,...,6, se tiene que ˆp = 3 6 = 0 5. TC II Estimación puntual de parámetros 5 / 34
6 para la obtención de estimadores puntuales TC II Estimación puntual de parámetros 6 / 34
7 En esta sección empezamos a estudiar los métodos de obtención de estimadores puntuales. Aunque se pueden obtener estimadores de forma simultánea para todos los parámetros poblacionales desconocidos de una distribución, nos centraremos en estudiar el caso en el que la distribución de probabilidad depende de un único parámetro desconocido. El método de máxima consiste en escoger como estimador puntual aquel valor del parámetro que maximice la probabilidad de aparición de los valores muestrales obtenidos, es decir, aquel que maximice la función de probabilidad. Ejemplo 2 Supongamos que el número de inundaciones por año sigue una distribución de Poisson con parámetro desconocidoλ. En una determinada provincia han ocurrido dos inundaciones durante un año, cómo se puede estimar el valor de λ si solo conocemos una observación? Si los posibles valores de λ fueran 1, 1 5, 2, 2 5 y 3, la probabilidad de obtener la observación dos sería, respectivamente, , , , y Observando las tablas correspondientes a la distribución de Poisson se aprecia que el valor de λ que maximiza la probabilidad de aparición del valor observado es 2. TC II Estimación puntual de parámetros 7 / 34
8 Sea X una variable aleatoria (discreta o continua) cuya distribución de probabilidad depende de un único parámetro desconocido θ. Dada una muestra aleatoria simple, X 1,...,X n, dex, se define la función de como n P[X i = x i ;θ], caso discreto L(θ;x 1,...,x n ) = n f(x i ;θ), caso continuo donde p i = P[X i = x i ;θ] denota la función de cuantía y f la función de densidad, dependiendo de la naturaleza de la variable. Adviértase, que mientras que las distribuciones de probabilidad dependen de la muestra, la función de depende del parámetro desconocido, θ. Entonces, el método para encontrar el estimador de θ se convierte en el problema matemático de maximizar la función L(θ;x 1,x 2,...,x n ). Es decir, hallar aquellos valores que anulan la primera derivada de L(θ;x 1,x 2,...,x n ) y hacen negativa a la segunda., TC II Estimación puntual de parámetros 8 / 34
9 Luego θ = θ(x 1,x 2,...,x n ) será el estimador máximo verosímil del parámetro θ si verifica que: θ L( θ;x 1,x 2,...,x n ) = 0, 2 θ 2L( θ;x 1,x 2,...,x n ) < 0. Puesto que al derivar directamente la función de se suelen obtener expresiones complicadas, normalmente se maximiza el logaritmo neperiano de la función de, ya que la solución obtenida es la misma al ser monótona creciente la función logaritmo. Por tanto, el estimador máximo verosímil será aquel valor θ que verifique que: θ lnl( θ;x 1,x 2,...,x n ) = 0, 2 θ 2 lnl( θ;x 1,x 2,...,x n ) < 0. TC II Estimación puntual de parámetros 9 / 34
10 A modo de resumen, para obtener un estimador por máxima, los pasos a seguir son los siguientes: Calcular la función de de la muestra teniendo en cuenta la distribución de probabilidad de los datos obtenidos. Determinar el logaritmo de la función de. Se puede demostrar que si una función alcanza un máximo en un punto, su logaritmo neperiano alcanza el máximo en ese mismo punto. Esto nos facilitará buscar el estimador máximo-verosímil, ya que generalmente es más fácil determinar el máximo del logaritmo de una función que directamente el de la función. Derivar el logaritmo neperiano con respecto al parámetro que se pretende estimar e igualar a cero para determinar el valor que maximiza dicha función. De esta expresión despejaremos el estimador, comprobando que la segunda derivada evaluada en dicho punto es negativa. TC II Estimación puntual de parámetros 10 / 34
11 : Ejemplo 1 A continuación vamos a obtener el estimador máximo verosímil del parámetro λ de la distribución de Poisson para las siguientes muestras correspondientes al número de visitas semanales recibidas por un profesor en tutorías: Muestra 1: 3,3,6,2,1,4,0,2,2,5. Muestra 2: 1,3,1,4,5,3,4,6,1,3. Dada una muestra aleatoria simple X 1,...,X n procedente de una P(λ), sabemos que la función de probabilidad en este caso es P[X i = x i ;λ] = e λ λx i x i!, por lo que la función de se expresará como: L(λ;x 1,x 2,...,x n ) = n e λ λ x i x i! = e λ λ x 1 λ x2 λ xn x 1! e λ x 2! e λ x n! = e nλ λ n x i TC II Estimación puntual de parámetros 11 / 34. x i!
12 : Ejemplo 1 Entonces, tomando logaritmos lnl(λ;x 1,x 2,...,x n ) = ( n ) x i ( n ) lnλ ln x i! nλ, y derivando la expresión anterior λ lnl(λ;x 1,x 2,...,x n ) = x i Igualando a cero la derivada anterior se obtiene la igualdad x i λ n = 0, cuya solución es el posible estimador puntual buscado λ n. λ = 1 n x i. TC II Estimación puntual de parámetros 12 / 34
13 : Ejemplo 1 Finalmente, ya tan sólo queda calcular la segunda derivada 2 λ 2 lnl(λ;x 1,x 2,...,x n ) = x i λ 2. y evaluarla en λ para estudiar su signo. En este caso es evidente que 2 λ 2 lnl( λ;x 1,x 2,...,x n ) = x i λ 2 < 0, ya que λ 2 > 0 y, puesto que la distribución de Poisson solo toma valores positivos, es decir,x {0,1,...}, es claro que x i > 0. Por tanto, para obtener el valor del estimador máximo verosímil para cada una de las muestras consideradas tan sólo hay que calcular la media aritmética de cada colección de datos: x 1 = = 2 8, x 2 = = 3 1. TC II Estimación puntual de parámetros 13 / 34
14 : Ejemplo 2 Una variable aleatoria con distribución gamma, con parámetro α conocido, tiene función de densidad: f(x;θ) = 1 { Γ(α)θ α xα 1 exp x }, x > 0, θ con valor esperadoe[x] = αθ y varianzavar(x) = αθ 2. Para obtener el estimador puntual para θ mediante el método de máxima hay que obtener en primer lugar la función de muestral. Es decir L(θ;x 1,x 2,...,x n ) = 1 Γ(α) n θ nα n x α 1 i exp x i θ. Tomando logaritmo en la lnl(θ;x 1,x 2,...,x n ) = nαlnθ nlnγ(α)+(α 1) lnx i x i θ, TC II Estimación puntual de parámetros 14 / 34
15 : Ejemplo 2 derivando con respecto a θ e igualando a cero se obtiene la solución θ lnl(θ;x 1,x 2,...,x n ) = nα θ + nα θ + θ(x 1,...,x n ) = x i θ 2 = 0, 1 n x i α = x α. x i θ 2, Para confirmar que este valor es un máximo, hay que comprobar que la derivada segunda es negativa cuando se sustituye en ella θ por la solución obtenida. TC II Estimación puntual de parámetros 15 / 34
16 : Ejemplo 2 En efecto, puesto que 2 θ 2 lnl(θ;x 1,x 2,...,x n ) = nα θ 2 si la evaluamos en θ(x 1,...,x n ) se obtiene que 2 θ lnl( θ;x 2 1,x 2,...,x n ) = nα x 2 α 2 donde se ha usado quenx = n x i. 2θ n x i θ 4 2 n x i x 3 α 3 = nα3 x 2 2nα3 x 2 = nα θ 2 2 n x i θ 3, = nα 3 x 2 2nxα3 x 3 = nα3 x 2, Puesto que n,α,x > 0, la segunda derivada evaluada en θ es negativa, por lo que θ es el estimador máximo verosímil de θ. TC II Estimación puntual de parámetros 16 / 34
17 para la obtención de estimadores puntuales TC II Estimación puntual de parámetros 17 / 34
18 Este método se basa en la relación existente entre los parámetros poblacionales desconocidos y los poblacionales. Más concretamente, consiste en trasladar esa relación sustituyendo los poblacionales por los muestrales, para así estimar los primeros. Dada una variable aleatoria, X, cuya distribución de probabilidad depende de un único parámetro desconocido, el método de los consiste en enfrentar características poblacionales,e[x r ], a sus homólogas en la muestra x r i n i. En el caso que se estudia un único parámetro desconocido, habrá que enfrentar un único parámetro poblacional a un único parámetro muestral (r = 1). Es decir, E[X] = X, de forma que se plantea una ecuación, cuya solución es el estimador puntual buscado. TC II Estimación puntual de parámetros 18 / 34
19 : Ejemplo 1 A continuación se van a obtener los estimadores puntuales por el método de los de las distribuciones de Poisson de parámetro λ y binomial de parámetro p. Adviértase que la igualdad a plantear ese[x] = X. En el caso de la binomial,e[x] = np, luego entoncesnp = X, y por tanto, el estimador puntual buscado es p = X n. Mientras que para la Poisson,E[X] = λ, luego directamente se obtiene que λ = X. Obsérvese que los estimadores obtenidos coinciden con los del método anterior. Esto se debe a que, bajo ciertas condiciones, ambos métodos coinciden. TC II Estimación puntual de parámetros 19 / 34
20 : Ejemplo 2 Para estimar el parámetro θ de una variable aleatoria con distribución gamma, con parámetro α conocido, por el método de los, simplemente habría que igualar la media poblacional a la media muestral y despejarθ. Esto es E[X] = X αθ = X θ = X α. Puede parecer que este método es más sencillo de aplicar que el anterior, pero nada más lejos de la realidad. Supongamos que se ignora en este caso quee[x] = αθ, entonces tendría que calcular dicho valor esperado y, por tanto, se empieza a complicar este método. TC II Estimación puntual de parámetros 20 / 34
21 Insesgadez Eficiencia para un estimador : insesgadez, consistencia, eficiencia y suficiencia Consistencia Suficiencia TC II Estimación puntual de parámetros 21 / 34
22 Insesgadez Eficiencia Consistencia Suficiencia Tras estudiar métodos enfocados a la obtención de estimadores, a continuación vamos a preguntarnos por la calidad de las estimaciones que estos proporcionan. Necesitamos alguna medida que nos permita seleccionar el mejor estimador, ya que recordemos que para un mismo parámetro desconocido es posible que exista más de un estimador puntual. De esta forma, desearemos que los valores proporcionados por el estimador para cada muestra se aproximen lo más posible al verdadero valor del parámetro (insesgadez), siendo las posibles diferencias existentes lo más pequeñas posibles (eficiencia). Además, conforme aumente la muestra menor ha de ser el error que se cometa en la 1 (consistencia) y el estimador obtenido debe contener toda la información contenida en la muestra (suficiencia). A continuación se estudiará como comprobar si un estimador verifica cada una de estas propiedades. 1 O lo que es lo mismo, conforme aumente la muestra la aproximación numérica proporcionada por el estimador debe tender al verdadero valor del parámetro. TC II Estimación puntual de parámetros 22 / 34
23 Insesgadez Insesgadez Eficiencia Consistencia Suficiencia Dada una variable aleatoria, X, cuya distribución de probabilidad depende de un parámetro desconocido,θ, se dice que el estimador θ(x 1,...,X n ) deθ es insesgado sie[ θ] = θ. Si no se verifica la condición anterior, se dice que no es insesgado o que es sesgado, y que tiene un sesgod( θ Ejemplo 3 ) ] = E θ [ θ θ. SeaX una variable aleatoria cuya distribución de probabilidad depende de un parámetro desconocido θ tal que E[X] = θ y sea θ(x 1,...,X n ) = X un estimador puntual de dicho parámetro. Puesto que se ha demostrado que E[X] = E[X], entonces se verifica que E[ θ] = E[X] = θ, por lo que θ es un estimador insesgado deθ, es decir, que la media aritmética siempre es estimador insesgado de la media poblacional. Por tanto, en el caso en el que X se distribuya según una Normal, una Poisson o una Bernoulli (θ = µ,θ = λ yθ = p, respectivamente), puesto que en estos casos se verifica que θ(x 1,...,X n ) = X, entonces θ es un estimador puntual insesgado deθ de forma inmediata. TC II Estimación puntual de parámetros 23 / 34
24 Insesgadez Insesgadez Eficiencia Consistencia Suficiencia Ejemplo 4 Dada una muestra aleatoria simple X 1,...,X n procedente de una variable aleatoria,x, distribuida según una normal de parámetrosµyσ 2, entonces se verifica que la media poblacional ese[x] = µ y la varianza poblacional esvar(x) = σ 2. Por tanto, en tal caso hemos demostrado que se verifica que E[Sn 1] 2 = σ 2 y E[Sn] 2 = n 1 n σ2, es decir, la cuasivarianza muestral es un estimador insesgado de σ 2, mientras que la varianza muestral lo es segado. Ejemplo 5 Una vez obtenido el estimador para el parámetroθ de una distribución gamma, para estudiar si es insesgado hemos de comprobar conαconocido, θ(x 1,...,x n ) = x α que se verifica quee[ θ] = θ. En efecto, E[ θ] = E = 1 nα [ X α ] = 1α E[X] = 1α E [ E[X i ] = 1 nα 1 n ] X i αθ = 1 nαθ = θ. nα [ = 1 n ] nα E X i TC II Estimación puntual de parámetros 24 / 34
25 Eficiencia Insesgadez Eficiencia Consistencia Suficiencia Dada una variable aleatoria, X, cuya distribución de probabilidad depende de un parámetro desconocido, θ, y siendo θ un estimador puntual de θ. Bajo condiciones de regularidad, los estimadores de un parámetro θ verifican siempre la siguiente desigualdad ) Var( θ 1 [ ( ]. n E lnl(θ;x)) 2 θ Entonces, un estimador es eficiente si es insesgado 2 y se verifica la igualdad en la expresión anterior. La expresión 1 [ ( ], n E lnl(θ;x)) 2 θ recibe el nombre de cota de Frechet-Cramer-Rao. 2 Por tanto, los estimadores sesgados no son eficientes. TC II Estimación puntual de parámetros 25 / 34
26 Eficiencia: Ejemplo 1 Insesgadez Eficiencia Consistencia Suficiencia De igual forma, para estudiar si es eficiente el estimador para el parámetro θ de una dis- ) tribución gamma con α conocido, hay que comprobar que Var( θ de Frechet-Cramer-Rao. En efecto, ) Var( θ = Var ( X α ) L(θ;x) = 1 { θ exp x } α θ = 1 α 2Var(X) = 1 α 2 Var(X) n coincide con la cota = 1 α 2 αθ2 n = θ2 αn. lnl(θ;x) = αlnθ x θ θ lnl(θ;x) = α θ + x θ = x αθ 2 θ [ 2 ( ) ] [ 2 (X ) ] 2 αθ E θ lnl(θ;x) = E = 1 θ 2 θ 4E[ (X αθ) 2] = = 1 θ 4E[ (X E[X]) 2] = 1 αθ2 θ4var(x) = θ = α 4 θ 2 1 [ ( ] = ne lnl(θ;x)) 2 θ θ 2 αn. TC II Estimación puntual de parámetros 26 / 34
27 Eficiencia: Ejemplo 2 Insesgadez Eficiencia Consistencia Suficiencia Estudiemos a continuación si el estimador puntual λ(x 1,...,X n ) = X del parámetro desconocido λ de una variable aleatoria discreta, X, distribuida según una Poisson, que sabemos que es insesgado, es también eficiente. En este caso, se tiene que la función de cuantía es: P[X = x;λ] = e λ λx x! cone[x] = λ = Var(X). Con dicha información: ) Var( λ, x = 0,1,2,..., λ > 0, = Var ( X ) = Var(X) n = λ n. Mientras que partiendo de la función de para una muestra de tamaño uno, que coincidirá, por tanto, con la función de cuantía anterior: L(λ;x) = e λ λx x!. Tomando logaritmos en la expresión anterior: TC II Estimación puntual de parámetros 27 / 34
28 Eficiencia: Ejemplo 2 Insesgadez Eficiencia Consistencia Suficiencia ln L(λ; x) = ln (e λ λx x! ) = lne λ +ln λx x! = λlne+lnλ x lnx! = λ+xlnλ lnx!, donde se han usado las siguientes propiedades básicas del logaritmo neperiano: ln(a b) = ln a+ln b, lna b = bln a, ln a = ln a ln b, lne = 1. b El siguiente paso será derivar con respecto al parámetro desconocido: λ lnl(λ;x) = 1+ x λ = x λ λ. Entonces, elevando al cuadrado y considerando la esperanza matemática en la expresión anterior: E [ ( λ lnl(λ;x) ) 2 ] [ (X ) ] 2 λ = E λ = E[(X E[X])2 ] λ 2 = Var(X) λ 2 = 1 λ, donde se ha tenido en cuenta la definición de varianza y quee[x] = λ = Var(X). TC II Estimación puntual de parámetros 28 / 34
29 Eficiencia: Ejemplo 2 Insesgadez Eficiencia Finalmente, la cota de Frechet-Cramer-Rao queda 1 [ ( ) ] 2 = ne lnl(λ;x) p Entonces, se deduce que el estimador λ es eficiente ya que ) Var( λ λ n. = λ n = 1 [ ( ]. n E lnl(λ;x)) 2 θ Consistencia Suficiencia TC II Estimación puntual de parámetros 29 / 34
30 Consistencia Insesgadez Eficiencia Consistencia Suficiencia Dada una variable aleatoria, X, cuya distribución de probabilidad depende de un parámetro desconocido,θ, y sea θ(x 1,...,X n ) un estimador puntual de dicho parámetro. Se dice que dicho estimador es consistente cuando [ ] lim P θ(x 1,...,X n ) θ > ǫ = 0, ǫ > 0. n Puesto que la condición dada anteriormente no siempre es fácil de comprobar, en la práctica se trabajará con la siguiente condición suficiente: El estimador es asintóticamente insesgado: lim n E[ θ] = θ. El estimador tiene asintóticamente varianza cero: lim n Var[ θ] = 0. En el caso en el que tales condiciones no se cumplen por un estimador no podemos concluir que dicho estimador no es consistente. Otra opción para estudiar si el estimador es consistente es usar la desigualdad de Tchebychev P [ X E[X] > ǫ] Var(X) ǫ 2, ǫ > 0. TC II Estimación puntual de parámetros 30 / 34
31 Consistencia: Ejemplo 1 Insesgadez Eficiencia Consistencia Suficiencia Dada una variable aleatoria continua con función de densidad f(x,λ) = 2 λ2(λ x), 0 < x < λ, obtener el estimador del parámetroλpor el método de los y comprobar que es consistente. Usando el método de los, el estimador para una muestra de tamañonsaldrá de la igualdad que se obtiene al igualar el momento poblacional de orden uno con su homólogo en la muestra E[X] = x, donde Por tanto, E[X] = λ 0 x f(x)dx = = λ 3. λ 3 = x = λ = 3x. TC II Estimación puntual de parámetros 31 / 34
32 Consistencia: Ejemplo 1 Insesgadez Eficiencia Consistencia Suficiencia Para estudiar la consistencia del estimador obtenido veremos si es asintóticamente insesgado y con varianza cero en el límite: E[ λ] = 3E[X] = 3 n E[X i ] = 3 n Var( λ) = 9Var(X) = 9 n Var(X) = 9 n λ2 18 = λ2 2n lim n λ 2 2n = 0, donde se ha usado que con lo que E[X 2 ] = λ 0 λ 3 = λ = lim n E[ λ] = lim n λ = λ, x 2 f(x)dx = = λ2 6, Var(X) = E[X 2 ] (E[X]) 2 = λ2 6 λ2 9 = λ2 18. Luego se ha demostrado que el estimador obtenido es consistente. = lim n Var( λ) = TC II Estimación puntual de parámetros 32 / 34
33 Consistencia: Ejemplo 2 Insesgadez Eficiencia Consistencia Suficiencia Comprobemos si el estimador puntual para el parámetro θ de una distribución gamma con α conocido es consistente. Puesto que sabemos que θ es una variable aleatoria, a partir de la desigualdad de Tchebychev se verifica que P [ ] θ E[ θ] > ǫ Var( θ) ǫ 2. Teniendo en cuenta que θ es insesgado y quevar( θ) = θ2 αn y entonces considerando límites P [ ] θ θ > ǫ θ2 αnǫ 2, [ ] lim P θ θ > ǫ n lim n θ 2 αnǫ 2 = 0. Puesto que una probabilidad no puede ser negativa, realmente se ha obtenido que [ ] lim P θ θ > ǫ n por lo que el estimador puntual θ es consistente. TC II Estimación puntual de parámetros 33 / 34 = 0,
34 Suficiencia Insesgadez Eficiencia Consistencia Suficiencia Sea X 1,...,X n una muestra aleatoria simple procedente de una variable aleatoria X cuya distribución de probabilidad depende de un parámetro desconocido θ. Se dice que el estimador ˆθ deθ es suficiente si, y solamente si, la función de de la muestra, L(θ;x 1,...,x n ), se puede descomponer como producto de dos factores no negativos L(θ;x 1,...,x n ) = h 1 (x 1,...,x n ) h 2 ( θ;θ), donde h 1 (x 1,...,x n ) no depende del parámetro θ y h 2 ( θ;θ) es una función que depende solo deθ y de la muestra a partir del estimador. Ejemplo 6 El estimador puntual para el parámetro θ de una distribución gamma con α conocido es θ = X α. Puesto que la función de puede factorizarse según el teorema de Neyman se puede decir que ˆθ es un estadístico suficiente: L(θ;x 1,...,x n ) = h 1 (x 1,...,x n ) h 2 ( θ;θ), siendoh 1 (x 1,...,x n ) = n x i y h 2 ( θ;θ) = e ( 1/θ) x i θ αn = e( 1/θ) αn θ θ αn. TC II Estimación puntual de parámetros 34 / 34
Tema 6. Estimación puntual
1 Tema 6. Estimación puntual En este tema: Planteamiento del problema. Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Métodos
Más detallesTema 4 - Introducción
Tema 4 - Introducción 1 Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores de mínima varianza. Error cuadrático medio. Consistencia. Cómo obtener estimadores? Tema
Más detallesTema 2: Introducción a la Inferencia Estadística
Tema 2: Introducción a la Inferencia Estadística 1.- En m.a.s. el estadístico varianza muestral es: a) Un estimador insesgado de la varianza poblacional. b) Un estimador insesgado de la media poblacional.
Más detallesTema 3 - Introducción. Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2.
Tema 3 - Introducción 1 Tema 2. Distribuciones en el muestreo Estadísticos y distribución muestral. Ejemplos: X y S 2. Tema 3. Estimación puntual Criterios de comparación de estimadores: Insesgadez. Estimadores
Más detallesTema 6. Estimación puntual
Tema 6. Estimación puntual Contenidos Planteamiento del problema Criterios de comparación de estimadores: Insesgadez Estimadores de mínima varianza Error cuadrático medio Consistencia Métodos para obtener
Más detallesTema 3: Estimación estadística de modelos probabilistas. (primera parte)
Tema 3: Estimación estadística de modelos probabilistas. (primera parte) Estructura de este tema: 1. 2 Estimación por intervalos de confianza. 3 Contrastes de hipótesis. Planteamiento del problema Inconveniente:
Más detallesRelación de Problemas. Tema 5
Relación de Problemas. Tema 5. Supongamos que tenemos una muestra aleatoria simple de tamaño n de una v.a. X que sigue una distribución geométrica con función de probabilidad P (X = k) = p( p) k Calcular
Más detallesCurso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 1 de octubre del 2012 Definición Estadístico suficiente Un estadístico es suficiente respecto al parámetro si la distribución de probabilidad
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesBLOQUE III: INFERENCIA ESTADISTICA. X, variable aleatoria de interés sobre una determinada población
BLOQUE III: INFERENCIA ESTADISTICA TEMA 8. MUESTREO Y DISTRIBUCIONES DE MUESTREO 1. Introducción a la Inferencia Estadística X, variable aleatoria de interés sobre una determinada población Observar el
Más detallesCurso Inferencia. Miguel Ángel Chong R. 10 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 10 de septiembre del 013 Distribución de la diferencia de medias muestrales cuando se conoce la varianza poblacional. En muchas situaciones
Más detallesEXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 2006
EXÁMEN INFERENCIA ESTADÍSTICA I Diplomado en Estadística Convocatoria de Febrero 6 Problema ( ptos) Considera un experimento aleatorio con espacio muestral Ω. a) Definir una σ-álgebra A sobre Ω. b) Dar
Más detallesConceptos básicos de inferencia estadística (I): Inferencia estadística (repaso)
Conceptos básicos de inferencia estadística (I): Inferencia estadística (repaso) Tema 1 (I) Estadística 2 Curso 08/09 Tema 1 (I) (Estadística 2) Inferencia estadística Curso 08/09 1 / 24 Inferencia estadística
Más detallesPart VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores
Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual
Más detallesTema 7: Introducción a la Teoría sobre Estimación
Tema 7: Introducción a la Teoría sobre Estimación Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 7: Introducción a la Teoría sobre Estimación
Más detallesEXAMEN DE ESTADÍSTICA Junio 2011
EXAMEN DE ESTADÍSTICA Junio 2011 Apellidos: Nombre: DNI: GRUPO: 1. Sea X una variable aleatoria discreta. Determine el valor de k para que la función p(x) { k/x x 1, 2, 3, 4 0 en otro caso sea una función
Más detallesECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Más detallesInferencia Estadística
Inferencia Estadística 2do C. 2018 Mg. Stella Figueroa Clase Nº10 Población y Muestra- Parámetro y Estimación puntual Población: Es el conjunto de todos los elementos o unidades elementales con características
Más detallesCUESTIONES TEÓRICAS ESTADÍSTICA
Gestión Aeronáutica: Estadística Teórica Facultad Ciencias Económicas y Empresariales Departamento de Economía Aplicada Profesor: Santiago de la Fuente Fernández CUESTIONES TEÓRICAS ESTADÍSTICA Gestión
Más detallesAplicación de la distribución empírica: Tests de bondad de ajuste
Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida
Más detallesEstimación de Parámetros. Un problema inherente al uso de modelos es el de la selección del modelo.
Estimación de Parámetros Un problema inherente al uso de modelos es el de la selección del modelo. Este problema, cuando se recurre al empleo de familias paramétricas de modelos, se puede plantear en dos
Más detallesCurso Inferencia. Miguel Ángel Chong R. 17 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 17 de septiembre del 2013 Estimador insesgado de minima varianza Definición Estimador insesgado uniformemente de mínima varianza. Diremos
Más detallesPROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS
Estadística 1 PROBLEMAS DE ESTIMACIÓN PUNTUAL Y POR INTERVALOS 1. Obtener un estimador insesgado para p en una m.a.s. de tamaño n de una distribución binomial B(m,p) con m conocido y calcular su error
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesProbabilidades y Estadística
Probabilidades y Estadística Profesor: Fernando Lema Auxiliares: Víctor Carmi - Abelino Jiménez Universidad de Chile Indice General 1 Indice General 1 Advertencias y Recomendaciones Tener presente siempre
Más detallesUniversidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA
Universidad Técnica de Babahoyo INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA Ateneo Ruperto P. Bonet Chaple UTB-Julio 2016 OBJETIVO Aplicar las técnicas de Muestreo e Inferencia Estadística Determinar el tamaño
Más detallesESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que
Más detallesMuestreo e intervalos de confianza
Muestreo e intervalos de confianza Intervalo de confianza para la media (varianza desconocida) Intervalo de confinza para la varianza Grados en Biología y Biología sanitaria M. Marvá. Departamento de Física
Más detallesINFERENCIA ESTADÍSTICA Notas de clase. Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez
INFERENCIA ESTADÍSTICA Notas de clase Profesores: A. Leonardo Bañuelos S. Naelli Manzanarez Gómez TEMA II ESTIMACIÓN PUNTUAL DE PARÁMETROS POBLACIONALES La estimación puntual de un parámetro relativo a
Más detallesTema 3: Estimación estadística de modelos probabilistas. (segunda parte)
Tema 3: Estimación estadística de modelos probabilistas. (segunda parte) Estructura de este tema: 1 Técnicas de muestreo y estimación puntual. 2. 3 Contrastes de hipótesis. Planteamiento del problema Sea
Más detallesDistribución Empírica
1 Distribución Empírica X 1,...,X n i.i.d. X i F, X i P I A (X j (ω)) = { 1 Xj (ω) A 0 X j (ω) / A F n (x,ω) = 1 n P n (A,ω) = 1 n n i=1 n i=1 I (,x] (X j (ω)) = #{X j(ω) x} n I A (X j (ω)) = #{X j(ω)
Más detallesBioestadística: Inferencia Estadística. Análisis de Una Muestra
Bioestadística: Inferencia Estadística. Análisis de Una Muestra M. González Departamento de Matemáticas. Universidad de Extremadura Estimación Puntual e Intervalos de Confianza Planteamiento del Problema
Más detallesUNIDAD 4. INFERENCIA ESTADÍSTICA. Prof. Eliana Guzmán U. Semestre A-2015
UNIDAD 4. INFERENCIA ESTADÍSTICA Prof. Eliana Guzmán U. Semestre A-05 INFERENCIA ESTADÍSTICA La teoría de la Inferencia Estadística está conformada por aquellos métodos que permiten hacer generalizaciones,
Más detallesTransformaciones y esperanza
Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detallesEstadística I Tema 5: Introducción a la inferencia estadística
Estadística I Tema 5: Introducción a la inferencia estadística Tema 5. Introducción a la inferencia estadística Contenidos Objetivos. Estimación puntual. Bondad de ajuste a una distribución. Distribución
Más detallesTEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07
TEMA 2: Estimadores y distribuciones en el muestreo 1) Introducción 2) Tipos de muestreos 3) Estadísticos INDICE 4) Estimadores y propiedades 5) Distribución muestral 6) Teorema Central del Límite 7) Distribuciones
Más detallesEstimación por intervalos
Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto
Más detallesESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio
ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza
Más detallesUNIVERSIDAD DE ATACAMA
UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA ESTADÍSTICA Y PROBABILIDAD GUÍA DE TRABAJO 3 Profesor: Hugo S. Salinas. Primer Semestre 2010 1. Sea X 1,..., X n una muestra aleatoria
Más detallesIntroducción a la Inferencia Estadística
MÁSTER EN ESTADÍSTICA PÚBLICA Experto Universitario: Estadística Aplicada y Técnicas de Encuestación 1 Introducción a la Inferencia Estadística Estimación puntual paramétrica M a Teresa Gómez Departamento
Más detallesCapítulo 3. Estimación estadística de modelos probabilistas
Capítulo 3. Estimación estadística de modelos probabilistas 3.1. Muestreo aleatorio. 3.2. Estimación puntual. 3.3. Estimación por intervalos de confianza. 3.4. Contrastes de hipótesis. 3. Estimación estadística
Más detallesMatemáticas aplicadas a las Ciencias Sociales II
a la Matemáticas aplicadas a las Ciencias Sociales II a la Manuel Molina Fernández y Jiménez Basado en apuntes del Máster Universitario en Formación del Profesorado en Educación Secundaria CPR Mérida 24
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesEstimación de Parámetros. Jhon Jairo Padilla A., PhD.
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de
Más detallesMuestreo de variables aleatorias
Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 Distribución de la muestra 3 4 5 Distribuciones de la media y la varianza en poblaciones normales Introducción Tiene como
Más detallesMatemáticas aplicadas a las Ciencias Sociales II
a la Matemáticas aplicadas a las Ciencias Sociales II a la Manuel Molina Fernández y Jiménez Basado en apuntes del Máster Universitario en Formación del Profesorado en Educación Secundaria CPR Mérida 24
Más detallesEstimación de Parámetros
Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación
Más detallesINFERENCIA ESTADISTICA. Proferora: Lic. Gladis Mazza
INFERENCIA ESTADISTICA Proferora: Lic. Gladis Mazza INFERENCIA ESTADISTICA Por este proceso es posible utilizar estadísticos calculados a partir de muestras para estimar los valores de los parámetros de
Más detallesFundamentos para la inferencia. Estadística Prof. Tamara Burdisso
Fundamentos para la inferencia Estadística 018 - Prof. Tamara Burdisso 1 Distribución muestral de la varianza muestral Hasta aquí nos ocupamos de hacer inferencia sobre la media y/o la proporción de una
Más detallesESTADÍSTICA I Tema 3: Estimación puntual paramétrica
ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud
Más detallesLista de Ejercicios (Parte 1)
ACT-11302 Cálculo Actuarial III ITAM Lista de Ejercicios (Parte 1) Prof.: Juan Carlos Martínez-Ovando 15 de agosto de 2016 P0 - Preliminar 1. Deriva las expresiones de las funciones de densidad (o masa
Más detallesCálculo de probabilidad. Tema 3: Variables aleatorias continuas
Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice
Más detallesEl momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X
Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También
Más detallesSelección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
Más detallesModelos de distribuciones discretas y continuas
Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Modelos de distribuciones discretas y continuas Estadística I curso 2008 2009 1. Distribuciones discretas Aquellas
Más detallesComportamiento asintótico de estimadores
Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos
Más detallesVariables aleatorias
Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con
Más detallesEstimador de Máxima Verosimilitud
Estimador de Máxima Verosimilitud Tratamiento Estadístico de Señales Pablo Musé, Ernesto López, Luis Di Martino {pmuse,elopez,dimartino}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de
Más detallesEstadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Más detallesCurso de Probabilidad y Estadística
Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica
Más detalles1. Estimación. f(y) = θ e y θ, y > 0 0, en otro punto
1. Estimación Definición: Un estimador es una regla que indica cómo calcular el valor de una estimación con base en las mediciones que contien una muestra. Definición: Si ˆθ es un estimador puntual de
Más detallesTécnicas de Muestreo Métodos
Muestreo aleatorio: Técnicas de Muestreo Métodos a) unidad muestral elemental: a.1) muestreo aleatorio simple a.2) muestreo (seudo)aleatorio sistemático a.3) muestreo aleatorio estratificado b) unidad
Más detallesEXAMEN DE ESTADÍSTICA Septiembre 2011
EXAMEN DE ESTADÍSTICA Septiembre 2011 Apellidos: Nombre: DNI: GRUPO: 1. De una clase de N alumnos se tiene la siguiente información sobre las calificaciones obtenidas del 1 al 8 en una cierta asignatura
Más detallesMomentos de Funciones de Vectores Aleatorios
Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)
Más detallesEXAMEN DE ESTADÍSTICA Junio 2012
EXAMEN DE ESTADÍSTICA Junio 2012 Apellidos: Nombre: DNI: GRUPO: 1. En una población se han realizado 120 observaciones sobre las variables X e Y, obteniéndose la siguiente tabla de frecuencias absolutas
Más detallesTema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:
Tema 4: Variables aleatorias Tema 4: Variables Aleatorias Distribución de Bernouilli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno
Más detallesTema 4: Estimación por intervalo (Intervalos de Confianza)
Tema 4: Estimación por intervalo (Intervalos de Confianza (a partir del material de A. Jach (http://www.est.uc3m.es/ajach/ y A. Alonso (http://www.est.uc3m.es/amalonso/ 1 Planteamiento del problema: IC
Más detallesEstimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
Más detallesINGENIERÍA EN INFORMÁTICA DE GESTIÓN ESTADÍSTICA junio, 98
INGENIERÍA EN INFORMÁTICA DE GESTIÓN ESTADÍSTICA junio, 98 TEORÍA (1.5 puntos) Cuestión 1. Sean A y B dos sucesos tales que P (A) = 1/3, P (B) = 1/5 y P (A B) + P (B A) = 2/3. Calcular P (A B). Cuestión
Más detallesEstimaciones puntuales. Estadística II
Estimaciones puntuales Estadística II Estimación Podemos hacer dos tipos de estimaciones concernientes a una población: una estimación puntual y una estimación de intervalo. Una estimación puntual es un
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detalles3 ESTIMACION. 3.1 Introducción
3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto
Más detalles6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid
6. Inferencia con muestras grandes 1 Tema 6: Inferencia con muestras grandes 1. Intervalos de confianza para μ con muestras grandes 2. Determinación del tamaño muestral 3. Introducción al contraste de
Más detalles1. Ejercicios. 2 a parte
1. Ejercicios. 2 a parte Ejercicio 1 Calcule 1. P (χ 2 9 3 33) 2. P (χ 2 15 7 26). 3. P (15 51 χ 2 8 22). 4. P (χ 2 70 82). Ejercicio 2 Si X χ 2 26, obtenga un intervalo [a, b] que contenga un 95 % de
Más detallesAuxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Más detallesEstimación. Introducción. Sea X la variable aleatoria poblacional con distribución de probabilidad f θ donde. es el parámetro poblacional desconocido
Tema : Introducción a la Teoría de la Estimación Introducción Sea X la variable aleatoria poblacional con distribución de probabilidad f θ (x), donde θ Θ es el parámetro poblacional desconocido Objetivo:
Más detallesBioestadística: Variables Aleatorias. Distribuciones de Probabilidad II
Bioestadística: Variables Aleatorias. Distribuciones de Probabilidad II M. González Departamento de Matemáticas. Universidad de Extremadura 3. El periodo de incubación de una determinada enfermedad se
Más detallesANÁLISIS DE FRECUENCIAS
ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE
Más detallesMATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL
MATEMÁTICAS II PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL 1) PROBABILIDAD Experimentos aleatorios. Concepto de espacio muestral y de suceso elemental. Operaciones con sucesos. Leyes de De Morgan.
Más detallesPart I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria
una una típica Part I Momentos. Esperanza y varianza Esperanza una una típica Definición Sea X una discreta que toma los valores x i con probabilidades p i. Supuesto que i x i p i
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesCuál es el campo de estudio de la prueba de hipótesis?
ESTIMACIÓN Establecer generalizaciones acerca de una población a partir de una muestra es el campo de estudio de la inferencia estadística. La inferencia estadística se divide en estimación y prueba de
Más detallesVariables aleatorias. Utilizando el resultado anterior, vemos que
Variables aleatorias Utilizando el resultado anterior, vemos que Variables aleatorias Otro tipo de función generadora (generatriz) es la función generadora de momentos Para una variable aleatoria X y un
Más detallesCONTRASTE DE HIPÓTESIS
CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región
Más detallesBootstrap. Patricia Kisbye. 13 de mayo, FaMAF
Bootstrap Patricia Kisbye FaMAF 13 de mayo, 2010 Técnica de bootstrap La técnica de Bootstrap fue introducida por B. Efron, 1982. Consiste en aproximar la precisión de un estimador a partir de una muestra
Más detallesTema 2 Modelos de probabilidad
Tema 2 Modelos de probabilidad José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Estructura de este tema Conceptos básicos de probabilidad. Modelos discretos: la distribución
Más detallesPart VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones
Part VI notables El proceso de Bernoulli En cada observación se clasifica el elemento de la población en una de las dos posibles categorías, correspondientes a la ocurrencia o no de un suceso. Llamaremos
Más detallesTEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesESTADÍSTICA. Tema 4 Intervalos de confianza
ESTADÍSTICA Grado en Biología Tema 4 Intervalos de confianza Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo Estadística. Tema 4: Intervalos
Más detallesESCUELA SUPERIOR POLITÉCNICA DEL LITORAL
ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL FACULTAD DE CIENCIAS NATURALES Y MATEMÁTICAS DEPARTAMENTO DE MATEMÁTICAS TEMA 1 (20 puntos): RUBRICA La magnitud de temblores registrados en una región de América
Más detallesEjercicios T2 y T3.- DISTRIBUCIONES MUESTRALES Y ESTIMACIÓN PUNTUAL
Ejercicios T2 y T3.- DISTRIBUCIONES MUESTRALES Y ESTIMACIÓN PUNTUAL 1. Se ha realizado una muestra aleatoria simple (m.a.s) de tamaño 10 a una población considerada normal. Llegando a la conclusión que
Más detallesEscuela Universitaria Politécnica Examen de Cálculo - Febrero - Curso 01/02
Escuela Universitaria Politécnica Examen de Cálculo - Febrero - Curso 0/02 x 2 + y 4. (a) Comprueba que el siguiente límite no existe lim (x,y) (0,0) x 2 + y. 2 (b) Busca una trayectoria a través de la
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Mag. María del Carmen Romero 2014 romero@econ.unicen.edu.ar Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo
Más detallesDefinición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números
IV. Variables Aleatorias Continuas y sus Distribuciones de Probabilidad 1 Variable Aleatoria Continua Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo
Más detallesInferencia Estadística Estimación de parámetros mediante intervalos de confianza y contrastes de hipótesis 1 / 56
Inferencia Estadística Estimación de parámetros mediante y contrastes de Inferencia Estadística Estimación de parámetros mediante y contrastes de 1 / 56 Índice Inferencia Estadística Estimación de parámetros
Más detalles