3.- No existe multicolinialidad entre las variables explicativas de la ecuación de regresión.

Tamaño: px
Comenzar la demostración a partir de la página:

Download "3.- No existe multicolinialidad entre las variables explicativas de la ecuación de regresión."

Transcripción

1 X. EFECTO S OBRE LOS ES TIMADORES DE LA VIOLACIÓN DE LAS HIPÓTES IS O S UPUES TOS DEL MODELO DE REGRES IÓN LINEAL: MINIMOS CUADRADOS ORDINARIOS. Como se recordará, este modelo se usa para obtener estimadores contenidos en la ecuación de regresión, considerando que se cumplen ciertos supuestos que sustentan sus propiedades de ser: a).- insesgados; b).- eficientes, c).- suficientes y d).- consistentes. Dicho modelo se apoya, entre otros, en las siguientes hipótesis o supuestos: 1.- la varianza de las Ui es constante y por ello se dice que hay homocedasticidad, que viene del griego: homos ( igual ) y cedastitis ( dispersión ) entre los miembros de la serie estadística, razón por la cual tienen la varianza mínima, que a su vez corresponde a los estimadores que hemos dado en llamar eficientes. 2.- No existe autocorrelación entre las perturbaciones, µ i, y 3.- No existe multicolinialidad entre las variables explicativas de la ecuación de regresión. 4.- El modelo de regresión esta perfectamente especificado, de manera que no existe ningún Sesgo de especificación (Gujarati,1991:210). Cuando se cumplen estos y otros supuestos ( en mi opinión menos importantes ) se tiene una buena inferencia estadística y se está en condiciones de hacer una adecuada estimación y mejores pruebas de hipótesis. Pero qué sucede cuando se violan estos supuestos? definitivamente se pierde calidad en los estimadores y disminuye el rigor técnico con que se maneja la información ya que dejan de ser insesgados, eficientes, consistentes y suficientes, afectando la estimación que se hace con la ecuación de regresión y orillando al investigador a la toma equivocada de decisiones porque las t`s y las F s cambian de valor, en la forma que se indica a continuación: X.1 HETEROCEDAS TICIDAD Uno de los principales análisis que se realizan sobre la violación de los supuestos en que se basa el método de MCO para determinar el valor y por consiguiente la calidad de los estimadores, se refiere a la verificación, Ho, de si las perturbaciones µ i de la función de regresión poblacional, son o no homocedásticas, ergo, que todas tienen la misma varianza; en otras palabras, es conveniente señalar que hasta el momento hemos establecido el supuesto de homocedasticidad, es decir, que las distorsiones o errores µ i de la ecuación de regresión tienen la misma varianza. Ahora bien, cuando dichos errores no observan una misma varianza se acepta la Ha y se dice que hay heterocedasticidad 129

2 o que las µ i son heterocedásticas. En otras palabras los µ i no tienen una varianza constante, que es lo mismo que decir que la varianza del error no es constante para todas las observaciones de la serie histórica a partir de la que se determinó la ecuación de regresión. Qué efecto o consecuencia trae la heterocedasticidad? Las estimaciones $a y $ b de mínimos cuadrados son insesgados pero no consistentes ni eficientes, es decir, no poseen varianza mínima, algunos datos tienen una varianza más grande; además el valor del estimador no tiende al del parámetro a medida que crece el tamaño de la muestra, se dice que es inconsistente. Las varianzas estimadas var ( $a ), var ( $ b ) no son insesgadas. Al ser sesgados los estimadores de las varianzas, invalidan las pruebas de significación sobre las hipótesis que se establezcan. Cómo se detecta? Señala Gujarati (1991:275) que no es fácil detectarla, que no existen reglas fijas y seguras para detectarlo, sino sólo unas cuantas reglas generales.por ello se han creado algunos métodos informales y de aproximación para detectar la presencia de heterocedásticidad, reglas a las que llama algunos remedios ( o sea que ni siquiera califica o eleva al rango de métodos o técnicas), los cuales generalmente examinan los residuos obtenidos de la aplicación de MCO para identificar en ellos patrones sistemáticos. Lo anterior en palabras de Carrascal ( 2001:227): no existen reglas fijas para saber si en un modelo existe heterocedasticidad; pues en todos los contrastes estadísticos se plantea la hipótesis nula de homocedasticidad. Además, dado que las perturbaciones aleatorias no son observables, las formas de detección se basan en los errores de la estimación por mínimos cuadrados ordinarios. En concreto, la mayor parte de los contrastes van a utilizar el cuadrado de dichos errores como indicativo de la varianza de cada perturbación o el valor absoluto de dicho error para aproximar la desviación típica. Derivado de lo anterior podemos decir que en general se pueden realizar cualesquiera de las siguientes pruebas: 1. Método gráfico 2. Ramsey 3. Glejser 4. Breusch y Pagan 5. White 6. Goldfeld y Quant 7. Razón de verosimilitades 130

3 Al respecto sobre el método gráfico, G.S Maddala en su obra Introducción a la Econometría; Segunda Edición de la Editorial Prentice Hall, capítulo 5, hoja 229, pone un ejemplo sencillo pero ilustrativo a través del cual se identifica la heterocedastidad con el método gráfico. El autor hace función el consumo (y) del ingreso (x). Para ello presenta la información de 20 familias, misma que aparece en la siguiente tabla, cuyo ingreso y consumo se expresa en miles de dólares. FAMILIA Y Y c X Y-Y c =U i RES IDUO Con estos datos y trabajando con el Programa Eviews, se procede a crear la base de datos: vamos a File, luego a New Workfile periodicidad: ponemos de inicio (start: 1) y de final (end:12) ok abre nuevamente el workfile, hacemos doble clic y se abre el archivo en el que registramos los datos de Y e X, en name le ponemos el nombre del grupo01. También podemos ir a Quick Empty Group (edit series) y registramos los datos de Y e X, luego guardamos con Save. Ahora ya estamos listos para 131

4 hacer análisis econométrico. Fijámos el cursor en Quick, aparece un cuadro o caja de diálogo, ahí se pulsa Estimate equation, se especifica: y_c_x, oprimimos la palabra ok y se obtiene la siguiente ecuación de regresión: Y = X R 2 = (0.703) (0.0253) RSS = Para calcular Ui: en el cuadro de la ecuación, está la palabra view, ahí pulsamos el cursor y aparece, entre otros, actual fitted residuals, pedimos actual fitted table, oprimimos el lado izquierdo del ratón y parecen los valores originales de Y, los de cada una de las Y s calculadas con la ecuación de regresión anterior y Ui= Yi-Yc donde i=1,2,3,.18,19,20 Con esos datos procedemos a identificar la heterocedasticidad: Dependent Variable: Y Method: Least Squares Date: 11/22/04 Time: 19:46 Sample: Included observations: 20 Variable Coefficient Std. Error t-statistic Prob. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) a). Método Gráfico Estando en la pantalla de este archivo, vamos a view, ahí pedimos actual fitted residuals, luego, actual fitted graph, decimos ok, y aparece la gráfica de residuos siguiente 132

5 Residual Actual Fitted Ahora vamos a Quick Estimate Equation; U- C X, ok y sale la ecuación. Ahora vamos a View Actual, Fitted, Residual, Actual Fitted Table y sale: obs Actual Fitted Residual Residual Plot

6 Lo anterior ahora visto en términos de dispersión de las U i con respecto a X s: Continuando con el análisis gráfico ahora sí representamos la relación X i con U i vamos a Quick ahí pedimos Graph, aparece la pantalla Series List con Group01, lo borramos y en su lugar ponemos X U, damos ok y aparece Line Graph: seleccionamos Scatter Diagram, ok aparece la siguiente gráfica U X que es la figura típica que resulta al graficar los valores de los residuos versus los valores de X, ingreso, obteniéndose el diagrama que indica o permite identificar que hay un problema de heterocedastidad, puesto que hay una alta dispersión de U i a medida que aumenta el valor de X, mismo que debe resolverse para recuperar la bondad estadística de los estimadores. Conviene reiterar, como se estableció antes, que los datos entre paréntesis que acompañan la ecuación de regresión, corresponden a los errores estándar de los coeficientes. Así, a partir de la ecuación de regresión se calcularon los residuos en la forma ya familiar en esta etapa del conocimiento econométrico. Su análisis reveló que dichos residuos ( en valores absolutos ) eran más grandes a medida que crecía el valor de X, ingreso, y pequeños a medida que X tomaba valores pequeños. Esta evidencia le permitió señalar a Maddala que las varianzas de los errores no son las mismas, constantes, y por consiguiente hay heterocedasticidad, de tal manera que los estimadores â y bˆ ya no son eficientes (pero si insesgados) y cuestionan seriamente los resultados a que se llega cuando se hacen pruebas de significación sobre las hipótesis en materia de regresión y correlación. 134

7 b).- Con la prueba F, estableciendo la H o : E(U i 2 )= σ 2 constante, que significa que hay homocedasticidad, misma que contrasta con Ha: E(U i 2 ) de σ 2 constante, que indica que hay heterocedasticidad y donde i= 1,2, 19,20. Cómo se corrige o resuelve la heterocedastidad? Con: La aplicación de la técnica de mínimos cuadrados ponderados; La deflactación de los datos mediante alguna medida de tamaño ; La transformación de los datos en la forma funcional denominada logarítmica. X.1.1 Identificación numérica de la heterocedasticidad Tomando como referencia los datos anteriores, se corren las regresiones y se establece la hipótesis nula de homocedasticidad y se prueba que los coeficientes son o no significativos. X La prueba de Ramsey Se hace la regresión de û t sobre $y 2 t, $y 3 t... y la prueba de significación de los coeficientes. Así, dado que existe una sola variable explicativa x, se puede utilizar en lugar de $y para identificar la 2 3 n heterocedasticidad. Se hace la regresión de û i sobre xi, xi... xi. Los resultados fueron: u$ =. +. ( x )( 10 x ) R 2 = Como ninguno de los coeficientes tuvo una relación t>1, se toma la decisión de aceptar la hipótesis nula, es decir, que no hay heterocedasticidad, además que al ser R2 pequeña indica que no es fuerte la relación entre X, µ i, i.e,, no hay heteroscedasticidad.. X La prueba de White Se hace la regresión de $u t sobre todas las variables explicativas, sus cuadrados y sus productos 2 cruzados. Así cuando 2 variables explicativas x1, x2, White establece la regresión $u t sobre 2 2 x1, x2, x1, x2, x1x2. Los valores que se obtuvieron considerando una sola variable explicativa, fueron: 2 u$ = x R 2 = (0.390) (0.0014) $u = x x 2 R 2 =

8 (0.620) (0.055) (0.0011) En los dos casos R 2 es grande y por consiguiente se rechaza la hipótesis nula y se concluye diciendo que hay heterocedasticidad. X La prueba de Goldfeld y Quandt Cuando las muestras no son grandes, se recomienda utilizar esta prueba. En este caso los errores obtenidos en el primer ejercicio, se clasifican en dos grupos; el primero comprende los 10 valores pequeños de Ui obtenidos con respecto a x; el segundo, los valores más grandes de Ui. Enseguida se corre la regresión para cada uno de los dos grupos y, con estos datos, se hace la prueba F, mediante la cual se contrasta la hipótesis nula de la igualdad de las varianzas del error. Para hacer más firme la toma de decisiones para aceptar o rechazar la hipótesis de homocedasticidad, Salvatore ( 1993:152) y Gujarati ( 1991:266) recomiendan sacar o quitar algunos datos centrales de la distribución con objeto de acentuar la diferencia entre el grupo de varianza pequeña y el grupo de varianza grande. Sin embargo, en este caso no omitiremos ningún dato porque como dice Gujarati mismo: la habilidad de la prueba de Goldfeld-Quant para llevar a cabo lo anterior en forma exitosa depende de la manera como se escoja c, que es el número de datos a omitir. Así, tenemos tenemos que obtener dos grupos de datos: el primero, con los residuos pequeños, el segundo, con los residuos grandes; debemos clasificar esos residuos, para ello usando Eviews: Process Sort Series para Y e X y sus valores aparecen en orden ascendente, ahí luego, sample, doble clic, 1 10 Estimate Equation name: Group01; igual hacemos para Group02, donde sample: 11 20, Primer Grupo SegundoGrupo Número de observación Y 1 Valor de X 1 Residuo u i Número de observación Y 2 Valor de X 2 Residuo u i Se estiman estas dos regresiones Ŷ 1 y 2 136

9 Ŷ 1 = x R 2 = ; Ŷ = x 2 R2 = (0.616) (0.038) σ= ˆ σ 2 = (3.443) (0.096) σ= $ σ 2 = El desglose estadístico de estas dos regresiones es, empezando con Y 1, X 1 : Dependent Variable: Y1 Method: Least Squares Date: 11/19/04 Time: 13:37 Sample(adjusted): 1 10 Included observations: 10 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Significado S.E. of Regressión= σ YX que antes usamos; es distinto de Std. Error que suele ser menor porque corresponde a cada parámetro muestral. De igual manera para Y 2, X 2 Dependent Variable: Y2 Method: Least Squares Date: 11/19/04 Time: 21:27 Sample(adjusted): 1 10 Included observations: 10 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Con los dos S.E. of regresión calculamos las dos varianzas y F: 137

10 Varianza de residuos grandes Se calcula F = Varianza de residuos pequeñ os = = Para calcular los grados de libertad, gl, de la F téorica Salvatore( 1993:152) y Gujarati (1991:266) señalan que los grados de libertad tanto para el numerador como para el denominador se calculan con la fórmula: n-d- 2k/2, donde n= número de observaciones= 20, d= número de observaciones omitidas, en este caso ninguna, luego d=0, k= número de parámetros= 2 en cada grupo, luego tanto para el numerador como para el denominador gl= (2)/2= 20-4/2= 8 gl Así, la F teórica se obtiene en tablas para α = 1% con 8 y 8 grados de libertad, y es F = α 603. < F = 664., por lo que se rechaza la hipótesis de homocedasticidad y se acepta que hay un problema de heterocedasticidad. Gráficamente Zona de rechazo de H o : Zona de aceptación de H o : F α =6.03 X.1.2 Solución al problema de heterocedasticidad X Transformación de los datos en logaritmos, usando una forma funcional doble logarítmica. En ocasiones se resuelve haciendo la regresión en forma doble logarítmica lineal. Así usando los 20 datos originales y convirtiéndolos en logaritmos: usando Eviews vamos a Quick Generate Series enter equation, ponemos lx=log(x); también ly=log(y) y aparece la siguiente tabla: obs LX LY 138

11 Vamos a Quick: Estímate Equation: LY C LX, ok Se corre la regresión y se obtiene: Log y = log x R 2 = (0.0574) (0.0183) RSS = Dependent Variable: LY Method: Least Squares Date: 11/19/04 Time: 22:01 Sample: 1 20 Included observations: 20 Variable Coefficient Std. Error t-statistic Prob. C LX R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

12 Para calcular los residuos con Eviews se estima la regresión, en el menú de View, seleccionar Actual, Fitted, Residual, después nos vamos a Actual Fitted, Table: Observación: en la gráfica de la tabla, última columna, no aparecen unidos los puntos, pero si en la pantalla del monitor. Enseguida clasificamos las Ui en función de X, en los dos siguientes grupos: Número de observación Log Y 1 calculada Log de x 1 Residuo u i Número de observación Log Y 2 calculada Log de x 2 Residuo u i

13 Una vez calculados los residuos de los dos grupos se corren sus dos regresiones y se obtiene, para el primero: Quick, Estimate Equation: LY- C- LX 1, ok Dependent Variable: LY1 Method: Least Squares Date: 11/22/04 Time: 20:33 Sample(adjusted): 1 10 Included observations: 10 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C LX R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Y para el segundo grupo: Quick Estimate Equation: LY 2 C- LX 2,, ok Dependent Variable: LY2 Method: Least Squares Date: 11/22/04 Time: 20:58 Sample(adjusted): 1 10 Included observations: 10 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C LX R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion

14 Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Se dice que hay una solución porque se observa que no hay un aumento significativo en el valor de los residuos ( u i ) a medida que crecen los valores de x, es decir, se reduce la heterocedasticidad en las varianzas del error. X Aplicación de F De las dos regresiones anteriores tenemos: con los cálculos de Maddala: Grupo 1 Grupo 2 log y = x R 2 = 0.991; (0.083) (0.031) σ= $ σ 2 = log y = x R 2 = (0.358) (0.100) σ= $ σ 2 = Así, F = = 175. ; Como F α = 344. para α = 5% y con α= 1% tenemos F téorica= 6.03 con 8 y 8 grados de libertad. En los dos casos vemos que no se rechaza la hipótesis de homocedasticidad; se dice que desapareció la heterocedasticidad, que los estimadores ahora son insesgados y eficientes y ratifican los motivos por los cuales en el capítulo IX se prefirió esta forma funcional. En resumen, se debe señalar que es conveniente detectar si existe o no heterocedasticidad, ya que de identificarse este problema, ello ocasiona que: a) Los estimadores de mínimos cuadrados sean ineficientes, aun cuando siguen siendo insesgados; es decir, cuando son ineficientes tienen una varianza más grande. b) Los estimadores de las varianzas son sesgados. Ello nulifica (mejor dicho, altera los resultados de) las pruebas de significación que se realizan para probar la bondad de los estimadores. c) Se relaja el supuesto de que la varianza del término de error ( u i ) es constante. X.2 AUTOCORRELACION Si hablamos en términos de la hipótesis nula, ésta se establece diciendo que los términos de error ( u i ) en el modelo de regresión son independientes, es decir: Ho: r=0, no hay correlación. 142

15 Lo contrario, es decir la hipótesis alternativa es el relajamiento de este supuesto (hipótesis nula), es decir Ha: r distinto de cero, donde r es el coeficiente de correlación entre las µ i, lo cual indica que dichos términos de error, son dependientes unos de otros. Lo anterior significa que hay relación entre ellos, que están correlacionadas, mismas que vistos en función de las SERIES DE TIEMPO, revelan que hay AUTOCORRELACION entre ellas. Ejemplo, si analizamos el ingreso de las personas en varios años, el ingreso del año uno influye en el ingreso del año dos, este en el del año tres, y así sucesivamente, esto origina una autocorrelación en el tiempo. X.2.1 Identificación de autocorrelación se hace con la r y la estadística de Durbin-Watson. a). Aquí como en la heterocedasticidad se usa r, cuando su valor es alto: cercano a más uno o a menos uno, se dice que hay autocorrelación. b). Prueba de Durbin y Watson Como el término de error ( ( ut 1 u t ) de un año está autocorrelacionado con el del año inmediato anterior ), Durbin y Watson elaboraron la estadística d, que sirve para detectar la autocorrelación y se determina con la fórmula: en la que d = n ( u$ t u$ t 1) 2 n 2 u$ t u$ se define como el residuo estimado para el período o año t. t Si desarrollamos el cuadrado de la fórmula de d, obtenemos d = uˆ 1 2 Σut 1 2Σ uˆ uˆ 2 uˆ t 2 t + t t 1 Tomando en cuanta que cuando la muestra es grande se observa que u$ 2 y 2 t u$ t 1 son casi iguales ya que difieren en una observación, tal que podemos decir 1+1= 2; en otras palabras ambas sumatorias son iguales, y si factorizamos tenemos que d= 2( 1- la segunda parte del desarrollo), dividida entre el denominador que ahí aparece; luego, si decimos que r representa la autocorrelación entre ellos, es decir que r representa la segunda y última parte de la ecuación, entonces podemos establecer que la fórmula se puede expresar como: d 2( 1 - r ) 2 143

16 Ahora bien, puesto que sabemos que r oscila entre 1 y +1, con desigualdades podemos decir lo siguiente: -1 r + 1 Derivado de lo anterior, podemos establecer las siguientes igualdades: cuando r = + 1, se dice que d = 0; hay autocorrelación positiva; cuando r = -1, se dice que d = 4; hay autocorrelación negativa; y cuando r = 0, se dice que d = 2; no hay autocorrelación. Por consiguiente cuando d tenga valores cercanos a 0 o 4, diremos que los residuos están altamente correlacionados. Es importante decir que la distribución muestral de d depende del valor de las variables explicativas. Durbin y Watson calcularon los valores de los limites superior ( d ) e inferior ( u d ) para diferentes L niveles de significación de d. Estos valores están en tablas mediante las cuales se prueban hipótesis nulas: autocorrelación cero versus las hipótesis alternativas: autocorrelación positiva de primer orden ( entre u y t u ); cuando la autocorrelación es negativa se intercambian t 1 d y u d. Luego si: L d < d L, se rechaza la hipótesis nula de no autocorrelación, hay autocorrelación, debe corregirse. d > d u, no se rechaza la hipótesis nula de independencia, no se hace nada. d L < d < d u, la prueba no es concluyente, es decir no sabemos si los términos de error u i están autocorrelacionados o son independientes. Lo anterior dicho en palabras de Dominick Salvatore (9) : ( Econometría Editorial Mc Graw Hill, página 153). Si d < d L, se acepta la hipótesis de autocorrelación, Ha: r 0 y se rechaza Ho: r=0 d > d u, se rechaza la hipótesis de autocorrelación, Ha: r 0 y se acepta Ho: r=0 Para probar la Ho se compara la d calculada con la d en tablas partiendo de que está demostrado que la esperanza matemática de d, cuando r = 0, está dada por la fórmula: E(d) = 2 + 2( k 1) n k K es igual al número de parámetros de regresión estimados (se incluye el término constante). Dominick Salvatore (9) dice que k = número de variables explicativas + 1 ( término constante ), ver Anexo.5 en el anexo de todas las tablas estadísticas, y si n es el tamaño de la muestra, vamos a A.5 y encontramos k 1, que necesitamos para obtener diferentes valores de d. Con estos datos se buscan 144

17 en la tabla de Durbin Watson los valores d L y d u y se comparan con la d calculada para identificar si hay o no autocorrelación entre los residuos. Ejemplo del uso de la prueba de Durbin, Watson: G. S. Maddala corre la ecuación logarítmica lineal para explicar la producción (x) en función de los insumos de capital K y trabajo (L) en Estados Unidos. (página 114 de obra citada) y halla: Log X = log L log K 1 (0.237) (0.083) (0.048) R 2 = ; DW = 0.88 r=0.559= coeficiente de autocorelación, que enseguida usamos para eliminar la autocorrelación. Con K 1 = k-1 = 3 1= 2 y n = 39 con α = 5% se halla en tablas d L = Puesto que la d = 0.88 < d L = 1.38, se rechaza la hipótesis nula de no autocorrelación, en otras palabras se rechaza la hipótesis nula de r = 0 con α = 5%. Ello significa que hay autocorrelación positiva de primer orden entre si. entre los residuos de mínimos cuadrados, ergo no son independientes u t y u t 1 La existencia de autocorrelación también se ratifica con el alto valor que toma R 2 = X.2.2 Consecuencia de la autocorrelación Como indica Dominick Salvatore (9), la presencia de autocorrelación es común en Series de Tiempo y lleva a errores estándar sesgados hacia abajo (y así a pruebas estadísticas e intervalos de confianza incorrectos). Gujarati (1991: 298) por su parte dice que aun cuando los estimadores MCO continuan siendo lineales, insesgados y consistentes, pero dejan de ser eficientes, situación que provoca las mismas consecuencias que Salvatore señaló. X.2.3 Corrección de autocorrelación a) Dominick Salvatore () dice que para corregir la autocorrelación se debe estimar r, por ser el indicador de la autocorrelación serial. Así se determina a partir de d= 2(1-r); despejando obtenemos r=2-d/2, de manera que cuando d=0.88,vemos que r= /2=1.12/2=0.56, valor a utilizar para reducir o eliminar la autocorelación. Así, según el valor que tome r será la reducción o eliminación de la autocorrelación (Gujarati,1991:323). b) El mismo autor Gujarati ( 1991: 330) comenta que Theil y Nagar sugieren que en muestras pequeñas r se debe estimar con la fórmula: 145

18 2 2 N (1 d / 2) + k r = 2 2 N k En que: N: Número total de observaciones d=d de Durbin Watson K= Número de coeficientes a estimar Luego, en el ejemplo anterior calculamos r con las dos fórmulas y obtenemos el mismo resultado: r = 0.56, d 0.88 r = 1 = 1 = = 0. 56, valor igual al mostrado inicialmente por 2 2 Maddala. 2 N (1 d / 2) + k = = N k 2 2 (39) (0.56) + (3) 1521(0.56) + 9 = = 2 2 (39) r = = = Una vez conocido r se puede corregir la autocorrelación partiendo del siguiente razonamiento: De acuerdo con Gujarati ( 1991:317) si, denominamos como ecuación #1, Y β + β + µ t = 1 2X t Si #1 se cumple en el periodo t, se cumple también en el período t-1, por tanto La ecuación #2: Y β + β µ ahora multiplicando la ecuación #2 por ρ (nuestra r) en ambos lados de t 1 = 1 2X t 1 + t 1 la ecuación, obtenemos la ecuación #3: ρ Yt 1 = ρβ1 + ρβ2x t 1 + ρµ t 1. t Ahora restando la ecuación #3 de la #1 obtenemos: la ecuación #4: Y ρ Y ) = β (1 ρ) + β X ρβ X + ( µ ρµ ) ( t t t 2 t 1 t t 1 = β ( 1 ρ ) + β ( Xt ρx ) 1 2 t 1 + εt donde se usó un esquema autorregresivo de primer orden µ + i = ρµ t 1 εt Yt = β 1 + β2 X t + εt de manera que ahora podemos expresar la ecuación anterior como la siguiente ecuación #5 Y1 = β 1 + β2 X t + εt donde β1 = β1( 1 ρ), Yt = ( Yt ρyt 1) y Xt = ( Xt ρ X t 1 ), que nos da la pauta para los cálculos que se muestran a continuación. Señala Gujarati que para no perder la primera observación en el proceso de diferenciación, se utilizan y 1 1 rˆ2 y x 1 1 rˆ2 para la primera observación transformada de Y y X, respectivamente. Así, en el caso de que r ˆ 1, la autocorrelación puede corregirse volviendo a calcular la regresión en forma de diferencia y omitiendo el término de la ordenada en el origen., LogX = log X log Xt 1 146

19 LogL = log L log Lt 1 logy (con asterisco)=logy logy del año anterior logb del presente año(con asterisco)=logb del presente año-logb del año anterior Así, también: LogK = log K log K t 1 En seguida se estimará la nueva ecuación de regresión y es seguro que se obtendrá una d con valor distinto a 0.88, que al compararse con d u y d L (valores teóricos) se aceptará H o: es decir que ya no hay autocorrelación. X Ejemplo numérico para corregir la autocorrelación a) D. Salvatore. D. Salvatore presenta el nivel de inventarios, Y, y ventas X, los dos en miles de millones de dólares para la industria de manufacturas de los E.E. U.U., del año 1959 al de Hace la regresión de Y con X con los siguientes datos: Año Y X Obtiene y t x = R 2 = 0.98 t (1.98) (32.0) d = 0.69 (3.33) (0.05) hecho con Eviews Que en detalle es : Dependent Variable: Y Method: Least Squares Date: 11/22/04 Time: 21:13 Sample(adjusted): Included observations: 20 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

20 Dado que con n = 20 y K 1 =2-1= 1 y α = 5% d L =1. 20 tenemos que d = 0.70 < d L =1. 20 se acepta la hipótesis de autocorrelación. Así, para corregir la autocorrelación, se dice que una estimación de r esta dada por r= 2-d/2 = /2= 1.30/2=0.65 Con la otra fórmula se obtiene r= 0.67 Si usamos r=0.67 para transformar las variables originales y utilizando el dato del año de 1959 : ( ) = y del mismo año el valor de las ventas, 2 = (0.67) para la primera observación transformado de Y y X, respectivamente. Para el resto de los valores transformados de Y e X se calcula de la siguiente manera: Puesto que con r= 0.67 obtenemos r cuadrada= , entonces usamos 1 para el primer dato de Y, que corresponde a 1959, y para no desecharlo y 1 r ˆ2 2 Y = Y 1 r = = 52.9(74) para el primer término de Y 1 1 = 2 = Y2 ry1 = (52.9) = = Y para el segundo y subsecuentes Y s, ver ecuaciones Y = Y ry = (53.8) = 4 = Y4 ry3 = (54.9) = 5 = Y5 ry4 = (58.2) = 6 = Y6 ry5 = (60.0) = 7 = Y7 ry6 = (63.4) = 8 = Y8 ry7 = (68.2) = 9 = Y9 ry8 = (78.0) = 10 = Y10 ry9 = (84.7) = 11 = Y11 ry10 = (90.6) = 12 = Y12 ry11 = (98.2) = 13 = Y13 ry12 = (101.7) = 14 = Y14 ry13 = (102.7) = 15 = Y15 ry14 = (108.3) = 16 = Y16 ry15 = (124.7) = 17 = Y17 ry16 = (157.9) = 18 = Y18 ry17 = (158.2) = 19 = Y19 ry18 = (170.2) = 20 = Y20 ry19 = (180.0) = Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y

21 Hacemos lo mismo para la transformación de las X s con r=0.67 y r cuadrada= usamos x 1 r 1 para el primer dato de X, que corresponde a 1959, y para no desecharlo ˆ2 2 X = X 1 r = = = 30.3(0.74) para el primer término de X X X X X X X X X X X X X X X X X X X X 1 1 = 2 = X2 rx 1 = (30.3) = = X3 rx 2 = (30.9) = = X4 rx 3 = (30.9) = = X5 rx 4 = (33.4) = = X6 rx 5 = (35.1) = = X7 rx 6 = (37.3) = = X8 rx 7 = (41.0) = = X9 rx 8 = (44.9) = = X10 rx 9 = (46.5) = = X11 rx 10 = (50.3) = = X12 rx 11 = (53.5) = = X13 rx 12 = (52.8) = = X14 rx 13 = (55.9) = = X15 rx 14 = (63.0) = = X16 rx 15 = (73.0) = = X17 rx16 = (84.8) = = X18 rx 17 = (86.6) = = X19 rx 18 = (98.8) = = X 20 rx 19 = (110.8) = ;para el segundo y subsecuentes X s, seguir ecuaciones Con los datos nuevos, transformados de Y e X, a partir de r, ahora corremos nuevamente la regresión sobre las variables transformadas (que identificaremos con ), sin omitir los datos de 1959, y se obtienen: De manera detallada: y t x = R 2 = 0.94 t (2.42) (0.08) d = 1.32 Dependent Variable: YCALC Method: Least Squares Date: 11/20/04 Time: 14:32 Sample: Included observations: 20 Variable Coefficient Std. Error t-statistic Prob. 149

22 C XCALC R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) Vemos en la tabla de Durbin y Watson que con α = 5%, n = 20 y K 1 = 1 se obtiene d U = 1.41 y d L =1.20. Por consiguiente decimos que d = 1.32, esta entre estos dos valores anteriores, lo cual significa que la autocorrelación esta indefinida. Por otra parte, es interesante señalar que cuando omitimos los datos de Y e X del primer año, 1959, al correr la ecuación de regresión se obtiene el siguiente valor de d cuyas estadísticas no difieren sustancialmente de la anterior. Dependent Variable: YTRNSF Method: Least Squares Date: 11/21/04 Time: 09:21 Sample(adjusted): Included observations: 19 after adjusting endpoints Variable Coefficient Std. Error t-statistic Prob. C XTRNSF R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) b) Ejemplo de Gujarati. A manera de comparación y de ilustración de los diversos métodos recién analizados, adicionalmente considérese el ejemplo siguiente elaborado por Gujarati ( 1990:323). (Véase la siguiente tabla ) Tabla con los datos originales Relación entre el índice de vacantes (IV) y la tasa de desempleo (U) 150

23 Año y trimestre IV =100 U% Fuente: Damodar Gujarati, «fhe Relation between Help-Wanted Index and the Unemployment Rate: A Statistical Analysis, », The Quarterly Review of Economics and Business, vol. 8,1968, pp El modelo de regresión seleccionado para la investigación empírica fue ln IV t = β 1 + β 2 ln U t + υ t donde IV es el índice de vacantes y U la tasa de desempleo 1. A priori, se espera que β 2 sea negativo. ( Por qué?) Suponiendo que se cumplen todos los supuestos MCO, se puede escribir la regresión estimada como: lnvi = lnut (0.1110) (0.0711) N = 24 t = (65.825) ( ) r 2 = d = De la regresión estimada, se observa que el d de Durbin-Watson indica la presencia de correlación serial positiva, Para 24 observaciones y 1 variable explicativa, la tabla Durbin-Watson al 5% muestra que d L = 1.27 Y d u = 1.45 Y el d estimado es de y está por debajo del límite crítico.' Puesto que la regresión arriba citada está contaminada de correlación serial, no se puede confiar en los errores estándar estimados y en las razones t por los argumentos ya anotados. Por consiguiente, es necesario aplicar medidas remediales. El remedio, por supuesto, depende de que p (coeficiente de 1 Por el momento, no debe preocupar el problema de simultaneidad, es decir si U ocasiona el IV o viceversa. 151

24 correlación) pueda ser estimado mediante uno o más de los métodos ya analizados. Para nuestro ejemplo ilustrativo el p estimado a partir de los diversos métodos es el siguiente: Método utilizado P Comentario d de Durban-Watson Véase ( ) d de Theil-Nagar Cochrane-Orcutt Véase ejercicio 12.6 Iteración I Iteración II Iteración III Iteración IV Iteración V Dos etapas, de Durban Como puede ver el lector, el d de Durbin-Watson, el d modificado de Theil-Nagar, el paso l del procedimiento de dos etapas de Cochrane-Orcutt y el procedimiento iterativo de Cochrane-Orcutt todos producen estimaciones de p que son bastante similares; pero la obtenida de Durbin, dos etapas, es bastante diferente 2. La pregunta práctica es entonces: Cuál método de estimación de p se debe seleccionar en la práctica? Se dará respuesta a esta pregunta en breve. Por el momento, se continuará con nuestro ejemplo y se ilustrará la forma de estimar la ecuación en diferencia generalizada (o estimación MCG factible) utilizando uno de estos P. Se utiliza la aproximación de d en muestras pequeñas de Theil-Nagar. Utilizando la fórmula dada en el ejercicio dos hojas atrás, se obtiene ρˆ = Con esta estimación, se transforma la información de la siguiente manera: InIV InU t = ln IVt ln IVt 1 t = InU t inU t 1 Es decir, se resta veces el valor anterior de la variable de su valor actual. Puesto que la primera observación no tiene un valor precedente, se tienen dos opciones: (1) eliminarla del análisis, o (2) incluirla mediante la transformación de Prais-Winsten, la cual, en el presente caso, se convierte en 2 Puede haber una razón técnica para esta diferencia. Si se examina ( ) cuidadosamente, se verá que hay dos estimaciones de p, una obtenida directamente del valor rezagado de Y y otra obtenida al dividir el coeficiente del valor rezagado de X por el coeficiente de X. No hay garantía de que las dos estimaciones sean idénticas. El problema real aquí es que ( ) es intrínsecamente un modelo de regresión no lineal (en parámetros) y debe ser estimado mediante procedimientos de estimación de regresión no lineal, que están por fuera del alcance de este libro. 152

25 2 [ 1 ( ) InIV1] y ( ) 2 [ 1 InU1 ]. Se presentan los resultados en las dos formas. Omitiendo la primera observación ln IV t = In U t N = 23 ee = (0.0886) (0.1328) r 2 = t = (35.326) ( ) d=1.77 donde las variables con asterisco son las transformadas. como se indicó anteriormente. Obsérvese que = ˆ β ( ) ˆ 1 1 ˆ ρ = β1( ) de donde se obtiene 1 ˆβ = que es comparable con el 1 ˆβ de la regresión original (12.7.1). Incluyendo la primera observación (transformación Prais- Winsten) 3 39 ln IV = In t U t N = 24 ee = (0.0813) (0.1198) r 2 = t = (38.583) ( ) d = 1.83 (12.7.3) Comparando la regresión original (contaminada de autocorrelación) con la regresión transformada y la regresión Prais-Winsten se observa que los resultados son generalmente comparables 4. La pregunta práctica es: se ha resuelto el problema de autocorrelación? Si se toman los valores Durbin-Watson estimados reportados por sus valores observados, parecería que ya no hay autocorrelación de (primer orden) ( Por qué?) Sin embargo, como lo anota Kenneth White en su SHAZAM (p.86).las tablas de Durbin-Watson pueden no ser apropiadas para probar la presencia de correlación serial en la información, que ya ha sido ajustada por autocorrelación. Por consiguiente, se puede utilizar una de las pruebas no paramétricas analizada anteriormente. Para la regresión original puede demostrarse que con base en la prueba de rachas, no se puede rechazar la hipótesis de que no hay correlación serial en los residuales de esa regresión. (Véase ejercicio 12.20). Para la regresión Prais-Winsten (12.7.3) puede también demostrarse que los residuales estimados de esa regresión están libres del problema de correlación serial. (Verífiquese esto explícitamente. Como información. hay 11 residuales positivos. 13 residuales negativos y el número de rachas es 12. Si se desea probar hipótesis sobre los parámetros. se puede proceder en la forma usual. Pero 3 Un punto técnico: El término de intercepto en la regresión Prais-Winsten es algo complicado. Como resultado, se debe efectuar esta regresión a través del origen. El término de intercepto reportado en (12.7.3) no ha sido mezclado. Para mayores detalles, véase Kenneth J. White y Linda T.M. Bui, Computer Handhook Using SHAZAM, McGraw-Hill, New York, 1985, p. 86. Para detalles teóricos, véase Jan Kmenta. Elements o/ Econometrics, 2a. ed., Macmillan, New York, pp Pero recuérdese que en muestras pequeñas. los resultados podrían ser sensibles a la inclusión o exclusión de la primera observación. 153

26 obsérvese que como se está estimando p. las pruebas usuales de significancia serán estrictamente válidas solamente en muestras grandes. En muestras pequeñas, los resultados de las pruebas serán solo aproximados. Por ejemplo, de (12.7.2) se puede concluir que el verdadero coeficiente de pendiente es estadísticamente diferente de cero. Pero se debe tener cautela aquí puesto que nuestra muestra de 23 observaciones no es demasiado grande. Comparación de los métodos. Retornando a la pregunta planteada anteriormente: Cuál método de estimación de p se debe utilizar en la práctica para efectuar la regresión en diferencia generalizada o MCG factible? Si se está tratando con muestras grandes (digamos, por encima de observaciones). no hay gran diferencia en cuál método sea seleccionado. ya que todos producen más o menos resultados similares. Pero generalmente este no es el caso en muestras finitas o pequeñas ya que los resultados pueden depender de cuál método se seleccione. En muestras pequeñas, entonces, cuál método es preferible? Desafortunadamente, no hay una respuesta definitiva a esta pregunta porque los estudios de muestras pequeñas realizados mediante los diversos métodos, a través de las simulaciones de Monte Carlo, no favorecen consistentemente ninguno de los métodos. En la práctica, sin embargo, el método frecuentemente utilizado es el método iterativo de Cochrane- Orcutt, que ya ha sido incorporado a diversos programas de computado tales como ET; SHAZAM, TSP Y SAS. A medida que el software de computador se hace más sofisticado, se pueden utilizar métodos de estimación de p orientados específicamente para tratar con tales muestras pequeñas. De hecho, en la actualidad, paquetes como SAS contienen MV y algunos procedimientos no lineales de estimación de p (Véase el procedimiento AUTOREG de SAS). Por otra parte es conveniente señalar que para llegar a estos resultados transformando las variables originales, al igual que en el ejemplo anterior, se utilizó el algoritmo que se expresa en la siguiente tabulación. IV t U t LnIV t LnU t InIV t = ln IVt ln IVt 1 InU t = InU t lnU t Mediante estas transformaciones se obtuvieron las ecuaciones de regresión que permitieron, primero, identificar la autocorrelación y segundo, eliminarla. Así, para verificar la eliminación de autocorrelación, hacemos lo siguiente: a)con N=23 y k-1=1 α=5% tenemos que d L =1.257 y d u =1.437, comparamos y vemos que: d=

27 >d u =1.437, luego como d>d u no hay correlación y aceptamos H o : r=0. b)con N=24, y k-1=1 α=5% obtenemos en tablas d L =1.273 y d u =1.446, comparamos d= >d u =1.446, como d>d u, decimos que no hay correlación y aceptamos H o : r=0. X.3 MULTICOLINEALIDAD Se dice que existe multicolinealidad cuando dos o más variables explicativas están altamente correlacionadas en el modelo de regresión; esta alta correlación impide conocer el efecto individual de cada una de estas variables explicativas sobre la variable dependiente. X.3.1 Consecuencias de la correlación entre variables explicativas. Los coeficientes estimados con el método de mínimos cuadrados ordinarios, en opinión de D. Salvatore (misma obra citada anteriormente, página 151), pueden ser estadísticamente insignificantes, aun cuando se vea que R 2 tenga valores muy altos y, lo que es más importante, los coeficientes estimados aun siguen siendo INSESGADOS. Es más, Salvatore menciona que si el propósito principal de la regresión es el PRONOSTICO la multicolinealidad no es un problema si el mismo patrón de multicolinealidad persiste durante el período pronosticado. X.3.2 Cómo se identifica la multicolinealidad? 1. Cuando se observa que alguno o ninguno de los coeficientes de las variables explicativas es estadísticamente significativo, además de que R 2 resulta alto y F muestra que en conjunto si son significativos estadísticamente. Carrascal (2001:162). 2. También se detecta la multicolinealidad cuando se obtienen elevados coeficientes de correlación simple o parciales, entre las variables explicatorias; sin embargo, esto no es muy seguro porque puede presentarse multicolinealidad suficiente aun si los coeficientes de correlación simple o parciales son relativamente bajos (menores que 0.5). Derivado de lo anterior es que Carrascal (2001:174) propone calcular la matriz de correlaciones entre cada par de regresores, es decir hacer análisis de correlación simple; si la correlación es elevada (próxima a ± 1) es indicativo de que hay multicolinealidad. X.3.3 Métodos para reducir o eliminar la multicolinealidad a) Se amplia el tamaño de los datos muestrales; b) Utilizar información a priori; c) Se transforma la relación funcional: incrementando o deflactando las variables del modelo. 155

28 d) Se omite una de las variables altamente colineales. En este caso puede surgir un problema de especificación o error si la teoría señala que dicha variable omitida se debe incluir en el modelo, por ello no es recomendable. NOTA: La transformación de variables incluidas en el modelo para que la nuevas variables transformadas presenten correlaciones lineales más bajas se hace incrementando las variables, como ya se indicó y, en el caso de la deflactación de las mismas, se hace con INPC u otro apropiado, de modo que el modelo ahora se expresa a precios constantes y con ello se elimina la multicolinealidad. X.3.4 Ejemplos numéricos para identificar y resolver la multicolinealidad. D. Salvatore en la página 155 de la obra citada plantea el siguiente caso: La producción en toneladas, Q, los insumos de trabajo en horas-hombre, L, así como los insumos de capital en horas-máquina, K, así como sus logaritmos naturales, lnq, InL. lnk, respectivamente, de 15 empresas norteamericanas. Empresa Q L K LnQ Lnl LnK 1 2,350 2,334 1, ,470 2,425 1, ,110 2,230 1, ,560 2,463 1, ,650 2,565 2, ,240 2,278 1, ,430 2,380 1, ,530 2,437 1, ,550 2,446 1, ,450 2,403 1, ,290 2,301 1, ,160 2,253 1, ,400 2,367 1, ,490 2,430 1, ,590 2,470 2, b1 b2 u a) Con esos datos ajustó una función de producción Cobb Douglas de la forma Q = b0l K e y encontró R 2 así como el coeficiente de correlación simple entre lnl y lnk; para ello transformó los datos en forma de logaritmo natural y obtuvo: lnq = lnl lnk R 2 = (1.07) ( 1.36) 2 = R 156

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11 Estadística II Tema 4. Regresión lineal simple Curso 010/11 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

Econometría I (LADE). Curso 2001/2002 PRÁCTICA 08

Econometría I (LADE). Curso 2001/2002 PRÁCTICA 08 PRÁCTICA 08 HETEROCEDASTICIDAD Y NORMALIDAD En el fichero Datos08.wf1 tenemos la renta y consumo anual (en dólares) para 500 familias con el que se pretende estimar el siguiente modelo: C i = β + β R +

Más detalles

Análisis Estadístico

Análisis Estadístico Universidad Torcuato Di Tella Análisis Estadístico Examen Final 05/07/2017 TEMA 1 Nombre y Apellido: Número de legajo: Instrucciones El examen tiene dos partes. La parte A (40 puntos) contiene 10 preguntas

Más detalles

Segunda práctica de REGRESIÓN.

Segunda práctica de REGRESIÓN. Segunda práctica de REGRESIÓN. DATOS: fichero practica regresión 2.sf3. Objetivo: El objetivo de esta práctica es interpretar una regresión y realizar correctamente la diagnosis. En la primera parte se

Más detalles

Teoría de la decisión Estadística

Teoría de la decisión Estadística Conceptos básicos Unidad 7. Estimación de parámetros. Criterios para la estimación. Mínimos cuadrados. Regresión lineal simple. Ley de correlación. Intervalos de confianza. Distribuciones: t-student y

Más detalles

EXAMEN ECONOMETRÍA II GRUPO DADE Prof. Rafael de Arce 3 de septiembre de Nombre y Apellidos:

EXAMEN ECONOMETRÍA II GRUPO DADE Prof. Rafael de Arce 3 de septiembre de Nombre y Apellidos: EXAMEN ECONOMETRÍA II GRUPO DADE Prof. Rafael de Arce 3 de septiembre de 2004 Nombre y Apellidos: PRIMERA PARTE: (En las preguntas tipo test sólo debe marcarse una en cada caso): 1. Para determinar si

Más detalles

Guía de taller de Economía Cuantitativa V. Profesor: ALBERTO REYES DE LA ROSA.

Guía de taller de Economía Cuantitativa V. Profesor: ALBERTO REYES DE LA ROSA. Guía de taller de Economía Cuantitativa V. Profesor: ALBERTO REYES DE LA ROSA. Debe ser resuelta a mano, citar bibliografía (no usar internet). Términos clave 1. Ceteris Paribus 2. Grado de libertad 3.

Más detalles

UNIVERSIDAD NACIONAL DE TRUJILLO ESCUELA PROFESIONAL DE ECONOMÍA APUNTES DE CLASE ECUACIONES SIMULTÁNEAS: EJERCICIO 19.

UNIVERSIDAD NACIONAL DE TRUJILLO ESCUELA PROFESIONAL DE ECONOMÍA APUNTES DE CLASE ECUACIONES SIMULTÁNEAS: EJERCICIO 19. UNIVERSIDAD NACIONAL DE TRUJILLO ESCUELA PROFESIONAL DE ECONOMÍA APUNTES DE CLASE ECUACIONES SIMULTÁNEAS: EJERCICIO 19.15 ECONOMETRÍA 2 Econometría.weebly.com Wilhem.weebly.com Ejercicio 19.15 Considérese

Más detalles

Regresión con heterocedasticidad y autocorrelación

Regresión con heterocedasticidad y autocorrelación Regresión con heterocedasticidad y autocorrelación Tema 6 Regresión con heterocedasticidad La heterocedasticidad significa que var( i ) cte Es la norma, no la excepción, en especial con datos transversales

Más detalles

ECONOMETRÍA I LICENCIATURA EN ECONOMÍA, Curso PRÁCTICA 1 (LECCIÓN 1): EN BUSCA DE ESPECIFICACIÓN Por Beatriz González López-Valcárcel

ECONOMETRÍA I LICENCIATURA EN ECONOMÍA, Curso PRÁCTICA 1 (LECCIÓN 1): EN BUSCA DE ESPECIFICACIÓN Por Beatriz González López-Valcárcel ECONOMETRÍA I LICENCIATURA EN ECONOMÍA, Curso 2003-2004 PRÁCTICA 1 (LECCIÓN 1): EN BUSCA DE ESPECIFICACIÓN Por Beatriz González López-Valcárcel En esta práctica, aplicaremos los contrastes de especificación

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Regresión con autocorrelación

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Regresión con autocorrelación ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Regresión con autocorrelación Introducción: Consideramos la regresión y t = β 0 + β 1 x 1t + + β k x kt + + β K x Kt + u t = β x t + u t con las hipótesis

Más detalles

Estadística Avanzada y Análisis de Datos

Estadística Avanzada y Análisis de Datos 1-1 Estadística Avanzada y Análisis de Datos Javier Gorgas y Nicolás Cardiel Curso 2006-2007 2007 Máster Interuniversitario de Astrofísica 1-2 Introducción En ciencia tenemos que tomar decisiones ( son

Más detalles

Econometria. 4. Modelo de Regresión Lineal Simple: Inferencia. Prof. Ma. Isabel Santana

Econometria. 4. Modelo de Regresión Lineal Simple: Inferencia. Prof. Ma. Isabel Santana Econometria 4. Modelo de Regresión Lineal Simple: Inferencia Prof. Ma. Isabel Santana MRLS: Inferencia Hasta ahora nos hemos ocupado solamente de la estimación de los parámetros del modelo de regresión

Más detalles

INTRODUCCION AL ECONOMETRIC VIEWS. Aquí se introduce la frecuencia y las fechas de comienzo y final de los datos.

INTRODUCCION AL ECONOMETRIC VIEWS. Aquí se introduce la frecuencia y las fechas de comienzo y final de los datos. INTRODUCCION AL ECONOMETRIC VIEWS Introducción de datos 1. Creando una hoja de trabajo (workfile) File New Workfile Aquí se introduce la frecuencia y las fechas de comienzo y final de los datos. 2. Importación

Más detalles

Modelo de Regresión Lineal Múltiple. Multicolinealidad. Dr. Víctor Aguirre Torres ITAM

Modelo de Regresión Lineal Múltiple. Multicolinealidad. Dr. Víctor Aguirre Torres ITAM Modelo de Regresión Lineal Múltiple. Multicolinealidad Dr. Víctor Aguirre Torres ITAM Temas Qué es la multicolinealidad? Consecuencias sobre la estimación. Detección. Algunas contramedidas. Guión 19. Dr.

Más detalles

con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es

con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es TEMA 2: EXTENSIONES DEL MODELO DE REGRESIÓN LINEAL MÚLTIPLE: MULTICOLINEALIDAD Y TRANSFORMACIONES LINEALES. Wooldridge: Capítulos 6 (apartado 6.1) y 7 Gujarati: Capítulos 9 (apartado 9.8), 10 y 12 1. MULTICOLINEALIDAD

Más detalles

Regresión con heterocedasticidad y autocorrelación

Regresión con heterocedasticidad y autocorrelación Regresión con heterocedasticidad y autocorrelación Tema 6 Regresión con heterocedasticidad La heterocedasticidad significa que var( i ) cte Es la norma, no la excepción, en especial con datos transversales

Más detalles

La eficiencia y el equilibrio competitivo

La eficiencia y el equilibrio competitivo La eficiencia y el equilibrio competitivo Denis R. Villalobos Araya, Ph.D Lima, Perú Junio 2009 La eficiencia y el equilibrio competitivo Una asignación de recursos es eficiente si maximiza el excedente

Más detalles

Modelo de Regresión Lineal Múltiple. Normalidad. Dr. Víctor Aguirre Torres ITAM

Modelo de Regresión Lineal Múltiple. Normalidad. Dr. Víctor Aguirre Torres ITAM Modelo de Regresión Lineal Múltiple. Normalidad Dr. Víctor Aguirre Torres ITAM Temas Porqué ocurre falta de normalidad Consecuencias Detección Enfoques para manejarla Guión 18. Dr. V. Aguirre Porqué ocurre?

Más detalles

ECONOMETRÍA II PRÁCTICAS DE ORDENADOR. Práctica 3

ECONOMETRÍA II PRÁCTICAS DE ORDENADOR. Práctica 3 ECONOMETRÍA II PRÁCTICAS DE ORDENADOR Práctica 3 Considere la ecuación de inversión RINV t = β 1 +β 2 RPIB t +β 3 r t +u t donde RINV es la inversión real privada, RPIB es el PIB real y r es el tipo de

Más detalles

EXTENSIÓN DEL MODELO DE REGRESIÓN LINEAL DE DOS VARIABLES

EXTENSIÓN DEL MODELO DE REGRESIÓN LINEAL DE DOS VARIABLES EXTENSIÓN DEL MODELO DE REGRESIÓN LINEAL DE DOS VARIABLES REGRESIÓN A TRAVÉS DEL ORIGEN Y Y i = β 1 + β 2X i + ε i Y i = β 2X i + ε i X A MENOS QUE EXISTA UNA EXPECTATIVA A PRIORI MUY FUERTE ES ACONSEJABLE

Más detalles

Errores de especificación. Series simuladas

Errores de especificación. Series simuladas Estimación modelo correcto Dependent Variable: Y Date: 05/13/02 Time: 17:07 Sample: 2 100 Included observations: 99 Errores de especificación. Series simuladas C 5.376164 0.253524 21.20578 0.0000 X1 0.954713

Más detalles

(5 x 3) ( 3 x 5) ( 5 x 1) b1 335, ,3-26, ,59 b2 = 0, , ,8 12,85 = 2,94 b3-26,79 13,8 2, ,31

(5 x 3) ( 3 x 5) ( 5 x 1) b1 335, ,3-26, ,59 b2 = 0, , ,8 12,85 = 2,94 b3-26,79 13,8 2, ,31 VENTAS PUBLIC. PRECIOS 1990 0, 0, 10 1991 1 0, 1992 2 0,8 199, 0,8 199 1, Y X U 0, 1 0, 10 U1 Modelo matricial con término constante 1 1 0, U2 (el vector de unos recoge ese término constante) 2 1 0,8 U,

Más detalles

REGRESIÓN LINEAL CON SPSS

REGRESIÓN LINEAL CON SPSS ESCUELA SUPERIOR DE INFORMÁTICA Prácticas de Estadística REGRESIÓN LINEAL CON SPSS 1.- INTRODUCCIÓN El análisis de regresión lineal es una técnica estadística utilizada para estudiar la relación entre

Más detalles

EJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos

EJERCICIO T1 NOMBRE: Correctas Incorrectas En Blanco Puntos ECONOMETRÍA EJERCICIO T1 APELLIDOS: NOMBRE: FIRMA: GRUPO: DNI: Pregunta 1 A B C En Blanco Pregunta A B C En Blanco Pregunta 3 A B C En Blanco Pregunta 4 A B C En Blanco Pregunta 5 A B C En Blanco Pregunta

Más detalles

Estadística II Tema 3. Comparación de dos poblaciones. Curso 2010/11

Estadística II Tema 3. Comparación de dos poblaciones. Curso 2010/11 Estadística II Tema 3. Comparación de dos poblaciones Curso 2010/11 Tema 3. Comparación de dos poblaciones Contenidos Comparación de dos poblaciones: ejemplos, datos apareados para la reducción de la variabilidad

Más detalles

Modelo 1: MCO, usando las observaciones 1994: :03 (T = 218) Variable dependiente: INFLACION

Modelo 1: MCO, usando las observaciones 1994: :03 (T = 218) Variable dependiente: INFLACION UNIVERSIDAD NACIONAL DE PIURA FACULTAD DE ECONOMIA DPTO. ACAD. DE ECONOMIA 1º El investigador especifica el modelo siguiente: EXAMEN PARCIAL DE ECONOMETRIA I Se le pide estimar el modelo por el método

Más detalles

Las variables incluidas en el modelo se interpretan de la siguiente forma:

Las variables incluidas en el modelo se interpretan de la siguiente forma: PRÁCTICA 4: EL MODELO LINEAL DE PROBABILIDAD - Estimar un modelo lineal de probabilidad - Interpretar los coeficientes estimados - Obtener las probabilidad estimadas - Contrastar la normalidad de las perturbaciones

Más detalles

EXAMEN ECONOMETRÍA I GRUPO 53 - DADE 8 de septiembre de 2005 Prof. Rafael de Arce

EXAMEN ECONOMETRÍA I GRUPO 53 - DADE 8 de septiembre de 2005 Prof. Rafael de Arce EXAMEN ECONOMETRÍA I GRUPO 53 - DADE 8 de septiembre de 005 Prof. Rafael de Arce NOMBRE: DNI: PARTE I.- TEST 1. La hipótesis de rango pleno en el MBRL supone: Que las variables explicativas no tengan ninguna

Más detalles

Estadística II Examen Final - Enero 2012. Responda a los siguientes ejercicios en los cuadernillos de la Universidad.

Estadística II Examen Final - Enero 2012. Responda a los siguientes ejercicios en los cuadernillos de la Universidad. Estadística II Examen Final - Enero 2012 Responda a los siguientes ejercicios en los cuadernillos de la Universidad. No olvide poner su nombre y el número del grupo de clase en cada hoja. Indique claramente

Más detalles

Regresión lineal múltiple

Regresión lineal múltiple Regresión lineal múltiple José Gabriel Palomo Sánchez gabriel.palomo@upm.es E.U.A.T. U.P.M. Julio de 2011 Índice I 1 El modelo de regresión lineal múltiple 1 El modelo de regresión múltiple. Introducción

Más detalles

Índice General de Ventas en Grandes Almacenes y su logaritmo

Índice General de Ventas en Grandes Almacenes y su logaritmo En los gráficos y cuadros que se presentan en las páginas siguientes se presentan resultados relativos a la variable Índice General de Ventas en grandes superficies en España con periodicidad mensual desde

Más detalles

Problemas resueltos. Temas 10 y 11 11, 9, 12, 17, 8, 11, 9, 4, 5, 9, 14, 9, 17, 24, 19, 10, 17, 17, 8, 23, 8, 6, 14, 16, 6, 7, 15, 20, 14, 15.

Problemas resueltos. Temas 10 y 11 11, 9, 12, 17, 8, 11, 9, 4, 5, 9, 14, 9, 17, 24, 19, 10, 17, 17, 8, 23, 8, 6, 14, 16, 6, 7, 15, 20, 14, 15. Temas 10 y 11. Contrastes paramétricos de hipótesis. 1 Problemas resueltos. Temas 10 y 11 1- las puntuaciones en un test que mide la variable creatividad siguen, en la población general de adolescentes,

Más detalles

PRACTICA 3. CONTRASTES Y PREDICCION.

PRACTICA 3. CONTRASTES Y PREDICCION. ECONOMETRIA I (LADE). CURSO 2001/2002 PRACTICA 3. CONTRASTES Y PREDICCION. En el archivo prac3.xls disponemos de las siguientes observaciones correspondientes a un país: Y: consumo privado, medido en millones

Más detalles

Distribuciones bidimensionales. Regresión.

Distribuciones bidimensionales. Regresión. Temas de Estadística Práctica Antonio Roldán Martínez Proyecto http://www.hojamat.es/ Tema 5: Distribuciones bidimensionales. Regresión. Resumen teórico Resumen teórico de los principales conceptos estadísticos

Más detalles

EXAMEN ECONOMETRÍA I GRUPO 31 LADE Prof. Rafael de Arce 3 de septiembre de Nombre y Apellidos:

EXAMEN ECONOMETRÍA I GRUPO 31 LADE Prof. Rafael de Arce 3 de septiembre de Nombre y Apellidos: EXAMEN ECONOMETRÍA I GRUPO 31 LADE Prof. Rafael de Arce 3 de septiembre de 2004 Nombre y Apellidos: PRIMERA PARTE: Preguntas tipo test (sólo debe marcarse una en cada caso): 1. En el Modelo Básico de Regresión

Más detalles

Econometría de Económicas

Econometría de Económicas Econometría de Económicas Casos 1 y 3 Análisis de diferentes formas funcionales en un modelo de Comercio Exterior. El problema de la heterocedasticidad. Curso 004-005 Profesoras Amparo Sancho Guadalupe

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10 Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

NOMBRE: I. TEST (debe marcar sólo un resultado como válido en cada pregunta)

NOMBRE: I. TEST (debe marcar sólo un resultado como válido en cada pregunta) ECONOMETRÍA I Examen DADE 20 de enero de 2005 NOMBRE: I. TEST (debe marcar sólo un resultado como válido en cada pregunta) 1. El contraste del predictor Sirve para determinar si las predicciones del modelo

Más detalles

Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones

Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una

Más detalles

ESTADISTICA APLICADA: PROGRAMA

ESTADISTICA APLICADA: PROGRAMA Pág. 1 de 5 ESTADISTICA APLICADA: PROGRAMA a) OBJETIVOS Y BLOQUE 1: Teoría de Probabilidades 1.1 Comprender la naturaleza de los experimentos aleatorios y la estructura de los espacios de probabilidades,

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales Tema 5. Muestreo y distribuciones muestrales Contenidos Muestreo y muestras aleatorias simples La distribución de la media en el muestreo La distribución de la varianza muestral Lecturas recomendadas:

Más detalles

TRABAJO PRÁCTICO ESTADISTICA APLICADA (746)

TRABAJO PRÁCTICO ESTADISTICA APLICADA (746) UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADEMICO AREA DE MATEMATICA TRABAJO PRÁCTICO ESTADISTICA APLICADA (746) JOSE GREGORIO SANCHEZ CASANOVA C.I. V-9223081 CARRERA: 610 SECCION Nº 1 SAN CRISTOBAL,

Más detalles

Comparación de Líneas de Regresión

Comparación de Líneas de Regresión Comparación de Líneas de Regresión Resumen El procedimiento de Comparación de Líneas de Regresión esta diseñado para comparar líneas de regresión relacionas con Y y X en dos o mas niveles de un factor

Más detalles

5 Relaciones entre variables.

5 Relaciones entre variables. ANÁLISIS EPLORATORIO DE DATOS 39 ANÁLISIS EPLORATORIO DE DATOS 40 Relaciones entre variables..1 Ejercicios. Ejercicio.1 En una muestra de 0 individuos se recogen datos sobre dos medidas antropométricas

Más detalles

SESIÓN PRÁCTICA 7: REGRESION LINEAL SIMPLE PROBABILIDAD Y ESTADÍSTICA. PROF. Esther González Sánchez. Departamento de Informática y Sistemas

SESIÓN PRÁCTICA 7: REGRESION LINEAL SIMPLE PROBABILIDAD Y ESTADÍSTICA. PROF. Esther González Sánchez. Departamento de Informática y Sistemas SESIÓN PRÁCTICA 7: REGRESION LINEAL SIMPLE PROBABILIDAD Y ESTADÍSTICA PROF. Esther González Sánchez Departamento de Informática y Sistemas Facultad de Informática Universidad de Las Palmas de Gran Canaria

Más detalles

Nivel socioeconómico medio. Nivel socioeconómico alto SI 8 15 28 51 NO 13 16 14 43 TOTAL 21 31 42 94

Nivel socioeconómico medio. Nivel socioeconómico alto SI 8 15 28 51 NO 13 16 14 43 TOTAL 21 31 42 94 6. La prueba de ji-cuadrado Del mismo modo que los estadísticos z, con su distribución normal y t, con su distribución t de Student, nos han servido para someter a prueba hipótesis que involucran a promedios

Más detalles

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág.

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág. ÍNDICE CAPITULO UNO Pág. Concepto de Estadística 1 Objetivo 1 Diferencia entre estadísticas y estadística 1 Uso de la estadística 1 Divisiones de la estadística 1 1. Estadística Descriptiva 1 2. Estadística

Más detalles

UNIDAD III. Qué es la inferencia en el modelo líneal?

UNIDAD III. Qué es la inferencia en el modelo líneal? UNIDAD III Qué es la inferencia en el modelo líneal? UNIDAD III Qué es la inferencia en el modelo lineal? Con formato: Fuente: Times New Roman Toda empresa extraordinaria sólo puede lograrse mediante la

Más detalles

MULTICOLINEALIDAD EN LAS REGRESORAS Y NORMALIDAD DEL TÉRMINO DE ERROR EN LOS MODELOS DE REGRESIÓN LINEAL

MULTICOLINEALIDAD EN LAS REGRESORAS Y NORMALIDAD DEL TÉRMINO DE ERROR EN LOS MODELOS DE REGRESIÓN LINEAL MULTICOLINEALIDAD EN LAS REGRESORAS Y NORMALIDAD DEL TÉRMINO DE ERROR EN LOS MODELOS DE REGRESIÓN LINEAL Noviembre, 2011 Multicolinealidad El termino multicolinealidad se le atribuye originalmente a Frisch

Más detalles

Anexo C. Introducción a las series de potencias. Series de potencias

Anexo C. Introducción a las series de potencias. Series de potencias Anexo C Introducción a las series de potencias Este apéndice tiene como objetivo repasar los conceptos relativos a las series de potencias y al desarrollo de una función ne serie de potencias en torno

Más detalles

Julia García Salinero. Departamento de Investigación FUDEN. Introducción

Julia García Salinero. Departamento de Investigación FUDEN. Introducción 1 Análisis de datos en los estudios epidemiológicos V Prueba de Chi cuadrado y Análisis de la varianza. Departamento de Investigación FUDEN. Introducción Continuamos el análisis de los estudios epidemiológicos,

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO Anejo Análisis estadístico de temperaturas Análisis estadístico de temperaturas - 411 - D.1 INTRODUCCIÓN Y OBJETIVO El presente anejo tiene por objeto hacer un análisis estadístico de los registros térmicos

Más detalles

11. PRUEBAS NO PARAMÉTRICAS

11. PRUEBAS NO PARAMÉTRICAS . PRUEBAS NO PARAMÉTRICAS Edgar Acuña http://math.uprm/edu/~edgar UNIVERSIDAD DE PUERTO RICO RECINTO UNIVERSITARIO DE MAYAGUEZ PRUEBAS NO PARAMÉTRICAS Se estudiarán las pruebas noparamétricas, las cuales

Más detalles

Tema 3. 3. Correlación. Correlación. Introducción

Tema 3. 3. Correlación. Correlación. Introducción 3-1 Introducción Tema 3 Correlación Coeficiente de correlación lineal de Pearson Coeficiente de correlación poblacional Contraste paramétrico clásico Transformación de Fisher Correlación bayesiana Test

Más detalles

Tema 1. Modelo de diseño de experimentos (un factor)

Tema 1. Modelo de diseño de experimentos (un factor) Tema 1. Modelo de diseño de experimentos (un factor) Estadística (CC. Ambientales). Profesora: Amparo Baíllo Tema 1: Diseño de experimentos (un factor) 1 Introducción El objetivo del Análisis de la Varianza

Más detalles

REGRESIÓN CON DOS VARIABLES: ESTIMACIÓN DE INTERVALOS Y PRUEBA DE HIPÓTESIS

REGRESIÓN CON DOS VARIABLES: ESTIMACIÓN DE INTERVALOS Y PRUEBA DE HIPÓTESIS REGRESIÓN CON DOS VARIABLES: ESTIMACIÓN DE INTERVALOS Y PRUEBA DE HIPÓTESIS Teoría de la estimación: Estimación puntual Estimación por intervalos ESTIMACIÓN DE INTERVALOS: IDEAS BÁSICAS 1 Lo que se busca

Más detalles

Test de Kolmogorov-Smirnov

Test de Kolmogorov-Smirnov Test de Kolmogorov-Smirnov Georgina Flesia FaMAF 2 de junio, 2011 Test de Kolmogorov-Smirnov El test chi-cuadrado en el caso continuo H 0 : Las v.a. Y 1, Y 2,..., Y n tienen distribución continua F. Particionar

Más detalles

CAPÍTULO 4 DESARROLLO DEL MODELO ECONOMÉTRICO

CAPÍTULO 4 DESARROLLO DEL MODELO ECONOMÉTRICO CAPÍTULO 4 DESARROLLO DEL MODELO ECONOMÉTRICO 4.1 La Regresión Lineal El objetivo principal de este estudio es obtener los riesgos que afectan a las instituciones del sector bancario. como se mencionó

Más detalles

6. ESTIMACIÓN DE PARÁMETROS

6. ESTIMACIÓN DE PARÁMETROS PROBABILIDAD Y ESTADÍSTICA Sesión 7 6. ESTIMACIÓN DE PARÁMETROS 6.1 Características el estimador 6. Estimación puntual 6..1 Métodos 6..1.1 Máxima verosimilitud 6..1. Momentos 6.3 Intervalo de confianza

Más detalles

Grado en Química Bloque 1 Funciones de una variable

Grado en Química Bloque 1 Funciones de una variable Grado en Química Bloque Funciones de una variable Sección.5: Aplicaciones de la derivada. Máximos y mínimos (absolutos) de una función. Sea f una función definida en un conjunto I que contiene un punto

Más detalles

METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD

METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD Análisis de sensibilidad con la tabla simplex El análisis de sensibilidad para programas lineales implica el cálculo de intervalos para los coeficientes

Más detalles

Pruebas de bondad de ajuste

Pruebas de bondad de ajuste Pruebas de bondad de ajuste Existen pruebas cuantitativas formales para determinar si el ajuste de una distribución paramétrica a un conjunto de datos es buena en algún sentido probabilístico. Objetivo:

Más detalles

Estadística Inferencial. Sesión 5. Prueba de hipótesis

Estadística Inferencial. Sesión 5. Prueba de hipótesis Estadística Inferencial. Sesión 5. Prueba de hipótesis Contextualización. En la práctica, es frecuente tener que tomar decisiones acerca de poblaciones con base en información de muestreo. Tales decisiones

Más detalles

Validación de los métodos microbiológicos HERRAMIENTAS ESTADISTICAS. Bqca. QM Alicia I. Cuesta, Consultora Internacional de la FAO

Validación de los métodos microbiológicos HERRAMIENTAS ESTADISTICAS. Bqca. QM Alicia I. Cuesta, Consultora Internacional de la FAO Validación de los métodos microbiológicos HERRAMIENTAS ESTADISTICAS Bqca. QM Alicia I. Cuesta, Consultora Internacional de la FAO Objetivos de la clase Objetivos de la estadística. Concepto y parámetros

Más detalles

Hoja de ejercicios 4 Econometría II Curso 2011/2012

Hoja de ejercicios 4 Econometría II Curso 2011/2012 Hoja de ejercicios 4 Econometría II Curso 2011/2012 1) Se dispone de las series de diferencias anuales del logaritmo de las series mensuales índice de precios al consumo en España y la Comunidad de Andalucía

Más detalles

CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS SIMCE

CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS SIMCE CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS SIMCE SIMCE Unidad de Currículum y Evaluación Ministerio de Educación 011 Índice 1. Antecedentes Generales 1. Comparación de puntajes promedios.1. Errores

Más detalles

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta B 1. Queremos invertir una cantidad de dinero en dos tipos

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales 1 Sistemas de ecuaciones y matrices Definición 1 Una ecuación lineal en las variables x 1, x 2,..., x n es una ecuación de la forma con a 1, a 2... y b números reales. a

Más detalles

EJERCICIO T2 NOMBRE: Correctas Incorrectas En Blanco Puntos

EJERCICIO T2 NOMBRE: Correctas Incorrectas En Blanco Puntos ECONOMETRÍA EJERCICIO T APELLIDOS: NOMBRE: FIRMA: GRUPO: DNI: Pregunta A B C En Blanco Pregunta A B C En Blanco Pregunta 3 A B C En Blanco Pregunta 4 A B C En Blanco Pregunta 5 A B C En Blanco Pregunta

Más detalles

SnapStat: Análisis de Una Muestra

SnapStat: Análisis de Una Muestra SnapStat: Análisis de Una Muestra Resumen La SnapStat Análisis de Una Muestra crea un resumen en una hoja de una sola columna de datos numéricos. Calcula estadísticas de resumen e intervalos de confianza,

Más detalles

Problemas resueltos. Tema 12. 2º La hipótesis alternativa será que la distribución no es uniforme.

Problemas resueltos. Tema 12. 2º La hipótesis alternativa será que la distribución no es uniforme. Tema 12. Contrastes No Paramétricos. 1 Problemas resueltos. Tema 12 1.- En una partida de Rol se lanza 200 veces un dado de cuatro caras obteniéndose 60 veces el número 1, 45 veces el número 2, 38 veces

Más detalles

Estadística Inferencial 3.7. Prueba de hipótesis para la varianza. σ gl = n -1. Es decir: Ho: σ 2 15 Ha: σ 2 > 15 (prueba de una cola)

Estadística Inferencial 3.7. Prueba de hipótesis para la varianza. σ gl = n -1. Es decir: Ho: σ 2 15 Ha: σ 2 > 15 (prueba de una cola) UNIDAD III. PRUEBAS DE HIPÓTESIS 3.7 Prueba de hipótesis para la varianza La varianza como medida de dispersión es importante dado que nos ofrece una mejor visión de dispersión de datos. Por ejemplo: si

Más detalles

ESTADÍSTICA INFERENCIAL

ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 9 Nombre: Pruebas de hipótesis referentes al valor de la media de la población Contextualización Los métodos estadísticos y las técnicas de

Más detalles

Proyecciones del PBI para el 2003.

Proyecciones del PBI para el 2003. Proyecciones del PBI para el 2003. Por Pablo Frigolé, para Stockssite pablofrigole@stockssite.com Después de muchas preguntas sobre cuál sería el valor de las variables futuras más importantes de la economía

Más detalles

Muestreo y Distribuciones muestrales. 51 SOLUCIONES

Muestreo y Distribuciones muestrales. 51 SOLUCIONES Muestreo y Distribuciones muestrales. 51 Universidad Politécnica de Cartagena Dpto. Matemática Aplicada y Estadística Métodos estadísticos de la ingeniería Soluciones de la hoja de problemas 5. Muestreo

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.2 Determinación aproximada de extremos: Método de Newton-Raphson

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.2 Determinación aproximada de extremos: Método de Newton-Raphson Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.2 Determinación aproximada de extremos: Método de Newton-Raphson Francisco Palacios Escuela Politécnica Superior de Ingeniería

Más detalles

Ejercicio 1: Realiza las siguientes divisiones por el método tradicional y por Ruffini: a)

Ejercicio 1: Realiza las siguientes divisiones por el método tradicional y por Ruffini: a) Tema 2: Ecuaciones, Sistemas e Inecuaciones. 2.1 División de polinomios. Regla de Ruffini. Polinomio: Expresión algebraica formada por la suma y/o resta de varios monomios. Terminología: o Grado del polinomio:

Más detalles

EJERCICIOS RESUELTOS TEMA 7

EJERCICIOS RESUELTOS TEMA 7 EJERCICIOS RESUELTOS TEMA 7 7.1. Seleccione la opción correcta: A) Hay toda una familia de distribuciones normales, cada una con su media y su desviación típica ; B) La media y la desviaciones típica de

Más detalles

Práctica 1: Introducción a SPSS 1

Práctica 1: Introducción a SPSS 1 Estadística Aplicada Curso 2010/2011 Diplomatura en Nutrición Humana y Dietética Práctica 1: Introducción a SPSS 1 Este programa estadístico está organizado en dos bloques: el editor de datos y el visor

Más detalles

SOLUCION TALLER 1 SOLUCION PUNTO 1. - Función de producción cuadrática. Se espera que: >0 porque x2 es un insumo de producción

SOLUCION TALLER 1 SOLUCION PUNTO 1. - Función de producción cuadrática. Se espera que: >0 porque x2 es un insumo de producción SOLUCION TALLER 1 SOLUCION PUNTO 1 - Función de producción cuadrática Se espera que: >0 porque x1 es un insumo de producción >0 porque x2 es un insumo de producción

Más detalles

CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS DE LAS PRUEBAS SIMCE

CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS DE LAS PRUEBAS SIMCE CÁLCULO DE SIGNIFICANCIA ESTADÍSTICA PARA RESULTADOS DE LAS PRUEBAS SIMCE Unidad de Análisis Estadístico División de Evaluación de Logros de Aprendizaje Agencia de Calidad de la Educación 013 Índice 1.

Más detalles

Estadística Inferencial. Sesión No. 8 Pruebas de hipótesis para varianza.

Estadística Inferencial. Sesión No. 8 Pruebas de hipótesis para varianza. Estadística Inferencial. Sesión No. 8 Pruebas de hipótesis para varianza. Contextualización. En las dos sesiones anteriores se vieron métodos de inferencia estadística para medias y proporciones poblacionales.

Más detalles

Tema 11: Intervalos de confianza.

Tema 11: Intervalos de confianza. Tema 11: Intervalos de confianza. Presentación y Objetivos. En este tema se trata la estimación de parámetros por intervalos de confianza. Consiste en aproximar el valor de un parámetro desconocido por

Más detalles

SOLUCIÓN DE LA PRIMERA PRÁCTICA CALIFICADA DE ECONOMETRIA I

SOLUCIÓN DE LA PRIMERA PRÁCTICA CALIFICADA DE ECONOMETRIA I UNIVERSIDAD NACIONAL DE PIURA FACULTAD DE ECONOMIA SOLUCIÓN DE LA PRIMERA PRÁCTICA CALIFICADA DE ECONOMETRIA I 1º El investigador especifica el modelo siguiente: (7 puntos) M1(t) = a + b P(t) + c(0) PBI(t)

Más detalles

donde k es el número de parámetros en el modelo, incluyendo el término independiente. Es fácil comprobar la relación que mantienen R 2 y R 2

donde k es el número de parámetros en el modelo, incluyendo el término independiente. Es fácil comprobar la relación que mantienen R 2 y R 2 327 Ahora bien, el tamaño muestral no es la única magnitud que influye en el valor de R 2. El número de variables explicativas consideradas en el modelo también condiciona el valor de este coeficiente,

Más detalles

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste Técnicas de Inferencia Estadística II Tema 3. Contrastes de bondad de ajuste M. Concepción Ausín Universidad Carlos III de Madrid Grado en Estadística y Empresa Curso 2014/15 Contenidos 1. Introducción

Más detalles

Análisis de Capabilidad (Porcentaje Defectuoso)

Análisis de Capabilidad (Porcentaje Defectuoso) Análisis de Capabilidad (Porcentaje Defectuoso) STATGRAPHICS Rev. 9/4/2006 Este procedimiento esta diseñado para estimar el porcentaje de artículos defectuosos en una población basándose en muestra de

Más detalles

Inferencia estadística III. Análisis de Correlación. La inferencia estadística también se puede aplicar para:

Inferencia estadística III. Análisis de Correlación. La inferencia estadística también se puede aplicar para: 1 Inferencia estadística III La inferencia estadística también se puede aplicar para: 1. Conocer el grado de relación o asociación entre dos variables: análisis mediante el coeficiente de correlación lineal

Más detalles

Regresión con variables instrumentales

Regresión con variables instrumentales Regresión con variables instrumentales Tema 9 Introducción Cuando el supuesto de exogeneidad no se cumple, los estimadores MCO son sesgados e inconsistentes El método de Variables Instrumentales (VI) permite

Más detalles

Estadistica II Tema 1. Inferencia sobre una población. Curso 2009/10

Estadistica II Tema 1. Inferencia sobre una población. Curso 2009/10 Estadistica II Tema 1. Inferencia sobre una población Curso 2009/10 Tema 1. Inferencia sobre una población Contenidos Introducción a la inferencia Estimadores puntuales Estimación de la media y la varianza

Más detalles

AVISO IMPORTANTE EL PROFESOR DARÁ ASESORÍA ESTE VIERNES 13 DE OCTUBRE EN LA SALA JOSE SOLITICA EL ARCHIVO EN EXCEL PARA COMPLETAR LA GUIA AL CORREO

AVISO IMPORTANTE EL PROFESOR DARÁ ASESORÍA ESTE VIERNES 13 DE OCTUBRE EN LA SALA JOSE SOLITICA EL ARCHIVO EN EXCEL PARA COMPLETAR LA GUIA AL CORREO AVISO IMPORTANTE EL PROFESOR DARÁ ASESORÍA ESTE VIERNES 13 DE OCTUBRE EN LA SALA JOSE AYALA DE 13 A 15 HRS SOLITICA EL ARCHIVO EN EXCEL PARA COMPLETAR LA GUIA AL CORREO tere_vieyra@yahoo.com.mx Guía para

Más detalles

1. Conocimientos previos. 1 Funciones exponenciales y logarítmicas.

1. Conocimientos previos. 1 Funciones exponenciales y logarítmicas. . Conocimientos previos. Funciones exponenciales y logarítmicas.. Conocimientos previos. Antes de iniciar el tema se deben de tener los siguientes conocimientos básicos: Intervalos y sus definiciones básicas.

Más detalles

La distribución t de student. O lo que es lo mismo: La relación entre la cerveza y los estudios de estadística

La distribución t de student. O lo que es lo mismo: La relación entre la cerveza y los estudios de estadística La distribución t de student O lo que es lo mismo: La relación entre la cerveza y los estudios de estadística La distribución t de student fue descubierta por William S. Gosset en 1908. Gosset era un estadístico

Más detalles

MÓDULO X. LA DINÁMICA DE LA ECONOMÍA MUNDIAL PROGRAMA OPERATIVO MATEMÁTICAS ECONOMETRÍA I. Profesor: Noé Becerra Rodríguez.

MÓDULO X. LA DINÁMICA DE LA ECONOMÍA MUNDIAL PROGRAMA OPERATIVO MATEMÁTICAS ECONOMETRÍA I. Profesor: Noé Becerra Rodríguez. MÓDULO X. LA DINÁMICA DE LA ECONOMÍA MUNDIAL PROGRAMA OPERATIVO MATEMÁTICAS ECONOMETRÍA I Profesor: Noé Becerra Rodríguez Objetivo general: Introducir los aspectos fundamentales del proceso de construcción

Más detalles

Correlograma de la serie Y. Included observations: 900 Autocorrelation Partial Correlation AC PAC Q-Stat Prob

Correlograma de la serie Y. Included observations: 900 Autocorrelation Partial Correlation AC PAC Q-Stat Prob EXAMEN DE ECONOMETRIA EMPRESARIAL II (MÓDULO PRÁCTICO) 23 FEBRERO 2002 1 APELLIDO 2ª APELLIDO NOMBRE GRUPO PRÁCTICO NOMBRE DEL PROFESOR PREGUNTA 1 Un economista desea identificar y estimar el proceso generador

Más detalles

1. IDENTIFICACIÓN DE LA ASIGNATURA

1. IDENTIFICACIÓN DE LA ASIGNATURA UNIVERSIDAD DE SANTIAGO DE CHILE FACULTAD DE ADMINISTRACION Y ECONOMIA DEPARTAMENTO DE CONTABILIDAD Y AUDITORIA PROGRAMA DE ESTUDIO ESTADÍSTICA APLICADA II 1. IDENTIFICACIÓN DE LA ASIGNATURA 2. OBJETIVOS

Más detalles

Método de fórmula general

Método de fórmula general Método de fórmula general Ahora vamos a utilizar el método infalible. La siguiente fórmula, que llamaremos «fórmula general» nos ayudará a resolver cualquier ecuación cuadrática. Fórmula General La fórmula

Más detalles

CAPITULO III: METODOLOGIA. En el presente capítulo se describirá el conjunto de pasos a seguir para lograr el

CAPITULO III: METODOLOGIA. En el presente capítulo se describirá el conjunto de pasos a seguir para lograr el CAPITULO III: METODOLOGIA En el presente capítulo se describirá el conjunto de pasos a seguir para lograr el objetivo propuesto en esta tesis. Primero se presenta la descripción general del programa y

Más detalles