Estadística. Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Documentos relacionados
Probabilidad Condicional

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

Aplicaciones de apoyo al diagnóstico médico. Identificación de objetos amigos y enemigos. Identificación de zonas afectadas por un desastre natural.

Teorema Central del Límite (1)

Caso particular: Contraste de homocedasticidad

Estimación de Parámetros.

Variables aleatorias

Distribución Chi (o Ji) cuadrada (χ( 2 )

Cap. 7 : Pruebas de hipótesis

Notas de clase Estadística R. Urbán R.

PATRONES DE DISTRIBUCIÓN ESPACIAL

Test de suma de rangos

ACTIVIDAD 2: La distribución Normal

Tema 8: Contraste de hipótesis

Análisis Estadístico de Datos Climáticos. Pruebas de Hipótesis (Wilks, cap. 5)

Muestreo e intervalos de confianza

Testear la Hipótesis de Media Poblacional

Ejemplos Resueltos Tema 4

Ms. C. Marco Vinicio Rodríguez

EXAMEN DE ESTADÍSTICA Septiembre 2011

F X > F Y F X < F Y F X 6= F Y

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

MATERIA: ESTADÍSTICA EJEMPLOS DE POSIBLES PREGUNTAS DE EXAMEN. a. Cuáles son las escalas en que pueden estar los datos en un análisis estadístico.

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

Prueba de Hipótesis. Bondad de Ajuste. Tuesday, August 5, 14

ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA

Estimaciones puntuales. Estadística II

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

Contrastes de Hipótesis paramétricos y no-paramétricos.

Tema 13: Distribuciones de probabilidad. Estadística

INTRODUCCIÓN AL ANÁLISIS DE DATOS FEBRERO Código asignatura: EXAMEN MODELO B DURACION: 2 HORAS

ESTADISTICA INFERENCIAL DR. JORGE ACUÑA A.

Tema 13: Contrastes No Paramétricos

Estadísticas Elemental Tema 3: Describir, Explorar, y Comparar Data

Técnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Práctica 4. Contraste de hipótesis

Variables aleatorias

6. Inferencia con muestras grandes. Informática. Universidad Carlos III de Madrid

PRUEBA DE BONDAD DE AJUSTE O PRUEBA CHI - CUADRADO

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

ANALISIS ESTADISTICO MINISTERIO DE ECONOMIA Y FINANZAS

Tema 8: Introducción a la Teoría sobre Contraste de hipótesis

DISTRIBUCIÓN CHI-CUADRADO O JI-CUADRADO X 2 CONCEPTO BÁSICO Frecuencia: es el número de datos que caen en cada celda. Frecuencias Observadas (fo):

4. Prueba de Hipótesis

Proyecto Tema 8: Tests de hipótesis. Resumen teórico

CONTRASTE SOBRE UN COEFICIENTE DE LA REGRESIÓN

Econometría Aplicada

Estadísticas Pueden ser

PROYECTO DEL CURSO DE ESTADÍSTICA INFERENCIAL

UNIVERSIDAD TECNICA PARTICULAR DE LOJA ESTADISTICA Y PROBABILIDAD ENSAYO N 8

Tabla de Test de Hipótesis ( Caso: Una muestra ) A. Test para µ con σ 2 conocida: Suponga que X 1, X 2,, X n, es una m.a.(n) desde N( µ, σ 2 )

Intervalo para la media si se conoce la varianza

1. Ejercicios. 2 a parte

ÍNDICE INTRODUCCIÓN... 21

INFERENCIA ESTADÍSTICA: CONTRASTES DE HIPÓTESIS

TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07

ESTADÍSTICA INFERENCIAL

Al reemplazar la varianza muestral en la fórmula obtenemos otra expresión de la distribución chi-cuadrada:

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN

Tema 4: Probabilidad y Teoría de Muestras

UNIVERSIDAD DE MANAGUA Al más alto nivel

Método de cuadrados mínimos

Pruebas de Hipótesis-ANOVA. Curso de Seminario de Tesis Profesor QF Jose Avila Parco Año 2016

UNIVERSIDAD DE ATACAMA

Tema 7 Intervalos de confianza Hugo S. Salinas

5. Distribuciones de probabilidad multivariadas

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Qué es una regresión lineal?

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

Pregunta 1. Pregunta 2. Pregunta 3. Pregunta 4. Pregunta 5. Pregunta 6. Pregunta 7. Comenzado el lunes, 25 de marzo de 2013, 17:24

EJERCICIOS SOBRE CONTRASTE DE HIPÓTESIS

1.- Lo primero que debemos hacer es plantear como hasta ahora la hipótesis nula y la alternativa

Juan Carlos Colonia INFERENCIA ESTADÍSTICA

Métodos Estadísticos Multivariados

Capítulo 13. Contrastes sobre medias: Los procedimientos Medias y Prueba T. Medias

LIMITES O INTERVALOS DE CONFIANZA LUIS FRANCISCO HERNANDEZ CANDELARIA ATENCIA ROMERO

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Cuál es el campo de estudio de la prueba de hipótesis?

Tema 5. Muestreo y distribuciones muestrales

Examen Extraordinario de Estadística I, 22 de Junio de Grados en ADE, DER-ADE, ADE-INF, FICO, ECO, ECO-DER.

LECTURA 03: DISTRIBUCIÓN T STUDENT Y DISTRIBUCIÓN CHICUADRADO TEMA 6: DISTRIBUCION T STUDENT. MANEJO DE TABLAS ESTADISTICAS.

CAPITULO 6 DISTRIBUCIONES MUESTRALES

Test χ 2 de Bondad de Ajuste y Test de Independencia

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE

ANÁLISIS DE FRECUENCIAS

Tema 6: Introducción a la Inferencia Bayesiana

3 ANALISIS DESCRIPTIVO DE LOS DATOS

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

INFERENCIA PARÁMETRICA: RELACIÓN ENTRE DOS VARIABLES CUALITATIVAS

Conceptos Básicos de Inferencia

Muestreo de variables aleatorias

Tema 6. Variables aleatorias continuas

Distribuciones de probabilidad multivariadas

Ejemplos Resueltos Tema 4

Podemos definir un contraste de hipótesis como un procedimiento que se basa en lo observado en las muestras y en la teoría de la probabilidad para

Transcripción:

Hasta ahora hemos supuesto que conocemos o podemos calcular la función/densidad de probabilidad (distribución) de las variables aleatorias. En general, esto no es así. Más bien se tiene una muestra experimental (conjunto de variables aleatorias) que provienen de una distribución desconocida. Uno de los objetivos de la estadística es inferir información sobre la distribución desconocida a partir de los datos (muestra) que tenemos.

Si hay un ingrediente aleatorio en el experimento y se mide una variable x, entonces es de esperar que al repetir N veces el experimento se tengan resultados. En general estas N variables aleatorias siguen una distribución conjunta (=población):

Generalmente se considera que las variables son obtenidas independientemente de la misma población. De esta forma: con

Como hemos visto las distribuciones dependen de parámetros como el valor medio o la varianza, por mencionar un par de ejemplos. Supongamos que queremos estimar alguno de esos parámetros a partir de los datos que tenemos. Para ello utilizaremos los llamados estimadores Estimadores: a) sesgados b) no sesgados

Como hemos visto las distribuciones dependen de parámetros como el valor medio o la varianza, por mencionar un par de ejemplos. Supongamos que queremos estimar alguno de esos parámetros a partir de los datos que tenemos. Para ello utilizaremos los llamados estimadores Estimadores: a) sesgados b) no sesgados

El sesgo se define como la diferencia: donde a es el valor verdadero. Si b=0 se dice que el estimador es no sesgado. Un par de ejemplos de estimadores no sesgados:

Antes de estudiar los estimadores, necesitamos del resultado Ley de los grandes números : Sea una muestra aleatoria de una distribución con valor medio y sea Entonces, cuando

Estimador del valor medio: Valor medio de la muestra como estimador del valor medio de la población Y la varianza/error del estimador De modo que

Entonces necesitamos un estimador para la varianza Sea y vemos que

Pero el valor de no se conoce! Entonces se sustituye por : Sin embargo, si utilizamos s 2 como estimador de la varianza, éste es sesgado:

Se puede obtener inmediatamente el estimador no sesgado multiplicando por N/(N-1). De esta forma el estimador no sesgado para la varianza viene dado por:

Finalmente, el estimador para la desviación standard viene dado por:

Pruebas de hipótesis estadística Problema de tomar una decisión (aceptar, rechazar) basándonos en los datos experimentales Existen diferentes pruebas: Student t-test, Neymann-Pearson test, Fisher's F-test. Aquí el problema que nos interesa es una prueba de bondad de un ajuste (goodness of fit)

Información preliminar Gamma distribution Sea Y una variable aleatoria dada por donde con sigue una distribución Gaussiana y

Entonces Y sigue una distribución (caso particular de la distribución Gama) con n grados de libertad: con y

Generalización: se puede mostrar que la suma de variables aleatorias X i de la forma: donde X i sigue una distribución normal, está dada por una distribución con n grados de libertad:

Información preliminar: Cuantil: sea X una variable aleatoria cuya función de distribución cumulativa es F. Para cada valor p valor más pequeño, se define el tal que Así, orden p es el llamado cuantil de X de

Nos interesa saber si nuestro modelo teórico describe correctamente (estadísticamente hablando) los datos experimentales (puede ser un experimento numérico). La hipótesis H 0 a verificar (llamada hipótesis nula) es H 0 : nuestro modelo es correcto, desde un punto de vista estadístico. Más que aceptar una hipótesis se habla de ''no rechazar la hipótesis''

Consideramos la hipótesis: H 0 : F(x) = F 0 (x) donde F 0 representa nuestro modelo teórico y F el resultado observado. Existen varias pruebas, aquí sólo veremos la llamada -test Esta prueba de bondad considera la suma de las variables estandarizadas: donde N i es el valor observado y f i el valor teórico

Detalles: Sea la hipótesis nula: Estadística Consideremos una muestra de tamaño n de la variable aleatoria X, dividida en k clases (exhaustivas y mutuamente excluyentes). Sea el número de observaciones en la i-ésima clase Como sabemos podemos obtener la probabilidad de obtener una observación en la i-ésima clase.

Detalles: Sea la hipótesis nula: Estadística Consideremos una muestra de tamaño n de la variable aleatoria X, dividida en k clases (exhaustivas y mutuamente excluyentes). Sea el número de observaciones en la i-ésima clase Como sabemos podemos obtener la probabilidad de obtener una observación en la i-ésima clase.

De modo que Sea las realizaciones de la i-ésima clase (i=1,2,...,k), de modo que: De esta forma la probabilidad de la muestra agrupada está dada por la distribución multinomial:

Tomemos el caso simple: k=2 y consideremos la variable aleatoria Para n grande, sabemos que Y se aproxima a una distribución Gaussiana/Normal. También sabemos que la suma de variables aleatorias con distribución Gaussiana sigue una distribución (en este caso con n-1 grados de libertad)

Consideremos entonces el cuadrado:

En general tenemos Estadística

Regresando a nuestro problema, se puede mostrar que la variable sigue una distribución, con k-1 grados de libertad (en un histograma, k es el número de clases).

Ahora fijemos el criterio para no rechazar la hipótesis. Para ello hacemos uso de la función cumulativa de la distribución

Así, el criterio para no rechazar la hipótesis nula es comparar el valor de Y con el cuantil de la distribución. El valor del quantil consultarse en tablas. puede

Resumiendo, si se satisface que Entonces la hipótesis no se puede rechazar (no hay razones estadísticas para rechazar el modelo). Se acostumbra a imponer un valor de significancia de