INFERENCIA ESTADISTICA: Lic. Laura Marangunich



Documentos relacionados
Se asignaron al azar ratas en condiciones similares a cuatro dietas (A D). Dos semanas después se midió el tiempo de coagulación.

Tests de hipótesis estadísticas

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS

Biometría Clase 8 Pruebas de hipótesis para una muestra. Adriana Pérez 1

ESTIMACIÓN. puntual y por intervalo

Métodos no paramétricos para la comparación de dos muestras

"CONTRASTES DE HIPÓTESIS" 4.4 Parte básica

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

7.- PRUEBA DE HIPOTESIS

Diagnosis y Crítica del modelo -Ajuste de distribuciones con Statgraphics-

Ciudad de Guatemala, 2013

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

ANÁLISIS DE VARIANZA EMPLEANDO EXCEL y WINSTATS

Intervalo para la media (caso general)

PRUEBAS DE HIPÓTESIS

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

INFERENCIA ESTADISTICA: CONTRASTE DE HIPÓTESIS

PRUEBAS NO PARAMÉTRICAS

Población, Unidad de Análisis, Criterios de Inclusión y Exclusión.

PRÁCTICA 4. Ingeniería Técnica Industrial (2º) - Mecánica.

Test ( o Prueba ) de Hipótesis

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Lección 24: Lenguaje algebraico y sustituciones

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

Hipótesis Alternativa: Afirmación sobre las posibles alternativas que se tienen a la afirmación hecha en la hipótesis nula.

Temas de electricidad II

Asignatura: Econometría. Conceptos MUY Básicos de Estadística

1. Introducción a la estadística 2. Estadística descriptiva: resumen numérico y gráfico de datos 3. Estadística inferencial: estimación de parámetros

ÍNDICE. Ficha técnica Encuesta y cuestionario Finalidad y resultados de la encuesta Primera parte: conocimiento...

FocalPoint Business Coaching

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL

Capítulo 7: Distribuciones muestrales

Tema 12: Contrastes Paramétricos

Selectividad Septiembre 2013 OPCIÓN B

Curso Práctico de Bioestadística Con Herramientas De Excel

Aire ambiente: No se recogieron muestras en esta comunidad.

Lección 1-Introducción a los Polinomios y Suma y Resta de Polinomios. Dra. Noemí L. Ruiz Limardo 2009

PRÁCTICA N 2 SISTEMAS DE NUMERACIÓN

Introducción a la estadística y SPSS

Inducción. El arco del conocimiento. Intro: hace años. Intro: el método científico (II) Intro: el método científico (I)

proporción de diabetes = = % expresada en porcentaje

EJEMPLO DE REPORTE DE LIBERTAD FINANCIERA

Polinomios: Definición: Se llama polinomio en "x" de grado "n" a una expresión del tipo

ÍNDICE. Introducción. Alcance de esta NIA Fecha de vigencia

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio

Estimación. Intervalos de Confianza para la Media y para las Proporciones

Problemas fáciles y problemas difíciles. Cuando a los niños les planteamos problemas de suma y resta, Laura dejó sin resolver el siguiente problema:

Lección 9: Polinomios

_ Antología de Física I. Unidad II Vectores. Elaboró: Ing. Víctor H. Alcalá-Octaviano

LÍMITES DE FUNCIONES. CONTINUIDAD

MATEMÁTICAS CON LA HOJA DE CÁLCULO

La ventana de Microsoft Excel

Recursos para el Estudio en Carreras de Ingeniería 2006 UNIDAD TEMÁTICA Nº 4 LA TOMA DE APUNTES

Los números racionales

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007

Práctica 5. Contrastes paramétricos en una población

ENSAYOS CLÍNICOS. Guía para padres y tutores

LÍMITES Y CONTINUIDAD

Comparación de medias

ANÁLISIS DE DATOS NO NUMERICOS

TRABAJO Y ENERGÍA; FUERZAS CONSERVATIVAS Y NO CONSERVATIVAS

Centro de Capacitación en Informática

Capítulo 3. Estimación de elasticidades

Métodos estadísticos y numéricos Contraste de hipótesis pag. 1 PROBLEMAS RESUELTOS DE CONTRASTE DE HIPÓTESIS

IV. Una aproximación al consumo de drogas en España

Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1

SENA: CENTRO BIOTECNOLOGIA INDUSTRIAL PROGRAMA DE FORMACIÓN: TECNOLOGO GESTION LOGISTICA

Análisis de propuestas de evaluación en las aulas de América Latina

INFERENCIA ESTADÍSTICA

Capítulo 6: Conclusiones

Antoni Miró. Experiencia previa y formación

Manual básico de gestión económica de las Asociaciones

En España hay 2,5 millones de. Usuarios de lentes de contacto, Puede seguir creciendo esta cifra?

Análisis y cuantificación del Riesgo

Tema 1. Inferencia estadística para una población

TEMA 5 VALIDEZ DE LA INVESTIGACIÓN (II): Validez de conclusión estadística

Cálculo Simbólico también es posible con GeoGebra

PROBLEMAS DE ECUACIONES SIMULTÁNEAS

UNIDAD 6. POLINOMIOS CON COEFICIENTES ENTEROS

PARA COMERCIANTES Y AUTÓNOMOS. INFORMACIÓN SOBRE TARJETAS DE CRÉDITO.

Pruebas de Hipótesis de Una y Dos Muestras. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

CAPITULO II CARACTERISTICAS DE LOS INSTRUMENTOS DE MEDICION

Control Estadístico de Procesos

GRAFICOS DE CONTROL DATOS TIPO VARIABLES

Estudio comparativo sobre la efectividad de dos fertilizantes en la velocidad de crecimiento en la planta de habichuela

CUESTIONES DE AUTOEVALUACIÓN (TEMA 1)

Wise Up Kids! En matemáticas, a la división de un objeto o unidad en varias partes iguales o a un grupo de esas divisiones se les denomina fracción.

Evaluación de la capacidad óptima de medida y alcance de la acreditación de un laboratorio de calibración

PROPUESTAS COMERCIALES

1-Comportamiento de una función alrededor de un punto:

Además se recomienda su uso como herramienta de trabajo dentro de las actividades habituales de gestión.

INFERENCIA ESTADÍSTICA. ESTIMACIÓN DE LA MEDIA

Análisis de la Varianza (ANOVA) de un factor y test a posteriori.

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES

Tema 10. Estimación Puntual.

GESTIÓN DEL MEDIO AMBIENTE URBANO. (LIMPIEZA VIARIA, MANTENIMIENTO DE ZONAS VERDES, RESIDUOS URBANOS Y ABASTECIMIENTO DE AGUA)

Transcripción:

INFERENCIA ESTADISTICA: Lic. Laura Marangunich Frente a la necesidad de estudiar un fenómeno en la población y ante la imposibilidad de censarla (estudiarla en forma exhaustiva), debemos recurrir a la extracción o generación de una muestra (con la ayuda de la teoría del muestreo, o el diseño de experimentos según que el estudio sea observacional o experimental). Si definimos como POBLACION a la totalidad de los individuos donde ocurre el fenómeno de interés, una MUESTRA, será un subconjunto de inviduos, extraídos de esa población, y, a los cuales se les medirá efectivamente las variables de interés. Después de registrar el valor de la(s) variable(s) en todos los individuos de la muestra y, con las herramientas descriptas en el módulo anterior, los datos serán tabulados, se generarán y graficarán las distribuciones de frecuencia y se calcularán las medidas de posición y de variación más adecuadas para la situación. Este resumen de la información en forma analítica y gráfica es lo que en el módulo anterior definimos como ESTADISTICA DESCRIPTIVA. Pero describir lo efectivamente observado en la muestra es solo el primer paso de un ambicioso proceso (INFERENCIA ESTADISTICA), que nos permite extender a la población la información obtenida en la muestra. Las medidas de posición y variación que en la poblacion se denominan PARAMETROS y que generalmente se designan con letras mayúsculas y/o griegas (:, F, P etc), serán desconocidos por la imposibilidad ya expresada de censar la población. Pero a través de este proceso inferencial, esos parámetros podrán ser estimados a partir de las correspondientes medidas muestrales, definidas a semejanza de ellos. Esas medidas muestrales (de posición, de variación, porcentajes etc), se denominan, por su función, ESTIMADORES. Asi : (media poblacional) será estimada por 0, y F (desvío standard poblacional) por S (o SD). Para que una medida muestral pueda ejercer la función de estimar al correspondiente parámetro, será necesario que cumpla algunas características deseables. Por ejemplo, si estamos interesados en estimar la media poblacional ( : ), calcularemos 0 en la forma descripta en el módulo I, pero debemos ser concientes de que si otro investigador, estudiando el mismo fenómeno, en las mismas condiciones, extrae otra muestra del mismo tamaño, difícilmente obtendrá el mismo valor de 0. Si a partir de una misma población se extrajeran 2, 10, 50, 100, ó todas las muestras posibles y en cada una de ellas se calculara 0, nos enfrentaríamos con una colección de valores que fluctuarían de muestra a muestra, es decir 0 se comporta como una variable aleatoria. Esto parece ser una noticia desalentadora, sin embargo si analizamos los distintos valores de 0 obtenidos, veremos que no son todos iguales, pero

tampoco son todos distintos, y si construyéramos la distribución de frecuencias, observaríamos que su forma es, o al menos tiende a ser simétrica, y con un gran parecido a una distribución teórica muy útil en Estadística, que es la DISTRIBUCION NORMAL. TEOREMA CENTRAL DEL LIMITE Un importante teorema en Estadística es el TEOREMA CENTRAL DEL LIMITE, que justamente nos garantiza que la distribución de 0 es (o tiende a ser ) normal, dependiendo de que la distribución de la variable en estudio sea o no normal. Si la población muestreada es normal, la distribución de 0, aún con pequeños tamaños de muestra también lo será. Cuando la población muestreada no es normal, la distribución de 0, tenderá a la normalidad a medida que el tamaño de muestra aumente. A su vez este teorema también nos garantiza que la distribución de 0 está centrada en el mismo lugar que la variable (o sea en :, que es justamente el parámetro desconocido que pretendemos estimar), esto en definitiva nos dice que la colección de valores de 0 fluctúa alrededor del parámetro µ y en promedio coincide con él. En un artículo muy interesante del Dr. Naum Marchevsky (Introducción a la aplicación de la Estadistica en salud animal), describe un ejercicio realizado durante un curso en Paraguay en 1984: cada participante fué invitado a seleccionar una muestra de una población conocida y calcular el promedio; los valores obtenidos fueron registrados y pudo verificarse que si bien los valores individuales de 0 resultaban menores, mayores ó, eventualmente iguales al parámetro (por el efecto de la fluctuación muestral de la que hablamos), el promedio de esas estimaciones individuales, prácticamente coincidía con el parámetro. Esto confirma lo que nos adelantara el T.C. del Limite. Pero, en el módulo I vimos que saber lo que ocurre en promedio no es suficiente. Afortunadamente el mismo teorema nos informa que la variación de la distribución de 0 es " n " veces más chica que la variación de la población muestreada (donde " n " es el tamaño de la muestra). Teniendo ahora una medida de variación de la distribución (normal o aproximadamente normal) de 0, podemos inferir que por ejemplo el 95% los valores (que, como ya dijimos fluctúan alrededor de :), lo harán a una distancia máxima de 2 SE (tal como indica la distribución normal de Gauss). Donde SE (0) = SD (x) / n) ( SD = Desvio Stándard y SE = Error Standard) Esto nos indica que la variación de la distribución de 0 en parte depende de la variación de la población muestreada (que aparece en el numerador), pero en

parte del investigador, que eligiendo adecuadamente el tamaño de muestra (que aparece en el denominador), puede acotarla. Formalmente el teorema dice: Si x ( :, F ) 0 N (:, F / %n) cuando n 4 (4 = infinito) donde = se distribuye = tiende a (distribuirse) N = Normal Como ilustración de este teorema, presentaremos (figura 1) dos ejemplos extraidos del libro de Douglas Altman (Practical Statistics for Medical Research Chapman & Hall 1991-pág. 156 y 158) Se trata de dos distribuciones poblaciones: una de albúmina en suero y otra de bilirrubina. La primera es normal, en cuyo caso la distribución en el muestreo de 0 es normal aún con muestras pequeñas, en cambio en el segundo caso, en que la distribución original es asimétrica, podemos ver que, recién con grandes tamaños de muestra, la distribución de 0 se simetriza. (ésta es la diferencia que planteamos previamente entre distribuirse o tender a distribuirse en forma normal) Figura 1

Antes de terminar con este punto, recordemos que en el módulo I enfatizamos la conveniencia de tener una distribución simétrica. Las distribuciones asimétricas deben ser sometidas a alguna transformación normalizante, o demandarán tamaños de muestra más altos para que vía el Teorema Central del Limite, tengamos la seguridad de obtener una buena estimación. Porqué es necesario conocer la distribución en el muestreo de un estimador? El conocimiento de la distribución teórica que rige el comportamiento del estimador, será el soporte probabilístico para efectuar las inferencias. En el caso que analizamos puntualmente, nos referimos al estimador 0 y su distribución normal, pero las distribuciones podrán ser otras, cuando nos refiramos a otros estimadores de otros parámetros. Si volvemos a la figura 1 del módulo I, las distribuciones en el muestreo, serían como la plataforma de lanzamiento del camino ascendente de la inferencia que nos permitirá expandir nuestras conclusiones a la población. Los dos caminos posibles ( y equivalentes) de la Inferencia son: - Estimación de parámetros mediante INTERVALOS DE CONFIANZA. - PRUEBA DE HIPOTESIS para testear posibles valores de los parámetros, o para efectuar comparaciones entre ellos. Desarrollaremos ambos temas abocándonos en particular al parámetro : (promedio poblacional). INTERVALO DE CONFIANZA PARA :: En primer lugar digamos que cuando en primera instancia informamos como posible valor de : el arrojado por su estimador 0, esa estimación será PUNTUAL. Convengamos que dar un único valor como estimador del parámetro es algo arriesgado, probablemente nadie que venga de un recital se anime a decir que había 1782 personas, pero probablemente se anime, con menos riesgo de equivocarse, a decir que había entre 1000 y 2000 personas, o entre 1500 y 2000, etc. En la figura 2 planteamos la incógnita ( el parámetro) y los elementos necesarios para encarar una inferencia acerca de él ( el estimador adecuado, su distribución y una medida de su variación).

PRECISION = f (SE) SE = S / v n Esos elementos adecuadamente procesados nos permitirán complementar una estimación puntual, con un intervalo del cual tengamos una seguridad aceptable (90, 95, 99% ) de que contenga al parámetro en cuestión (:). La precisión de este intervalo será una función del SE.

La estructura para construir ese intervalo será: 0 " z ( SE) Sería la estimación puntual ± z veces el SE donde SE = F / n y z = valores de abscisa de la distribución normal que encierran una determinada probabilidad, por citar los más usados: Entre - 1.65 y + 1.65 hay un 90 % de prob. (de área) Entre - 1.96 y + 1.96 hay un 95 % de prob. (este valor 1.96, tal vez el más usado, generalmente se lo utiliza aproximándolo a 2, cuando decimos que el 95% de los valores de una distribución normal, por ej. la de 0, están comprendidos entre µ ± 2 SE) Entre - 2.58 y + 2.58 se concentra el 99% de los valores. etc, Pero como en la estructura presentada aparece el SE = σ / n, y de la misma manera que µ es desconocido, σ también lo es, deberá ser reemplazado por su estimador: S, en cuyo caso la nueva estructura: 0 ± t S / n (figura 3) es equivalente a la anterior, pero la cantidad de SE que le sumamos y le restamos a la estimación puntual, saldrá ahora, no de la distribución normal, sino de una parecida pero más chata, que es la distribución t de Student y que se identifica con los llamados grados de libertad ( n & 1 ). Para tamaños pequeños de muestra t es mayor a z, pero a medida que aumenta el tamaño de muestra (n = 25 ó 30) son casi iguales.

Figura 3 Red de Helmintología de FAO para América Latina y el Caribe INTERVALO DE CONFIANZA PARA µ Pf X - t S = µ = X + t S = (1 - α) % v n v n En forma resumida X ± t S v n donde: α = nivel de riesgo 1 - α = nivel de confianza t = valor de la t de Student (o de la normal si n > 30) para el α fijado α ó ~ t (n 1) g. l ~ N (0,1) 2 (1 - α ) α 2 - t + t ( - z ) ( + z ) EJEMPLO: Es equivalente a la anterior, pero la cantidad de SE que le sumamos y le C/UNO X = 4 SEM = 0.365 t restamos a la estimación puntual, saldrá ahora, no de 9g.l. (90%) = 1.83 la distribución normal, sino de una parecida pero más chata, que es la distribución 3.33 t de Student y que se identifica con los llamados grados de libertad ( n 1 ). Para tamaños 4 ± 1.83 * 0.365 = 4 ± 0.67 pequeños de muestra t es mayor a z, pero a medida 4.67 que aumenta el tamaño de muestra (n = 25 ó 30 ) son casi iguales. En la figura 6 a del módulo I se pueden leer estos valores como LO 90% CI (=Límite inferior del I.C. del 90%) y UP 90% CI (= Límite superior del IC) Es equivalente a la anterior, pero la cantidad de SE que le sumamos y le restamos a la estimación puntual, saldrá ahora, no de la distribución normal,

Ejemplo: Red de Helmintología de FAO para América Latina y el Caribe Supongamos que tenemos el registro de hpg para una muestra de 5 animales. Esos valores son: 300-200-400-300-600 0 = 360, SD = 152, SE = 152 / 5 = 68 y " t " para 4 g.l. y 90% de Prob. = 2,1. El Intervalo de Confianza (IC) será: 360 ± 2.1 x 68 = 360 ± 143 = { 217-503 } La interpretación es: Un posible valor del promedio de la población de la cual estos 5 animales provienen es 360 hpg (estimación puntual), y hay una confianza del 90% de que sea un valor no menor que 217 y no mayor que 503. El complemento de la confianza es el riesgo, en este caso del 10% de que µ sea menor que 217, o mayor que 503. La longitud de este intervalo es de 286 (la semi amplitud es = 143). Veamos de que depende esa amplitud (que define la precisión del intervalo). En primer lugar observemos que el DS de este conjunto de datos es bastante alto (152) que representa un C.V. del 42%. Esa variación, inherente a esta particular muestra, no depende totalmente del investigador (la variación de la muestra refleja en parte la variación de la población), pero la forma de elegir la muestra puede inflar esa variación (por ej. eligiendo animales muy distintos en cuanto a origen, peso, nivel nutricional etc.etc.). De lo anterior se desprende que un DISEÑO adecuado permitirá filtrar variación espúrea. En segundo lugar veamos que en la construcción del SE no entra sólo el SD, sino también el tamaño de la muestra (n), sobre lo cual el investigador tiene la responsabilidad de fijarlo adecuadamente. Como n entra en el denominador, su incremento tendrá un efecto beneficioso sobre la precisión del I.C. Finalmente observemos que la confianza asociada a ese intervalo fué del 90% y esto también es una decisión del investigador, por lo cual uno podria preguntarse, por qué no elegir un valor mayor para la confianza: 95, 99, 99,9%???. Veamos cuáles serían los valores de t para esas situaciones: t (95%) = 2.77 t (99%) = 4.60

El valor de " t " es mayor a medida que aumentamos la exigencia en cuanto a la seguridad, y como " t " es la cantidad de SE que le sumanos y restamos a la estimación puntual, al ser ésta mayor, estaremos construyendo intervalos de mayor longitud (por lo tanto más imprecisos). O sea que hay una relación inversa entre presición y confianza. La figura 4 resume estas relaciones, que nos alertan sobre la necesidad de elegir el diseño y el tamaño de muestra adecuado y prudencia al seleccionar el nivel de confianza, tal vez 90-95%, para no comprometer la precisión del IC, a menos que al fijar un valor de " t " más alto, para aumentar la seguridad, pudiéramos compensarlo con un incremento importante en el tamaño de muestra.

Figura 4 Red de Helmintología de FAO para América Latina y el Caribe _ X ± t S vn d = SEMIAMPLITUD d d 0 (PRECISION) (IMPRECISION) d = t S vn n= t 2 S 2 d 2 DISEÑO 90% 95% 99% < CONF > n < S > PRECISION

PRUEBA DE HIPOTESIS: Red de Helmintología de FAO para América Latina y el Caribe Las Hipótesis que se pueden plantear y probar pueden referirse a los Parámetros de una, dos ó más poblaciones. Plantearemos en particular las llamadas Hipótesis Comparativas para dos ó más promedios poblacionales (µ), por ser éstas las más usadas en Parasitología. Para 2 grupos: Ho) µ trat = µ cont Vs. H1) µ trat µ cont Para k 2 (K=n de grupos) Ho) µ trat1 = µ trat2 =.= µ cont Vs. H1) algun µi µj Donde Ho) = Hipótesis nula y H1) = Hipótesis de alternativa La metodología para comparar 2 ó más poblaciones, si bien tienen distinto nombre, son equivalentes. Para k = 2 la Hip. podrá ser probada mediante el test t de Student y para k 2, el apropiado será el test F ( a partir del ANOVA = Analisis de variancia). Como este test es equivalente al test t cuando k = 2, puede ser usado siempre (con 2 ó más grupos). En cambio el test t sólo puede usarse cuando k = 2. La metodología de la Prueba de Hipótesis (que recomendamos leer con más detalle por ej. en las pags.111/117 del libro: "Bioestadística Médica" de Dowson-Saunders & Trapp Editado por El Manual Moderno México - 1997), propone plantear la Hipótesis de trabajo (por ej. que el promedio de hpg es menor en el grupo tratado que en el grupo control) en la H1, de tal manera que podamos probarlo de una forma fuerte (desde el punto de vista lógico), vía el rechazo de la nula (Ho) que establece que ambos promedios poblacionales son iguales. Esto sería el principio de refutabilidad de las Hipótesis, expuesto por Karl Popper, que establece la imposibilidad de probar que una Hipótesis es verdadera, pero si su falsedad en la medida en que la evidencia y el test aplicado sean lo suficientemente potentes como para refutarla. Luego del planteo de la Ho) y la H1), se efectuará un ensayo que provea evidencia experimental, la cual debidamente procesada con el test adecuado ( por ej. el test F ), nos llevará o no al rechazo de la Ho), lo cual equivaldrá a probar o no nuestra Hipótesis de trabajo planteada en la alternativa. Debemos tener presente que las decisiones posibles son dos: rechazar o no rechazar, y que la Ho) puede ser Verdadera o Falsa. ( cosa que obviamente ignoramos, si no no estaríamos poniéndola a prueba). Esto genera una clásica matriz de pago de 2x2 tal como se ilustra en la figura 5.

Figura 5 Red de Helmintología de FAO para América Latina y el Caribe PRUEBA DE HIPOTESIS DECISIONES POSIBLES Y ERRORES ASOCIADOS Ho V Ho F Rechazo Error I O.K. <<Acepto>> O.K. Error II Error I = Rechazar Ho. Verd. Prob. = α Error II = Aceptar Ho. Falsa Prob. = β Potencia = Rechazar Ho. Falsa Prob. = 1 - β = π

Allí podemos visualizar que hay sólo dos decisiones correctas (Rechazar Ho Falsa o no Rechazar Ho verdadera). Pero también hay dos posibles errores: Rechazar Ho Verdadera y No rechazar Ho Falsa. Esos errores se identifican como de tipo I y II y sus probabilidades asociadas son α y β respectivamente. El complemento de β es la denominada potencia del test y corresponde a la probabilidad de rechazar Ho) cuando ésta es Falsa. Es la capacidad discriminatoria del test, de darse cuenta (a la luz de la evidencia ) que Ho) es insostenible y refutarla. (Decisión ésta identificada con un O.K. dentro de un círculo, y que corresponde a la decisión fuerte de la que hablamos previamente). En la bibliografía recomendada se presentan dos interesantes analogías de la prueba de hipótesis con las pruebas de diagnóstico (que, como no son 100% sensibles y específicas, tienen una cierta probabilidad de falsos positivos y falsos negativos) y con la ley (asimilando los errores tipo I y II con la probabilidad de condenar a un inocente, o absolver a un culpable respectivamente). El error tipo I se denomina el nivel de significación de la prueba de hipótesis, y es fijado por el investigador, pero al igual que en Intervalos de Confianza, hay una relación inversa entre los errores tipo I y II, y, en la medida que quisiéramos reducir a niveles despreciables el α podríamos aumentar peligrosamente el β, a menos que se pudieran manejar grandes tamaños de muestra. Al momento de diseñar un ensayo, el investigador deberá fijar a priori, la diferencia mínima que considera de interés biológico (d), el nivel de significación de la prueba (α) y la potencia del test (1-β), a los fines de determinar el número óptimo de repeticiones que le garantice que, de existir la mencionada diferencia (d), que avala a la hipótesis de alternativa, el test tenga una alta probabilidad (1-β) de rechazar la nula, con a lo sumo una probabilidad = α de rechazarla incorrectamente ( lo que habitualmente informamos como p α ). A modo de ejemplo desarrollaremos una situación donde retomaremos el conjunto de 5 datos de hpg (que analizamos para calcular el IC), aclarando que corresponden a 5 animales tratados con una droga antiparasitaria ( 0 = 360 SD = 152 SE = 68), donde otros 5 animales controles registraron los siguientes valores: 6200-900-2300-4500 y 7100. (0 = 4200 SD = 2598 y SE = 1162). A partir de esta evidencia muestral queremos probar que el recuento promedio es significativamente menor en los animales tratados. Ho) µ trat = µcont Vs. H1) µ trat µcont

ANOVA La herramienta que nos ayuda a probar esta Hipótesis, ya dijimos que es el test " F ", a partir del ANALISIS DE VARIANCIA (ANOVA), que cuando k ( número de grupos) = 2, es equivalente al test " t " de Student. En la figura 6 incluimos la salida del ANOVA correspondiente al caso planteado, cuya interpretación es la siguiente: Tanto con los datos originales (parte superior), como con los datos transformados logarítmicamente (parte inferior), la " F " alta ( 10.89 y 29.50 respectivamente), están asociadas a valores probabilísticos ( " p " values) pequeños (0.0109 y 0.0006 respectivamente), lo cual permite rechazar la Hip. nula de igualdad a favor de la Hip. de alternativa que indica que el recuento promedio de los tratados difiere significativamente del promedio de los controles ( o sea que avala la efectividad de la droga).

Figura 6 Red de Helmintología de FAO para América Latina y el Caribe ONE-WAY AOV FOR: TRAT1 CONT SOURCE DF SS MS F P ------- ---- --------- --------- ------ ------ BETWEEN 1 3.686E+07 3.686E+07 10.89 0.0109 WITHIN 8 2.709E+07 3386500 TOTAL 9 6.396E+07 CHI-SQ DF P BARTLETT'S TEST OF ------ ------ ------ EQUAL VARIANCES 15.30 1 0.0001 COCHRAN'S Q 0.9966 LARGEST VAR / SMALLEST VAR 293.48 COMPONENT OF VARIANCE FOR BETWEEN GROUPS 6695500 EFFECTIVE CELL SIZE 5.0 SAMPLE GROUP VARIABLE MEAN SIZE STD DEV --------- ---------- ------ ---------- TRAT1 360.00 5 151.66 CONT 4200.0 5 2598.1 TOTAL 2280.0 10 1840.2 CASES INCLUDED 10 MISSING CASES 0 ONE-WAY AOV FOR: LNTRAT1 LNCONT SOURCE DF SS MS F P ------- ---- --------- --------- ------ ------ BETWEEN 1 13.1035 13.1035 29.50 0.0006 WITHIN 8 3.55373 0.44422 TOTAL 9 16.6572 CHI-SQ DF P BARTLETT'S TEST OF ------ ------ ------ EQUAL VARIANCES 1.80 1 0.1800 COCHRAN'S Q 0.8150 LARGEST VAR / SMALLEST VAR 4.4051 COMPONENT OF VARIANCE FOR BETWEEN GROUPS 2.53185 EFFECTIVE CELL SIZE 5.0 SAMPLE GROUP VARIABLE MEAN SIZE STD DEV --------- ---------- ------ ---------- LNTRAT1 5.8220 5 0.4054 LNCONT 8.1114 5 0.8509 TOTAL 6.9667 10 0.6665 CASES INCLUDED 10 MISSING CASES 0

Aprovechemos estas dos salidas para observar que los datos en escala original presentan lo que denominamos Heterogeneidad de Variancias (S = 151.66 para tratados y 2598.1 para controles), esa diferencia según el test de Bartlett es muy significativa (p=0.0001), mientras que al pasar a la escala logarítmica, esa heterogeneidad (que compromete seriamente la validez del Anova), ha dejado de ser significativa (p = 0.18). Para terminar con este ejemplo, observemos en la fig.7, la salida del test " t " de Student (equivalente al test " F " por que k = 2). En la parte superior t = - 3.30 (p = 0.0109), lo que indica que : (tratados) es significativamente menor que : (controles) (de allí el signo negativo de la " t " ). En la parte inferior el test " t " arroja un valor = -5.43 ( p =0.0006).

Figura 7 Red de Helmintología de FAO para América Latina y el Caribe TWO-SAMPLE T TESTS FOR TRAT1 VS CONT SAMPLE VARIABLE MEAN SIZE S.D. S.E. --------- --------- ------ --------- --------- TRAT1 360.00 5 151.66 67.823 CONT 4200.0 5 2598.1 1161.9 DIFFERENCE -3840.0 NULL HYPOTHESIS: DIFFERENCE = 0 ALTERNATIVE HYP: DIFFERENCE <> 0 ASSUMPTION T DF P 95% CI FOR DIFFERENCE ----------------- ------ ------ ------ --------------------- EQUAL VARIANCES -3.30 8 0.0109 (-6523.9, -1156.1) UNEQUAL VARIANCES -3.30 4.0 0.0297 (-7062.8, -617.18) F NUM DF DEN DF P TESTS FOR EQUALITY ------- ------ ------ ------ OF VARIANCES 293.48 4 4 0.0000 CASES INCLUDED 10 MISSING CASES 0 TWO-SAMPLE T TESTS FOR LNTRAT1 VS LNCONT SAMPLE VARIABLE MEAN SIZE S.D. S.E. --------- --------- ------ --------- --------- LNTRAT1 5.8220 5 0.4054 0.1813 LNCONT 8.1114 5 0.8509 0.3805 DIFFERENCE -2.2894 NULL HYPOTHESIS: DIFFERENCE = 0 ALTERNATIVE HYP: DIFFERENCE <> 0 ASSUMPTION T DF P 95% CI FOR DIFFERENCE ----------------- ------ ------ ------ --------------------- EQUAL VARIANCES -5.43 8 0.0006 (-3.2615, -1.3174) UNEQUAL VARIANCES -5.43 5.7 0.0019 (-3.3329, -1.2459) F NUM DF DEN DF P TESTS FOR EQUALITY ------- ------ ------ ------ OF VARIANCES 4.41 4 4 0.0900 CASES INCLUDED 10 MISSING CASES 0

Comparando con las salidas de la figura 6, podemos observar que: 1) La relación entre la " t " y la " F " es: t = F ( por ej. 10.89 = 3.30) 2) Los valores de los " p " values son exactamente iguales (0.0109 en escala original y 0.0006 en escala transformada). Esto es así, porque que en este caso, como k = 2, ambos tests son equivalentes. Finalmente es de hacer notar que como aquí k = 2, el rechazo de la Ho) indica en forma automática que el tratamiento ha sido efectivo. Pero si el ensayo hubiera incluído dos grupos de animales tratados con dos drogas distintas más un grupo control, en cuyo caso k=3, el rechazo de la Ho) nos indicaría que no todos los grupos son iguales, y necesitaríamos una herramienta complementaria, que nos permitiera detectar cuál (o cuales) grupos difieren. Las Pruebas de COMPARACIONES MULTIPLES ( entre las que se cuentan las pruebas de TUKEY, BONFERRONI, DUNCAN, etc) cumplen con ese cometido. En la figura 8 (a y b) se presenta el Anova (en escala original y transformada) para la comparación de los tres grupos mencionados. La parte descriptiva del output nos muestra las 0 ± S de los tres grupos: Trat.1 360 ± 152 ( SE = 68) n = 5 Trat 2 200 ± 94 ( SE = 42) n = 5 Cont. 4200 ± 2598 ( SE = 1162) n = 5 Nuevamente la heterogeneidad de variancias es muy marcada según el test de Bartlett (p 0), lo que compromete el test " F " (= 11.34 con p = 0.0017), sin embargo con los datos en escala logarítmica, la heterogeneidad se suaviza (p = 0.2944), lo que hace al test " F " (= 31.84 con p 0) más confiable. A modo de ejemplo se corrió en ambos casos una prueba de comparaciones múltiples (TUKEY en el análisis con los datos en escala original y BONFERRONI para el análisis de los datos transformados). Ambos tests llegan a la misma conclusión: los grupos tratados no difieren entre si ( sus promedios presentan barritas en la misma vertical), pero ambos difieren de los controles (su promedio está acompañado por un barrita que no está en la misma vertical). En términos del problema esto indica que ambos tratamientos son igualmente efectivos.

Figura 8 a. Red de Helmintología de FAO para América Latina y el Caribe ONE-WAY AOV FOR: TRAT1 TRAT2 CONT SOURCE DF SS MS F P ------- ---- --------- --------- ------ ------ BETWEEN 2 5.129E+07 2.564E+07 11.34 0.0017 WITHIN 12 2.713E+07 2260583 TOTAL 14 7.841E+07 CHI-SQ DF P BARTLETT'S TEST OF ------ ------ ------ EQUAL VARIANCES 32.57 2 0.0000 COCHRAN'S Q 0.9953 LARGEST VAR / SMALLEST VAR 771.43 COMPONENT OF VARIANCE FOR BETWEEN GROUPS 4676417 EFFECTIVE CELL SIZE 5.0 SAMPLE GROUP VARIABLE MEAN SIZE STD DEV --------- ---------- ------ ---------- TRAT1 360.00 5 151.66 TRAT2 200.00 5 93.541 CONT 4200.0 5 2598.1 TOTAL 1586.7 15 1503.5 CASES INCLUDED 15 MISSING CASES 0 TUKEY (HSD) COMPARISON OF MEANS HOMOGENEOUS VARIABLE MEAN GROUPS --------- ---------- ----------- CONT 4200.0 I TRAT1 360.00.. I TRAT2 200.00.. I THERE ARE 2 GROUPS IN WHICH THE MEANS ARE NOT SIGNIFICANTLY DIFFERENT FROM ONE ANOTHER. CRITICAL Q VALUE 3.783 REJECTION LEVEL 0.050 CRITICAL VALUE FOR COMPARISON 2543.9 STANDARD ERROR FOR COMPARISON 950.91

Figura 8 b. Red de Helmintología de FAO para América Latina y el Caribe ONE-WAY AOV FOR: LNTRAT1 LNTRAT2 LNCONT SOURCE DF SS MS F P ------- ---- --------- --------- ------ ------ BETWEEN 2 23.2740 11.6370 31.84 0.0000 WITHIN 12 4.38519 0.36543 TOTAL 14 27.6592 CHI-SQ DF P BARTLETT'S TEST OF ------ ------ ------ EQUAL VARIANCES 2.45 2 0.2944 COCHRAN'S Q 0.6605 LARGEST VAR / SMALLEST VAR 4.4051 COMPONENT OF VARIANCE FOR BETWEEN GROUPS 2.25432 EFFECTIVE CELL SIZE 5.0 SAMPLE GROUP VARIABLE MEAN SIZE STD DEV --------- ---------- ------ ---------- LNTRAT1 5.8220 5 0.4054 LNTRAT2 5.2200 5 0.4559 LNCONT 8.1114 5 0.8509 TOTAL 6.3845 15 0.6045 CASES INCLUDED 15 MISSING CASES 0 BONFERRONI COMPARISON OF MEANS HOMOGENEOUS VARIABLE MEAN GROUPS --------- ---------- ----------- LNCONT 8.1114 I LNTRAT1 5.8220.. I LNTRAT2 5.2200.. I THERE ARE 2 GROUPS IN WHICH THE MEANS ARE NOT SIGNIFICANTLY DIFFERENT FROM ONE ANOTHER. CRITICAL T VALUE 2.779 REJECTION LEVEL 0.050 CRITICAL VALUE FOR COMPARISON 1.0627 STANDARD ERROR FOR COMPARISON 0.3823