Estimar, descomponer y comparar el error de mala clasificación



Documentos relacionados
TEMA 5 VALIDEZ DE LA INVESTIGACIÓN (II): Validez de conclusión estadística

Curso Comparabilidad de resultados

ESTIMACIÓN. puntual y por intervalo

Tema 3: Diseño de experimentos

Comparación de medias

TEMA 4: Introducción al Control Estadístico de Procesos

T.3 ESTIMACIÓN PUNTUAL

ESTADISTICA II INGENIERIA INFORMATICA, 3 ER Curso

Experimentos con un solo factor: El análisis de varianza. Jhon Jairo Padilla Aguilar, PhD.

Test de hipótesis. Si H0 es cierta el estadístico. sigue una distribución t de Student con n grados de libertad: s n

Curso Práctico de Bioestadística Con Herramientas De Excel

Los valores de las respuesta son las puntuaciones que, de cada individuo, o cluster, obtenemos semanalmente durante cinco semanas consecutivas:

PRUEBAS NO PARAMÉTRICAS

Random Forests. Felipe Parra

EXPERIMENTACIÓN. Eduardo Jiménez Marqués

Análisis y cuantificación del Riesgo

Curso: Métodos de Monte Carlo. Unidad 1, Sesión 2: Conceptos básicos

Inferencia Estadística

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales

VivaMéxico sin PRI. Quiero que mi país sea de todos. Dr. Ivo H. Pineda Torres. Otoño 2013

Tema 12: Contrastes Paramétricos

ANEXO USO DEL PROGRAMA GIVE-WIN Y PC-GIVE

ANÁLISIS DE LA VARIANZA (ANOVA) José Vicéns Otero Ainhoa Herrarte Sánchez Eva Medina Moral

SISTEMAS INTELIGENTES

Universidad del CEMA Prof. José P Dapena Métodos Cuantitativos V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA. 5.1 Introducción

ANÁLISIS DE DATOS NO NUMERICOS

13. Técnicas de simulación mediante el método de Montecarlo

Tema 2: Estimación puntual

Inferencia Estadística

PRUEBA DE KOLMOGOROV SMIRNOV (Contraste sobre la forma de la distribución) F(X) es la función de distribución que hipotetizamos.

IIC Sistemas Recomendadores

Detergente Lavad.1 Lavad.2 Lavad.3 Media A B C D Media

ANÁLISIS DISCRIMINANTE

EL ANÁLISIS DE LA VARIANZA (ANOVA) 1. Comparación de múltiples poblaciones

Capítulo 17 Análisis de correlación lineal: Los procedimientos Correlaciones bivariadas y Correlaciones parciales

SPSS: ANOVA de un Factor

DIPLOMADO EN RELACIONES LABORALES Estadística Asistida por Ordenador Curso

TEMA 7: Análisis de la Capacidad del Proceso

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Tema IV. EL ANOVA de un factor

Prof. Dr. José Perea Dpto. Producción Animal ANÁLISIS DE EXPERIMENTOS

PRUEBA DE HIPÓTESIS CON CHI CUADRADO EMPLEANDO EXCEL Y WINSTATS

DESCRIPCIÓN ESPECÍFICA

Metodología. del ajuste estacional. Tablero de Indicadores Económicos

Tema 3. Comparaciones de dos poblaciones

Pruebas de. Hipótesis

Encuesta económica del sector de servicios profesionales y empresariales. Cálculo de Errores de Muestreo.

Análisis de dominancia usando ruby-statsample. Introducción. Instalación de Ruby y gemas. Windows

Análisis de la Varianza de un Factor

El Filtro de Partículas

VI. TASA DE RETORNO REQUERIDA

Métodos y Diseños utilizados en Psicología

ANÁLISIS DE SENSIBILIDAD OBJETIVO DEL ANÁLISIS

Unidad II: Números pseudoaleatorios

CAPÍTULO 6 SIMULACIONES Y RESULTADOS

ESTIMACION DE INTERVALOS DE CONFIANZA

MÁQUINA DE VECTORES DE SOPORTE

8. Estimación puntual

TEMA 4: Variables binarias

Biometría Clase 8 Pruebas de hipótesis para una muestra. Adriana Pérez 1

ESQUEMA GENERAL DISEÑOS DE MEDIDAS REPETIDAS

Covarianza y coeficiente de correlación

3. ANÁLISIS ESTADÍSTICOS DE LAS PRECIPITACIONES EN EL MAR CASPIO

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

Integración de Monte Carlo Técnicas Avanzadas de Gráficos en 3D

8.1. Introducción Dependencia/independencia estadística Representación gráfica: diagrama de dispersión Regresión...

INDICE Prefacio 1 Introducción 2 Organizaciones de los datos para que transmitan un significado: tablas y graficas

Métodos no paramétricos para la comparación de dos muestras

IDENTIFICACIÓN DE SISTEMAS ASPECTOS PRÁCTICOS EN IDENTIFICACIÓN

MÓDULO III SEIS SIGMA ESTRATEGIA PARA LA MEJORA DE PROYECTOS

CURSO HERRAMIENTAS ESTADISTICAS PARA IMPLEMENTACION DE SIX SIGMA EN EMPRESAS DE PRODUCCION, LOGISTICA Y SERVICIOS

Programa de Statgraphics. TITULO: Aplicaciones del Análisis de la Varianza. Resolución de dos Ejercicios propuestos paso por paso.

Análisis de Regresión Múltiple con Información Cualitativa: Variables Binarias o Ficticias

Validation. Validación Psicométrica. Validation. Central Test. Central Test. Centraltest CENTRAL. L art de l évaluation. El arte de la evaluación

Diseño Estadístico de Experimentos

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Estimación de parámetros, validación de modelos y análisis de sensibilidad

LA MEDIDA Y SUS ERRORES

SIMULACIÓN MCMC. Dr. Holger Capa Santos

Fundamentos de Biología Aplicada I Estadística Curso Práctica 6: Regresión Logística I

Curso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo

Evaluando las Hipótesis Inductivas. Tomás Arredondo Vidal 8/9/2011

1.1. Introducción y conceptos básicos

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012

Relación de problemas: Variables aleatorias

Análisis de componentes principales

MUESTREO TIPOS DE MUESTREO

Muestreo. Introducción

Hay diferencias en la media del HOMA entre los diabéticos y los no diabéticos? Resumen del procesamiento de los casos

BREVE APUNTE SOBRE EL PROBLEMA DE LA MULTICOLINEALIDAD EN EL MODELO BÁSICO DE REGRESIÓN LINEAL

BANCO DE MEXICO. Definiciones básicas de Riesgos

Tema 1: Test de Distribuciones de Probabilidad

MATEMÁTICAS aplicadas a las Ciencias Sociales II

Generación de números aleatorios

ESTADISTICA II. INGENIERIA INFORMATICA, 3 ER Curso

Generación de Números Pseudo-Aleatorios

Estadística (Gr. Biología-09) ( )

Mónica López Ratón BIOSTATECH, Advice, Training & Innovation in Biostatistics, S.L. Octubre monica.lopez.raton@usc.es

Administración de proyectos. Organizar, planificar y programar los proyectos de software

Evaluación de modelos para la predicción de la Bolsa

Transcripción:

Estimar, descomponer y comparar el error de mala clasificación Evaluando y analizando el comportamiento de algoritmos de inducción de clasificadores Aritz Pérez, Pedro Larrañaga e Iñaki Inza Intelligent Systems Group Ciencias de la Computación e Inteligencia Artificial Universidad del Pais Vasco-Euskal Herriko Univertsitatea 14-IX-2005 / CEDI-TAMIDA 05

Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Conceptos básicos Error Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Conceptos básicos Error Notación x instanciación de las variables (predictoras) X R n c {1,..., r} es la clase real asociada a x Densidad de los datos (real y desconocida) f(x, c) S N = {(x 1, c 1 ),..., (x N, c N )} es un conjunto de N casos El clasificador entrenado en S, g(x, S) : R n R N n+1 {1,..., r} Delta de Kronecker, δ(u, u ) = 1 u = u

Conceptos básicos Error El error de clasificación ɛ(g S N ) [0, 1], ɛ(g S N ) = P (g(x, S N ) C) = E f (1 δ(c, g(x, S N )))

Conceptos básicos Error El error cuadrático medio ɛ ms (g r S N ) ɛ ms (g r S N ) = E f [(g r (x S N ) f(x)) 2 ] La clase Y R es continua (regresión) Función de regresión (clase continua) g r (x S N ) : R n R N n+1 R

Conceptos básicos Estimación Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Conceptos básicos Estimación ˆɛ(g S N ) = E f SN (1 δ(c, g(x, S N ))) ˆɛ(g S N ) es el estimador que se obtiene al reemplazar f por la densidad empírica f S N (x, c) = 1/N (x, c) S N, basada en la muestra S N f(x, C) S N = {(x 1, c 1 ),..., (x N, c N )} f S N (X, C)

Conceptos básicos Estimación Sesgo y varianza de un estimador: sesgo = ɛ E(ˆɛ) varianza = E[(ˆɛ E(ˆɛ)) 2 ]

Estimación del error Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Estimación del error Obtener una estimación del error de un clasificador entrenado en S N, ˆɛ(g S N ), lo menos sesgada y variable posible

Estimación del error Estimación con muchos casos Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Estimación del error Estimación con muchos casos Resustitución (resampling) (Smith 1947): Optimista por sobreajuste (S N = S e = S t ) ˆɛ r = 1 N N (1 δ(c i, g(x i, S N ))) i=1 Holdout: Pesimista (conj. entren S e N con N < N). ˆɛ h = S e S t = y S N = S e S t N N 1 N N (1 δ(c t:i ), g(x t:i, SN e )) i=1

Estimación del error Estimación con pocos casos Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Estimación del error Estimación con pocos casos Repeated holdout Repetir el proceso del holdout (l veces): ˆɛ rh = 1 l l j=1 ˆɛ (j) h Estimación del error poco sesgada pero muy variable (muestra ˆɛ (j) h, j = 1,..., l dependiente)

Estimación del error Estimación con pocos casos K-fold cross-validation (Stone 1974) k ˆɛ kfcv = 1 k i=1 ˆɛ i Testar en conjuntos disjuntos (reducir dependencia) Estimación del error poco sesgada (menos que repeated holdout) pero muy variable.

Estimación del error Estimación con pocos casos Versiones K-fold cross-validation 10-fold cross-validation (k = 10): opción más difundida Leave-one-out (k = N): Algo menos variable pero más costoso Stratified cross-validation: menos variable Repeated cross validation: menos variable y más costoso

Estimación del error Estimación con pocos casos Jackknife (Quenouille 1956) ˆɛ J = 1 n n δ( ˆf(x i, S n ), y i ) i=1 + (n 1)( 1 n 2 n 1 n(n 1) j=1 k=1 n n δ( ˆf(x i, S n ), y i ) n j=1 k=1,k j δ( ˆf(x i, S n ), y i )) (1) Variante del leave-one-out que entrena con S i N 1 = S N \ (x, c) y testa en S N Menos sesgo que la resustitución

Estimación del error Estimación con pocos casos 0.632 Bootstrap estimator (Efron 1983) Muestreo de la distribución empírica F S N (X, C) Estimador con poco sesgo (problemas con clasif. complejos) y menos varianza que k-fold c.v. ˆɛ b = 0.368ˆɛ r + 0.632ˆɛ 0 ˆɛ r = 1 B ˆɛ (i) r ˆɛ 0 = 1 B ˆɛ (i) 0 B B i=1 i=1

Estimación del error Estimación con pocos casos Versiones de bootstrap Zero bootstrap estimator, ˆɛ 0 : sesgado Balanced bootstrap resampling (Chernick 1999): menos variable Parametric bootstrap: muestrear un modelo probabilista Smoothed bootstrap: muestrear una densidad basada en kernels

Estimación del error Estimación con pocos casos Bolstered (Braga-Neto 2004) Emplear una densidad basada en kernels f en lugar de la densidad empírica f para computar la esperanza del error. f (x, c) = 1 N N f i (x x i )δ(c = c i ) i=1 Esparcir la masa (1/N) de cada caso x en su entorno empleando Permitir que un caso aporte un error ɛ i de ɛ i {0, 1/N} [0, 1/N] en lugar

Estimación del error Estimación con pocos casos Bolstered resubstitution (Braga-Neto 04) ˆɛ br = 1 N N ( f i (x x i)dxδ(c i, 0)+ f i (x x i)dxδ(c i, 1)) A 1 A 0 i=1 Comparable al bootstrap pero más eficiente Computar las integrales mediante el muestreo de Monte-Carlo La mejor opción para clasificadores lineales (formulación cerrada) Peor comportamiento (optimista) con clasificadores complejos (sobreajuste)

Estimación del error Estimación con pocos casos Bolstered resubstitution (Braga-Neto 2004) A c = {x/g(x, S N ) = c} c 1, c 2, c 3 = c {x 1 } A c {x 2, x 3 } A c

Estimación del error Estimación con pocos casos Alternativas bolstered (Braga-Neto 04) Semi-bolstered resubstitution: más optimista pero más variable (clasificadores complejos). Bolstered leave-one-out: poco sesgo y menos variable que leave-one-out y repeated cross validation

Descomposición en sesgo y varianza Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Descomposición en sesgo y varianza Analizar el comportamiento de un clasificador empleando la descomposición en sesgo y varianza de su error. Introducida por German y col. (1992) para la esperanza del error cuadrático (mean squared error) al mundo del aprendizaje automático (regresión). La descomposición propuesta por Kohavi y Wolpert (1996) para funciones funciones de perdida 0-1 (zero-one-loss functions) es la más empleada. Analizar el dominio de un problema. Equilibrio entre sesgo y varianza (bias variance trade-off)

Descomposición en sesgo y varianza Descomposición del error cuadrático medio (regresión) ɛ ms ( ˆf g SN ) ɛ ms (g r S N ) = E f [(g r (x S N ) f(x)) 2 ] = E f [g r (x S N ) E(g r (x S N )) f(x, c) + E(g r (x))] 2 = E f [(g r (x S N ) E(g r (x))) 2 ] +E f [(f(x) E(g r (x S N ))) 2 ] E f [2(g r (x S N ) E(g r (x S N )))(f(x, c) E(g r (x)))] variance = E f [g r (x, S N ) E(g r (x, S N ))] 2 bias 2 = E f [f(x, c) E(g r (x, S N ))] 2 El tercer termino es cero

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Error de clasificación para funciones de perdida 0-1 ɛ 0 1 = = N r r p(x i ) (1 δ(c h, c t ))p(c t x i )ˆp(c h x i ) i=1 c h =1 c t=1 N p(x i )(1 i=1 c=1 r p(c x i )ˆp(c x i ))

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Descomposición de ɛ 0 1 ɛ 0 1 = N p(x i )(σx 2 i + bias 2 x i + variance 2 x i ) i=1 El objetivo no consiste en estimar el error de forma insesgada e invariante Comportamiento aditivo de los términos Existe un equilibrio entre sesgo y varianza (bias variance trade-off). La incorporación de información a priori es una buena opción para tratar de reducir ambos términos.

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Interpretación de la descomposición de ɛ 0 1 Ruido implícito: σ 2 1 2 N r (1 f(x i, c) 2 ) i=1 c=1 Expresa el ruido de la distribución real de los datos Relacionado con el error de Bayes ɛ B 0 1 (mínimo error) En la práctica es cero a no ser que (x, c) S (x, c ) S c c

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Interpretación de la descomposición de ɛ 0 1 Sesgo: bias 2 1 2 N r [f(x i, c) ˆf(x i, c)] 2 i=1 c=1 El sesgo mide el error debido al desajuste entre la densidad estimada ˆf(x, c) y la real f(x, c) (distancia) El sesgo tiende a ser mayor en clasificadores simples (con pocos parámetros)

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Interpretación de la descomposición de ɛ 0 1 Varianza: variance 1 2 N (1 r ˆf(x i, c) 2 ) i=1 c=1 La varianza mide el error fruto de la variabilidad de la densidad estimada ˆf(x, c) a los cambios en el conjunto de entrenamiento. Puede considerarse una medida de sensibilidad a los cambios en el conjunto de entrenamiento. La varianza tiende a ser mayor en clasificadores complejos (con muchos parámetros)

Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) Descomposiciones alternativas Mean squared error: German y col 1992. zero-one-loss: Kong and Dietterich 1995, Friedman 1997, Domingos 2000 y James 2003

Comparar algoritmos de inducción de clasificadores Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Comparar algoritmos de inducción de clasificadores Dados dos algoritmos de inducción de clasificadores A y B, poder establecer de forma fiable, si se comportan de manera similar o si uno es superior al otro Herramienta matemática: Test estadístico Hipótesis nula H 0 : los algoritmos A y B obtienen el mismo error H 0 : ɛ(g A S N ) = ɛ(g B S N ) (2)

Comparar algoritmos de inducción de clasificadores Tests estadísticos Mann-Whitney (suma de rangos): no paramétrico, no apareada. Wilcoxon (diferencias): no paramétrico, apareada. T-test de Student: paramétrico (supone normalidad en las diferencias), apareado/no apareado, distribución t con l 1/l A + l B 2. t = d( ) σ 2 d (i) l t = ɛ( ) A ɛ( ) B σ 2 ˆɛ (i) σ A l A + 2ˆɛ (i) B l B Suponen independencia entre las muestras de un clasificador ˆɛ (i) A y ˆɛ(j) A i, j/i j. Los métodos de comparación que presentamos las incumplen

Comparar algoritmos de inducción de clasificadores Criterios de evaluación del método Error Tipo I: probabilidad de rechazar la hipótesis nula cuando esta es cierta (falsa diferencia) Error Tipo II: probabilidad de aceptar la hipótesis nula cuando esta es falsa (falsa igualdad) Replicabilidad: probabilidad de que dos ejecuciones de un mismo método de comparación produzca los mismos resultados (estabilidad)

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos Índice 1 Conceptos básicos Error Estimación 2 Estimación del error Estimación con muchos casos Estimación con pocos casos 3 Descomposición en sesgo y varianza Descomposición de Kohavi y Wolpert (1996) 4 Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5 Resumen

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos k-fold cross-validation + t-test pareado t = d( ) 1 k σ2 d (i) t-test pareado con k 1 grados de libertad Posibilidad de emplear otros tests Infraestima la varianza (dependencia train-train) Error Tipo I alto (llega a doblar la significatividad), Tipo II bajo y baja replicabilidad Comportamiento parecido a repeated holdout + t-test pareado. Casos particulares: k = 10 y k = N

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos 5x2 cross validation (Dietterich 1998) t = d (1,1) 1 5 5 i=1 σ2 d (i, ) 5 (l = 5) ejecuciones de 2-fold c.v Sigue una distribución t con 5 grados de libertad Aceptable error Tipo I (mejor que 10 fold cv) y bajo error Tipo II Falla cuando la muestra de los errores estimados es heterogénea

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos Combined 5x2 cv F-test (Alpaydin 1999) Emplear toda la muestra y emplear la media en el denominador t = 5 i=1 2 j=1 d(i,j) 2 5 i=1 σ2 d (i, ) Sigue una F de Snedecor con 10 y 5 grados de libertad Menor error Tipo I y Tipo II que 10-fold cross-validation y 5x2 cross validation.

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos Corrected resampled t-test (Nadeau y Bengio 2003) t = d ( ) ( 1 l + Nt N e )σ 2 d (i) Muestreo aleatorio sin reemplazamiento (repeated holdout) Corrección sobre el estimador de la varianza del t-test pareado (modelando correlación de ˆɛ (i) ) para reducir el error Tipo I Distribución t con l 1 grados de libertad Error Tipo I aceptable y error Tipo II bajo

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos Corrected repeated k-fold cross validation (Bouckaert y Frank 2004) t = d (, ) ( 1 k r + 1 k 1 )σ2 d (i) Obtiene k l diferentes d (i,j) ˆɛ (i-ésimo fold de la j-ésima ejecución). Estadístico equivalente al corrected resampled t-test (misma corrección) con k l 1 grados de libertad. Errores Tipo I y Tipo II apropiados y mayor replicabilidad que corrected resampled t-test

Comparar algoritmos de inducción de clasificadores Como comparar dos algoritmos Shorted runs sampling (Bouckaert 2004) Emplea los errores estimados mediante l times repeated k-cross validation (alto coste computacional) Dada la ejecución j-ésima j {1,..., l}, ordena las diferencias d (i,j) obtenidas en cada fold i {1,..., k} Una vez ordenadas las diferencias las promedia en las ejecuciones para obtener d (i, ) = 1 l l j=1 d(i,j) Errores Tipo I y Tipo II apropiados y alta replicabilidad (con t-test sin corrección y Wilcoxon)

Resumen Se han mostrado: Alguno métodos para estimar el error de un clasificador La descomposición en sesgo y varianza del error de clasificación para funciones de perdida 0-1 (Kohavi y Wolpert 1996) Varias herramientas que permiten comparar dos clasificadores en términos del error que cometen

Resumen aritz@si.ehu.es