Modelos Generalizados Aditivos, CART, Random Forests

Documentos relacionados
Boosting. Boosting. Marzo de 2018

Principales Técnicas Validación y Selección de Modelos. Abril de 2016

CART s. Walter Sosa-Escudero. Universisad de San Andres y CONICET

Aprendizaje: Boosting y Adaboost

Técnicas Multivariadas Avanzadas

Random Forests. Teoría y ejemplos. Romain Gouron. Conferencia 9, GLAM, Doble titulo Ecole Centrale de Nantes (Francia)

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

UNIT 2 DIVISIBILITY 1.- MULTIPLES AND FACTORS Concept of multiple Concept of factor

CONTROLADORA PARA PIXELS CONPIX

GRADE 3 MCCSC VOCABULARY. Marking Period 3

Métodos de Remuestreo en Aprendizaje Automático

Random Subspace Method. Índice. 1. Random Subspace Method. 1. Introducción. 2. Objetivo. 3. Implementación. 4. Evaluación. 5.

Clasificación Supervisada. Métodos jerárquicos. CART

Hipótesis. Teoria del Aprendizaje Computacional

Métodos No Lineales. Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Agosto de 2017

Derechos reservados AVL, JADD, AJBG, queda prohibida su reproducción total y/o parcial.

Pregunta 1 Suponga que una muestra de 35 observaciones es obtenida de una población con media y varianza. Entonces la se calcula como.

Intersección de Segmentos de Recta. Geometría Computacional, MAT-125

Complementación y ampliación de la currícula de la Maestría 2017 Maestría en Generación y Análisis de Información Estadística

Aprendizaje Automático

Intersección de Segmentos de Recta (2) Geometría Computacional, MAT-125

UNIT 9.- INTRODUCTION TO HYPOTHESIS TESTING.

Algoritmos y Estructuras de Datos

IE12_ CONSOLIDACIÓN Y DESARROLLO DE NUEVAS TÉCNICAS DE EVALUACIÓN INTENSIVAS ON-LINE YA IMPLEMENTADAS POR EL GIE E4

MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.

TELEVISOR A COLORES MANUAL DE SERVICIO MODELO : CP-29C40P. ATENCIÓN Antes de dar servicio al chasis, lea las PRECAUCIONES DE SEGURIDAD en este manual.

Aprendizaje Automático

Repaso de funciones exponenciales y logarítmicas. Review of exponential and logarithmic functions

Programación lineal Optimización de procesos químicos DIQUIMA-ETSII

Clasificadores Débiles - AdaBoost

Aprendizaje Automatizado. Árboles de Clasificación

Ingreso a DatAcademy mediante Telefónica Accounts. Versiones: Español / Ingles Guía de usuario / User Guide

Los números. 0 cero 1 uno / un 2 dos 3 tres 4 cuatro. 6 seis 7 siete 8 ocho 9 nueve 10 diez 5 cinco

Combinación de Clasificadores

Práctica 4 vgaribay PRÁCTICA 4. CONTRASTE DE HIPOTESIS. 1 ESTUDIO DE NORMALIDAD Plot de normalidad. Camino 1

Introducción a los sistemas Multiclasificadores. Carlos J. Alonso González Departamento de Informática Universidad de Valladolid

OLIMPIADAS MATEMÁTICAS DEPR 4 DE ABRIL 2014

Random Forests. Felipe Parra

(a) Calculate a point estimate of the mean pull-off force of all connectors in the population. State which estimator you used and why.

74 Prime Time. conjetura Suposición acerca de un patrón o relación, basada en observaciones.

Métodos de ensambles

Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification

Soluciones Olimpiadas Matemáticas del Nivel Superior Programa de Matemática, DEPR Abril 2015

Flashcards Series 4 El Hotel

Grado 3 Vocabulario/ Representación Vocabulario Descripción Representación

Manual para Cambio de Apariencia en Acrobat Reader DC. Change of Appearance in Acrobat Reader DC

Level 1 Spanish, 2013

A limit theorem for random games

INAOE. Ensambles de Clasificadores. Eduardo Morales, Hugo Jair Escalante. Introducción. Ensambles de Clasificadores. Algoritmos.

Tema 15: Combinación de clasificadores

Preview Teacher Packet. Provide one copy per student of Student Pages 1 thru 3. Print Edusoft Teacher Score Sheet to scan results.

Sincerely, Your child s teacher

Módulo Minería de Datos Diplomado. Por Elizabeth León Guzmán, Ph.D. Profesora Ingeniería de Sistemas Grupo de Investigación MIDAS

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

LAB 2: Circuitos de Corriente Directa (DC) PARTE I OBJECTIVES

In this unit you will be able to talk about your classes and school life, discuss everyday activities, ask questions, describe the location of people

x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a) We use Gausian elimination to transform the augmented matrix of the system

El Jardín de la Memoria (El adepto de la Reina nº 2) (Spanish Edition)

Level 1 Spanish, 2016

Examen de Certificación C1 Información para candidatos

XV COPA CHAMPAGNAT DE MATEMATICAS Superior. Iván Cardona Torres, Ph.D.

FORMAT B2 SPEAKING EXAM

SOLUBILITY: Reading, Questions, & Inquiry Activity

Flashcards Series 2 Las Necesidades de la Vida

Añadir para firmar digitalmente documentos EDE. Add digital signatures to EDE documents

Computer Science. Support Guide First Term Fourth Grade. Agustiniano Ciudad Salitre School. Designed by Mary Luz Roa M.

Flashcards Series 3 El Aeropuerto

MAESTRÍA EN CIENCIAS EN CONSERVACIÓN Y APROVECHAMIENTO DE RECURSOS NATURALES ADMINISTRACIÓN

VMC vs DMC. Study of the Ground State Energy of He 4. B. Dannowitz, B. Dellabetta, A. Ghalsasi. May 12, 2011

VECTORES. MULTIPLE CHOICE. Choose the one alternative that best completes the statement or answers the question.

Might. Área Lectura y Escritura. In order to understand the use of the modal verb might we will check some examples:

Programación lineal. Optimización de procesos químicos

PROYECTO FAMILIAR: SUDODDKU PROYECTO FAMILIAR. UCI Math CEO Meeting 4 (FEBRUARY 8, 2017) Estimado estudiante,

Conjuntos de Clasificadores (Ensemble Learning)

MANUAL EASYCHAIR. A) Ingresar su nombre de usuario y password, si ya tiene una cuenta registrada Ó

Microsoft Office Word

Work Place 1M. Count & Compare Butterflies. 1. Find a partner.

ACTIVIDAD 2: La distribución Normal

Clasificación Bimodal

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

FUNCIONES: Repaso Functions: A Review

Descomposicion en Polígonos Monótonos. comp-420

OLIMPIADAS MATEMÁTICAS DEPR 4 DE ABRIL 2014

Aprendizaje Automatizado. Árboles de Clasificación

Los seres vivos/ living things. CONOCIMIENTO DEL MEDIO 3º DE PRIMARIA

Unit 8: Maximum Likelihood for Location-Scale Distributions

Creating New Parent Accounts on SDUHSD Information Portal

Árboles de clasificación/decisión mediante R

Aprendizaje Automatizado

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Series de Tiempo I. Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Febrero de 2012

Unit 8: Maximum Likelihood for Location-Scale Distributions. Ramón V. León

Evaluate the effect of ProStart PLUS in the flowering response of Cherries plants cv. Bing

(iii) r. (6) (Total 6 marks)

Qué viva la Gráfica de Cien!

WebForms con LeadTools

Preguntas Capítulo Entero. 3. Crear un ejemplo debiendo dinero para comparar dos números negativos.

Transcripción:

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Modelos Generalizados Aditivos, CART, Random Forests Universidad de los Andes y Quantil Junio de 2018 Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Modelos generalizados aditivos y relacionados Vamos a estudiar la forma general de los modelos generalizados aditivos y algunos casos particulares: 1 Modelo logít generalizado. 2 Árboles de clasificación y regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Estructura general: Modelos Generalizados Aditivos La forma general de expresar el mejor clasificador es: E [Y X ] = α + f 1 (X 1 ) +... + f p (X p ) (1) Una forma estándar de estimar los coeficientes es definir una función de pérdida con penalización. Por ejemplo minimizar la suma de los errores al cuadrado y penalizar por las segundas derivadas de las funciones. Existe un algoritmo para estimar α y las funciones f i : Backfitting algorithm. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Estructura general: Modelos Generalizados Aditivos La forma general de expresar el mejor clasificador es: E [Y X ] = α + f 1 (X 1 ) +... + f p (X p ) (1) Una forma estándar de estimar los coeficientes es definir una función de pérdida con penalización. Por ejemplo minimizar la suma de los errores al cuadrado y penalizar por las segundas derivadas de las funciones. Existe un algoritmo para estimar α y las funciones f i : Backfitting algorithm. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos logit, probit, etc. El modelo Logit generalizado se especifica como: Pr(G = 1 X = x) p log( Pr(G = 0 X = x ) = β + f i (x i ) i=1

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Árboles de clasificación y regresión (CART) En este caso el mejor clasificador (regresor) se expresa de la forma: f (x) = M c m I {x R m } (2) m=1 donde R m son diferentes regiones en las cuales la función se va aproximar por una contante c m. Algunas regiones son difíciles de describir (panel izquierdo arriba siguiente gráfica). Una alternativa es encontrar regiones haciendo separaciones binarias secuenciales. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Árboles de clasificación y regresión (CART) En este caso el mejor clasificador (regresor) se expresa de la forma: f (x) = M c m I {x R m } (2) m=1 donde R m son diferentes regiones en las cuales la función se va aproximar por una contante c m. Algunas regiones son difíciles de describir (panel izquierdo arriba siguiente gráfica). Una alternativa es encontrar regiones haciendo separaciones binarias secuenciales. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Árboles de clasificación y regresión (CART) En este caso el mejor clasificador (regresor) se expresa de la forma: f (x) = M c m I {x R m } (2) m=1 donde R m son diferentes regiones en las cuales la función se va aproximar por una contante c m. Algunas regiones son difíciles de describir (panel izquierdo arriba siguiente gráfica). Una alternativa es encontrar regiones haciendo separaciones binarias secuenciales. Alvaro J. Riascos Villegas Uniandes - Quantil

Árboles de clasificación y regresión (CART) 306 9. Additive Models, Trees, and Related Methods Los paneles 2,3,4 representan regiones obtenidas mediante separaciones binarias secuenciales. R5 R2 t4 X2 X2 R3 t2 R4 R1 t1 t3 X1 X1 X1 t1 X2 t2 X1 t3 X2 t4 R1 R2 R3 X2 X1 R4 R5 FIGURE 9.2. Partitions and CART. Top right panel shows a partition of a two-dimensional feature space by recursive binary splitting, as used in CART, applied to some fake data. Top left panel shows a general partition that cannot be obtained from recursive binary splitting. Bottom left panel shows the tree corresponding to the partition in the top right panel, and a perspective plot of the prediction surface appears in the bottom right panel.

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Árboles de regresión Consideramos primero el caso en el que la variable objetivo es continua (problema de regresión). Si la función de pérdida es cuadrática las mejores constantes en cada región son el promedio. ĉ m = media{y i x i R m } (3) Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Árboles de regresión Consideramos primero el caso en el que la variable objetivo es continua (problema de regresión). Si la función de pérdida es cuadrática las mejores constantes en cada región son el promedio. ĉ m = media{y i x i R m } (3) Alvaro J. Riascos Villegas Uniandes - Quantil

Árboles de regresión Para definir las regiones hacemos lo siguiente. Sea j una variable de separación y s el punto de corte. Definimos las dos regiones: R 1 (j, s) = {X x j s} (4) R 2 (j, s) = {X x j > s} (5)

Árboles de regresión Ahora resolvemos el siguiente problema: min j,s (min c1 x R 1 (j,s) (y j c 1 ) 2 + min c2 x R 2 (j,s) (y j c 2 ) 2 ) Para cada elección de j, s, los valores c 1, c 2 que minimizan el error son los promedios en cada región R 1 (j, s), R 2 (j, s), respectivamente. Una vez resuelto este problema, con j, s, c 1, c 2, se repite el proceso en cada region R 1 (j, s), R 2 (j, s). Ahora la pregunta fundamental es qué tanto crecemos el árbol?. El tamaño del árbol es una medida de la complejidad del mismo. (6)

Árboles de regresión Ahora resolvemos el siguiente problema: min j,s (min c1 x R 1 (j,s) (y j c 1 ) 2 + min c2 x R 2 (j,s) (y j c 2 ) 2 ) Para cada elección de j, s, los valores c 1, c 2 que minimizan el error son los promedios en cada región R 1 (j, s), R 2 (j, s), respectivamente. Una vez resuelto este problema, con j, s, c 1, c 2, se repite el proceso en cada region R 1 (j, s), R 2 (j, s). Ahora la pregunta fundamental es qué tanto crecemos el árbol?. El tamaño del árbol es una medida de la complejidad del mismo. (6)

Árboles de regresión Ahora resolvemos el siguiente problema: min j,s (min c1 x R 1 (j,s) (y j c 1 ) 2 + min c2 x R 2 (j,s) (y j c 2 ) 2 ) Para cada elección de j, s, los valores c 1, c 2 que minimizan el error son los promedios en cada región R 1 (j, s), R 2 (j, s), respectivamente. Una vez resuelto este problema, con j, s, c 1, c 2, se repite el proceso en cada region R 1 (j, s), R 2 (j, s). Ahora la pregunta fundamental es qué tanto crecemos el árbol?. El tamaño del árbol es una medida de la complejidad del mismo. (6)

Árboles de regresión Ahora resolvemos el siguiente problema: min j,s (min c1 x R 1 (j,s) (y j c 1 ) 2 + min c2 x R 2 (j,s) (y j c 2 ) 2 ) Para cada elección de j, s, los valores c 1, c 2 que minimizan el error son los promedios en cada región R 1 (j, s), R 2 (j, s), respectivamente. Una vez resuelto este problema, con j, s, c 1, c 2, se repite el proceso en cada region R 1 (j, s), R 2 (j, s). Ahora la pregunta fundamental es qué tanto crecemos el árbol?. El tamaño del árbol es una medida de la complejidad del mismo. (6)

Árboles de regresión Una alternativa sería solo permitir ramificaciones cuando la reducción en el error supera cierto umbral. Sin embargo esta estrategia puede no ser muy buena en la medida que ramificaciones posteriores pueden reducir sustancialmente el error. Otra alternativa es crecer el árbol hasta que cada nodo terminal tenga menos de cierto umbral de ejemplos de la muestra. Podar: Ahora se comienza a podar el árbol (cortando ramas e introduciendo hojas con las observaciones de todos los nodos terminales que se cortan). El tamaño del árbol se determina podándolo con el objetivo de minimizar una medida del costo de la complejidad (cost complexity pruning).

Árboles de regresión Una alternativa sería solo permitir ramificaciones cuando la reducción en el error supera cierto umbral. Sin embargo esta estrategia puede no ser muy buena en la medida que ramificaciones posteriores pueden reducir sustancialmente el error. Otra alternativa es crecer el árbol hasta que cada nodo terminal tenga menos de cierto umbral de ejemplos de la muestra. Podar: Ahora se comienza a podar el árbol (cortando ramas e introduciendo hojas con las observaciones de todos los nodos terminales que se cortan). El tamaño del árbol se determina podándolo con el objetivo de minimizar una medida del costo de la complejidad (cost complexity pruning).

Árboles de regresión Una alternativa sería solo permitir ramificaciones cuando la reducción en el error supera cierto umbral. Sin embargo esta estrategia puede no ser muy buena en la medida que ramificaciones posteriores pueden reducir sustancialmente el error. Otra alternativa es crecer el árbol hasta que cada nodo terminal tenga menos de cierto umbral de ejemplos de la muestra. Podar: Ahora se comienza a podar el árbol (cortando ramas e introduciendo hojas con las observaciones de todos los nodos terminales que se cortan). El tamaño del árbol se determina podándolo con el objetivo de minimizar una medida del costo de la complejidad (cost complexity pruning).

Árboles de regresión Una alternativa sería solo permitir ramificaciones cuando la reducción en el error supera cierto umbral. Sin embargo esta estrategia puede no ser muy buena en la medida que ramificaciones posteriores pueden reducir sustancialmente el error. Otra alternativa es crecer el árbol hasta que cada nodo terminal tenga menos de cierto umbral de ejemplos de la muestra. Podar: Ahora se comienza a podar el árbol (cortando ramas e introduciendo hojas con las observaciones de todos los nodos terminales que se cortan). El tamaño del árbol se determina podándolo con el objetivo de minimizar una medida del costo de la complejidad (cost complexity pruning).

Árboles de regresión Sea T un árbol, indexemos por m los nodos terminales del árbol y sea T el número de nodos terminales en T. Sea N m el número de observaciones tal que x R m. ĉ m el promedio de las variables objetivo en la región R m. Sea Q m (T ) el error promedio cuadrático entre la variable objetivo y el promedio en la región. El costo de la complejidad se define como: C α (T ) = T m=1 N m Q m (T ) + α T (7)

Árboles de regresión Sea T un árbol, indexemos por m los nodos terminales del árbol y sea T el número de nodos terminales en T. Sea N m el número de observaciones tal que x R m. ĉ m el promedio de las variables objetivo en la región R m. Sea Q m (T ) el error promedio cuadrático entre la variable objetivo y el promedio en la región. El costo de la complejidad se define como: C α (T ) = T m=1 N m Q m (T ) + α T (7)

Árboles de regresión Sea T un árbol, indexemos por m los nodos terminales del árbol y sea T el número de nodos terminales en T. Sea N m el número de observaciones tal que x R m. ĉ m el promedio de las variables objetivo en la región R m. Sea Q m (T ) el error promedio cuadrático entre la variable objetivo y el promedio en la región. El costo de la complejidad se define como: C α (T ) = T m=1 N m Q m (T ) + α T (7)

Árboles de regresión Sea T un árbol, indexemos por m los nodos terminales del árbol y sea T el número de nodos terminales en T. Sea N m el número de observaciones tal que x R m. ĉ m el promedio de las variables objetivo en la región R m. Sea Q m (T ) el error promedio cuadrático entre la variable objetivo y el promedio en la región. El costo de la complejidad se define como: C α (T ) = T m=1 N m Q m (T ) + α T (7)

Árboles de regresión Sea T un árbol, indexemos por m los nodos terminales del árbol y sea T el número de nodos terminales en T. Sea N m el número de observaciones tal que x R m. ĉ m el promedio de las variables objetivo en la región R m. Sea Q m (T ) el error promedio cuadrático entre la variable objetivo y el promedio en la región. El costo de la complejidad se define como: C α (T ) = T m=1 N m Q m (T ) + α T (7)

Árboles de regresión El problema que queremos resolver es: min T T C α (T ) donde T es cualquier sub árbol que se puede obtener de T podándolo. Valores altos de α resulta en árboles más pequeños. Si es cero el resultado es el árbol T. El parámetro α se puede determinar usando validación cruzada. Por ejemplo el valor de α que reduzca el M-fold validación cruzada de la suma de los errores.

Árboles de regresión El problema que queremos resolver es: min T T C α (T ) donde T es cualquier sub árbol que se puede obtener de T podándolo. Valores altos de α resulta en árboles más pequeños. Si es cero el resultado es el árbol T. El parámetro α se puede determinar usando validación cruzada. Por ejemplo el valor de α que reduzca el M-fold validación cruzada de la suma de los errores.

Árboles de regresión El problema que queremos resolver es: min T T C α (T ) donde T es cualquier sub árbol que se puede obtener de T podándolo. Valores altos de α resulta en árboles más pequeños. Si es cero el resultado es el árbol T. El parámetro α se puede determinar usando validación cruzada. Por ejemplo el valor de α que reduzca el M-fold validación cruzada de la suma de los errores.

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting La única modificación necesaria es definir la función de error en cada ramificación: Q m (T ) (i.e. medidad de impureza). Sean R 1,..., R M un conjunto de regiones. Sea p(m, k) La cantidad de observaciones de la clase k en la región m como proporción de la cantidad de observaciones en esa región. Sea k(m) la clase mayoritaria en la región m. Definimos el error de clasificación como L(m) = 1 p(m, k(m)). Ahora para crecer y podar el árbol se sigue el mismo algoritmo de árboles de regresión. Alvaro J. Riascos Villegas Uniandes - Quantil

Árboles de clasificación 9.2 Tree-Based Methods 315 email 600/1536 ch$<0.0555 ch$>0.0555 remove<0.06 email 280/1177 remove>0.06 spam 48/359 hp<0.405 hp>0.405 email spam spam email 180/1065 9/112 26/337 0/22 ch!<0.191 ch!>0.191 george<0.15 CAPAVE<2.907 george>0.15 CAPAVE>2.907 email email spam email spam spam 80/861 100/204 6/109 0/3 19/110 7/227 george<0.005 george>0.005 CAPAVE<2.7505 CAPAVE>2.7505 1999<0.58 1999>0.58 email email email spam spam email 80/652 0/209 36/123 16/81 18/109 0/1 hp<0.03 hp>0.03 free<0.065 free>0.065 email email email spam 77/423 3/229 16/94 9/29 CAPMAX<10.5 business<0.145 CAPMAX>10.5 business>0.145 email 20/238 email 57/185 email spam 14/89 3/5 receive<0.125 edu<0.045 receive>0.125 edu>0.045 email spam 19/236 1/2 email 48/113 email 9/72 our<1.2 our>1.2 email spam 37/101 1/12 FIGURE 9.5. The pruned tree for the spam example. The split variables are shown in blue on the branches, and the classification is shown in every node.the numbers under the terminal nodes indicate misclassification rates on the test data.

Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 9 Árboles de clasificación α 176 21 7 5 3 2 0 Misclassification Rate 0.0 0.1 0.2 0.3 0.4 0 10 20 30 40 Tree Size FIGURE 9.4. Results for spam example. The blue curve is the 10-fold cross-validation estimate of misclassification rate as a function of tree size, with standard error bars. The minimum occurs at a tree size with about 17 terminal nodes (using the one-standard- -error rule). The orange curve is the test error, which tracks the CV error quite closely. The cross-validation is indexed by values of α, shown above. The tree sizes shown below refer to T α, the size of the original tree indexed by α.

Árboles de clasificación: Limitaciones y extensiones El método se puede adaptar de forma eficiente a predictores que no son ordenados (i.e., considerar toda las particiciones de tamaño dos es muy ineficiente). Se pueden introducir pesos distintos a la mala clasificación. Cuando existen valores faltantes se puede crear una categoria de NA. Se puede generalizar el criterio de ramificaciones a combinaciones lineales. Los árboles son usualmente muy inestables (sufren de una varianza alta). Más tarde vamos a estudiar técnicas para reducir la varianza.

Árboles de clasificación: Limitaciones y extensiones El método se puede adaptar de forma eficiente a predictores que no son ordenados (i.e., considerar toda las particiciones de tamaño dos es muy ineficiente). Se pueden introducir pesos distintos a la mala clasificación. Cuando existen valores faltantes se puede crear una categoria de NA. Se puede generalizar el criterio de ramificaciones a combinaciones lineales. Los árboles son usualmente muy inestables (sufren de una varianza alta). Más tarde vamos a estudiar técnicas para reducir la varianza.

Árboles de clasificación: Limitaciones y extensiones El método se puede adaptar de forma eficiente a predictores que no son ordenados (i.e., considerar toda las particiciones de tamaño dos es muy ineficiente). Se pueden introducir pesos distintos a la mala clasificación. Cuando existen valores faltantes se puede crear una categoria de NA. Se puede generalizar el criterio de ramificaciones a combinaciones lineales. Los árboles son usualmente muy inestables (sufren de una varianza alta). Más tarde vamos a estudiar técnicas para reducir la varianza.

Árboles de clasificación: Limitaciones y extensiones El método se puede adaptar de forma eficiente a predictores que no son ordenados (i.e., considerar toda las particiciones de tamaño dos es muy ineficiente). Se pueden introducir pesos distintos a la mala clasificación. Cuando existen valores faltantes se puede crear una categoria de NA. Se puede generalizar el criterio de ramificaciones a combinaciones lineales. Los árboles son usualmente muy inestables (sufren de una varianza alta). Más tarde vamos a estudiar técnicas para reducir la varianza.

Árboles de clasificación: Limitaciones y extensiones El método se puede adaptar de forma eficiente a predictores que no son ordenados (i.e., considerar toda las particiciones de tamaño dos es muy ineficiente). Se pueden introducir pesos distintos a la mala clasificación. Cuando existen valores faltantes se puede crear una categoria de NA. Se puede generalizar el criterio de ramificaciones a combinaciones lineales. Los árboles son usualmente muy inestables (sufren de una varianza alta). Más tarde vamos a estudiar técnicas para reducir la varianza.

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Random Forests Es una técnica para reducir varianza construyendo una gran cantidad de árboles no correlacionados para después promediarlos. Alvaro J. Riascos Villegas Uniandes - Quantil

Random Forests: Algoritmo Para b = 1,..., B Muestrear Z del mismo tamaño de la muestra. Construir un árbol T b usando el siguiente procedimiento hasta que se alcance un número de datos sea menor que n min en cada nodo. 1 Elegir aleatoriamente m variables de las p. 2 Elegir la mejor división en el nodo entre las m. 3 Repetir los dos pasos anteriores hasta alcanzar el mínimo en cada hoja. Promedia los árboles en el caso de un problema de regresión o usar voto mayoritario (cada árbol contribuye con un voto) en el caso de clasificación.

Random Forests: Propiedades Si cada árbol se crece bastante es posible reducir el sesgo pero la varianza aumenta. Al promediar se reduce la varianza. Como los árboles se contruyen usando el mismo procedimiento, el sesgo del promedio es similar al sesgo de cada árbol. Potencialmente la ganancia está en en la reducción de varianza. La reducción de la varianza se obtiene eficientemente al promediar árboles no correlacionados. La elección aleatoria en cada división garantiza que unas pocas variables no dominen la regresión.

Random Forests: Propiedades Si cada árbol se crece bastante es posible reducir el sesgo pero la varianza aumenta. Al promediar se reduce la varianza. Como los árboles se contruyen usando el mismo procedimiento, el sesgo del promedio es similar al sesgo de cada árbol. Potencialmente la ganancia está en en la reducción de varianza. La reducción de la varianza se obtiene eficientemente al promediar árboles no correlacionados. La elección aleatoria en cada división garantiza que unas pocas variables no dominen la regresión.

Random Forests: Propiedades Si cada árbol se crece bastante es posible reducir el sesgo pero la varianza aumenta. Al promediar se reduce la varianza. Como los árboles se contruyen usando el mismo procedimiento, el sesgo del promedio es similar al sesgo de cada árbol. Potencialmente la ganancia está en en la reducción de varianza. La reducción de la varianza se obtiene eficientemente al promediar árboles no correlacionados. La elección aleatoria en cada división garantiza que unas pocas variables no dominen la regresión.

Random Forests: Propiedades Si cada árbol se crece bastante es posible reducir el sesgo pero la varianza aumenta. Al promediar se reduce la varianza. Como los árboles se contruyen usando el mismo procedimiento, el sesgo del promedio es similar al sesgo de cada árbol. Potencialmente la ganancia está en en la reducción de varianza. La reducción de la varianza se obtiene eficientemente al promediar árboles no correlacionados. La elección aleatoria en cada división garantiza que unas pocas variables no dominen la regresión.

Random Forests: Rendimiento Spam Data Test Error 0.040 0.045 0.050 0.055 0.060 0.065 0.070 Bagging Random Forest Gradient Boosting (5 Node) 0 500 1000 1500 2000 2500 Number of Trees FIGURE 15.1. Bagging, random forest, and gradient boosting, applied to the spam data. For boosting, 5-node trees were used, and the number of trees were chosen by 10-fold cross-validation (2500 trees). Each step in the figure corresponds to a change in a single misclassification (in a test set of 1536).

Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 15 Random Forests: Rendimiento California Housing Data Test Average Absolute Error 0.32 0.34 0.36 0.38 0.40 0.42 0.44 RF m=2 RF m=6 GBM depth=4 GBM depth=6 0 200 400 600 800 1000 Number of Trees FIGURE 15.3. Random forests compared to gradient boosting on the California housing data. The curves represent mean absolute error on the test data as a function of the number of trees in the models. Two random forests are shown, with m =2and m =6. The two gradient boosted models use a shrinkage parameter ν =0.05 in (10.41), and have interaction depths of 4 and 6. The boosted models outperform random forests.

Random Forests: Recomendaciones Para clasificación m = p y n min = 1. Para regresión m = p 3 y n min = 5. En la práctica deben ser calibrados. Por ejemplo, en el ejemplo de California, funciona mejor otros valores.

Random Forests: Importancia relativa Dado un nodo t del árbol, sea ν(t) la variable que se usa en ese nodo para dividir en el árbol. Sea L(ν(t)) la pérdida en ese nodo si no se hiciera la división y L 1 (t) y L 2 (t) la pérdida en cada una de las divisiones que se realizan. Definamos la importancia de usar la variable l en el árbol T como: I 2 l (T ) = t i 2 t I (v(t) = l) donde i 2 t = (L(ν(t)) L(1) L(2)) 2 Para un bosque aleatorio se define como: I 2 l = 1 B b I 2 l (T b ) Se normaliza la importancia más alta en 100.

Ejemplo: Importancia relativa Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 15 Gini Randomization table parts cs 3d addresses 857 415 direct conference project original report telnet lab [ 85 technology data font credit # make people pm address order labs meeting 650 ; mail over receive re email all will ( internet 1999 business hpl edu 000 george you our money CAPTOT hp CAPMAX your CAPAVE free remove $! table parts 3d addresses direct report cs make 415 # 857 conference credit data project people telnet lab original address 85 [ labs all order technology mail font ; email over receive pm 650 internet will ( money meeting 000 business hpl you re 1999 our your CAPTOT george edu CAPMAX free hp CAPAVE $ remove! 0 20 40 60 80 100 Variable Importance 0 20 40 60 80 100 Variable Importance FIGURE 15.5. Variable importance plots for a classification random forest grown on the spam data. The left plot bases the importance on the Gini splitting index, as in gradient boosting. The rankings compare well with the rankings produced by gradient boosting (Figure 10.6 on page 316). The right plot uses oob randomization to compute variable importances, and tends to spread the importances more uniformly.

Ejemplo: Importancia relativa Para problemas de clasificación existe un análogo. En este caso se crece un bosque aleatorio para cada clase (contra las otras). Se estima la importancia de cada variable en cada bosque y se promedia.

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting Contenido 1 Modelos generalizados aditivos y relacionados 2 Estructura general: Modelos Generalizados Aditivos 3 Árboles de clasificación y regresión (CART) 4 Árboles de regresión 5 Árboles de clasificación 6 Random Forests 7 Boosting Alvaro J. Riascos Villegas Uniandes - Quantil

Modelos generalizados aditivos y relacionados Estructura general: Modelos Generalizados Aditivos Árboles de clasificación y regresión (CART) Árboles de regresión Árboles de clasificación Random Forests Boosting AdaBoost Viene de Adaptive Boosting. Supongamos que tenemos una muestra τ n = {(x 1, y 1 ),..., (x m, y m )} donde y i { 1, 1}. Defina unos pesos iniciales para cada observación i: D 1 (i) = 1 m. D t siempre será una distribución sobre las m observaciones. Alvaro J. Riascos Villegas Uniandes - Quantil

AdaBoost: Algoritmo Para cada t = 1,..., T Construir un clasificador (puede ser débil) h t que minimice la función de pérdida: 1 Defina el error e t como: e t = m D t (i)i (y i h t (x i )) (8) i=1 2 Calcular α t = 1 1 et 2 log( e t ) 3 Modificar los pesos: donde Z t = m i=1 D t(i) H(x) = sign( T t=1 α th t (x)) D t+1 (i) D t(i) exp( α t y i h t (x i )) Z t

AdaBoost: Algoritmo 338 10. Boosting and Additive Trees Final Classifier [ M ] G(x) = sign m=1 α mg m (x) Weighted Sample G M (x) Weighted Sample G 3 (x) Weighted Sample G 2 (x) Training Sample G 1 (x) FIGURE 10.1. Schematic of AdaBoost. Classifiers are trained on weighted versions of the dataset, and then combined to produce a final prediction. The predictions from all of them are then combined through a weighted

Boosting: Es un clasificador muy potente Test Error 0.0 0.1 0.2 0.3 0.4 0.5 Single Stump 244 Node Tree 0 100 200 300 400 Boosting Iterations FIGURE 10.2. Simulated data (10.2): test error rate for boosting with stumps, as a function of the number of iterations. Also shown are the test error rate for a single stump, and a 244-node classification tree.

Boosting: Observaciones Si elegimos un ejemplo de τ de forma aleatoria usando la distribución D t la probabilidad de que h t lo clasifique de forma errada es e t. e t se mide usando la misma distribución D t con respecto a la cual se entrena la hipótesis h t. No es absolutamente necesario que h t minimice e t solamente que sea marginalmente mejor que un clasificador aleatorio (i.e., la hipótesis de clasificadores débiles significa que existe un γ > 0 tal que e t < 1 2 γ). α t > 0 si e t < 1 2 y es mayor entre menor sea el error. Si calculamos el error de h t usando la distribución D t+1 este es idéntico a 1 2. Más adelante mostramos que el error de entrenamiento cae exponencialmente como función del número de clasificadores débiles que se usen para combinar.

Boosting: Observaciones Por el momento no hay garantía de que el clasificador tenga un buen error de generalización. El error de entrenamiento h(x) lo denotamos por êrr(h) y es simplemente la frecuencia de ejemplos mal clasificados por h sin ningun tipo de ponderación.

Boosting en acción: clasificadores débiles 8 1 Introduction and Overview D1 2 1 6 5 7 3 4 h1 8 10 9 D2 h 2 D 3 h 3 Figure 1.1 An illustration of how AdaBoost behaves on a tiny toy problem with m = 10 examples. Each row depicts one round, for t = 1, 2, 3.The left box in each row represents the distribution Dt, with the size of each example scaled in proportion to its weight under that distribution. Each box on the right shows the weak hypothesis ht, where darker shading indicates the region of the domain predicted to be positive. Examples that are misclassified by ht have been circled.

Boosting en acción: clasificadores débiles 1.2 Boosting 9 Table 1.1 The numerical calculations corresponding to the toy example in figure 1.1 1 2 3 4 5 6 7 8 9 10 D 1(i) 0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10 ɛ 1 = 0.30, α 1 0.42 e α1yi h1(xi ) 1.53 1.53 1.53 0.65 0.65 0.65 0.65 0.65 0.65 0.65 D 1(i) e α1yi h1(xi ) 0.15 0.15 0.15 0.07 0.07 0.07 0.07 0.07 0.07 0.07 Z 1 0.92 D 2(i) 0.17 0.17 0.17 0.07 0.07 0.07 0.07 0.07 0.07 0.07 ɛ 2 0.21, α 2 0.65 e α2yi h2(xi ) 0.52 0.52 0.52 0.52 0.52 1.91 1.91 0.52 1.91 0.52 D 2(i) e α2yi h2(xi ) 0.09 0.09 0.09 0.04 0.04 0.14 0.14 0.04 0.14 0.04 Z 2 0.82 D 3(i) 0.11 0.11 0.11 0.05 0.05 0.17 0.17 0.05 0.17 0.05 ɛ 3 0.14, α 3 0.92 e α3yi h3(xi ) 0.40 0.40 0.40 2.52 2.52 0.40 0.40 2.52 0.40 0.40 D 3(i) e α3yi h3(xi ) 0.04 0.04 0.04 0.11 0.11 0.07 0.07 0.11 0.07 0.02 Z 3 0.69 Calculations are shown for the ten examples as numbered in the figure. Examples on which hypothesis h t makes a mistake are indicated by underlined figures in the rows marked D t. On round 1, AdaBoost assigns equal weight to all of the examples, as is indicated in the figure by drawing all examples in the box marked D 1 to be of the same size. Given examples with these weights, the base learner chooses the base hypothesis indicated by h 1 in the figure, which classifies points as positive if and only if they lie to the left of this line. This hypothesis incorrectly classifies three points namely, the three circled positive

Boosting en acción: clasificadores débiles 10 1 Introduction and Overview H = sign 0.42 + 0.65 + 0.92 = Figure 1.2 The combined classifier for the toy example of figure 1.1 is computed as the sign of the weighted sum of the three weak hypotheses, α1h1 + α2h2 + α3h3, as shown at the top. This is equivalent to the classifier shown at the bottom. (As in figure 1.1, the regions that a classifier predicts positive are indicated using darker shading.) as shown in the figure, correctly classifies all of the training examples. For instance, the classification of the negative example in the upper right corner (instance #4), which is classified negative by h 1 and h 2 but positive by h 3,is sign( α 1 α 2 + α 3) = sign( 0.15) = 1.

test error is up to 18.8%, and after 1000 rounds, up to 22.0%. Ejemplo de clasificación de enfermedad cardiaca This deterioration in performance with continued training is an example of an important and ubiquitous phenomenon called overfitting. As the number of base classifiers becomes larger and larger, the combined classifier becomes more and more complex, leading somehow to a deterioration of test-error performance. Overfitting, which has been observed in many machine-learning settings and which has also received considerable theoretical study, is consistent with the intuition that a simpler explanation of the data is better than a more Table 1.2 The first six base classifiers found when using AdaBoost on the heart-disease dataset Round If Then Predict Else Predict 1 thalamus normal healthy sick 2 number of major vessels colored by fluoroscopy > 0 sick healthy 3 chest pain type is asymptomatic sick healthy 4 ST depression induced by exercise relative to rest 0.75 sick healthy 5 cholesterol 228.5 sick healthy 6 resting electrocardiographic results are normal healthy sick 48740_7P_8291_001.tex 10/1/2012 17:41 page 13

Ejemplo de clasificación de enfermedad cardiaca 14 1 Introduction and Overview 30 25 test train Percent error 20 15 10 5 0 1 10 100 1000 Rounds of boosting Figure 1.5 The training and test percent error rates obtained using boosting on the heart-disease dataset. Results are averaged over multiple train-test splits of the data. complicated one, a notion sometimes called Occam s razor. With more rounds of boosting, the combined classifier grows in size and complexity, apparently overwhelming good

Non Overfitting 16 1 Introduction and Overview 20 15 10 5 0 10 100 1000 Figure 1.7 The training and test percent error rates obtained using boosting on an OCR dataset with C4.5 as the base learner. The top and bottom curves are test and training error, respectively. The top horizontal line shows the test error rate using just C4.5. The bottom line shows the final test error rate of AdaBoost after 1000 rounds. (Reprinted with permission of the Institute of Mathematical Statistics.) This pronounced lack of overfitting seems to flatly contradict our earlier intuition that simpler is better. Surely, a combination of five trees is much, much simpler than a combination of 1000 trees (about 200 times simpler, in terms of raw size), and both perform equally

Non Overfitting En el anterior ejemplo el error de prueba no empeora a pesar de que la complejidad aumenta. Esto es una ilustración de la teoría marginal del boosting. No solo importa el error sino la confianza en la clasficación. La confianza se mide como y t f (x t ) ( 1, 1) donde f = T t=1 α th t (x) y α se ha normalizado para que sumen 1. En este ejemplo la confianza aumenta con la complejidad.