Introducción a SPSS Árboles de Clasificación. Jorge Del Río L. Consultor Estadístico

Documentos relacionados
ÍNDICE. Introducción... Capítulo 1. Técnicas de minería de datos y herramientas... 1

Universidad Autónoma de Sinaloa

ÁRBOLES DE CLASIFICACIÓN Y REGRESIÓN

Carteras minoristas. árbol de decisión. Ejemplo: Construcción de un scoring de concesión basado en un DIRECCIÓN GENERAL DE SUPERVISIÓN

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica

Nota de los autores... vi

Taller Minería de datos aplicados a la educación

IBM SPSS Decision Trees 19

Métodos de Investigación en Psicología (11) Dra. Lucy Reidl Martínez Dra. Corina Cuevas Reynaud Dra. Renata López Hernández

Curso online de Supervivencia y Regresión Lineal, Logística y de Cox 2018

Aprendizaje Supervisado Árboles de Decisión

Correlación. El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r)

Complementación y ampliación de la currícula de la Maestría 2017 Maestría en Generación y Análisis de Información Estadística

Universidad de Sonora Unidad Regional Centro División de Ciencias Biológicas y de la Salud Departamento que imparte la materia: Matemáticas

INDICE. Prólogo a la Segunda Edición

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

Universidad Nacional Autónoma de México Facultad de Psicología

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Introducción a la minería de datos

VIII Jornadas de Usuarios de R

Métodos de Remuestreo en Aprendizaje Automático

Aux 6. Introducción a la Minería de Datos

CAPÍTULO I. 1. Planteamiento del Problema

U.N.P.S.J.B. FACULTAD DE INGENIERÍA Cátedra de ESTADÍSTICA Cátedra ESTADISTICA

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

Aprendizaje Automático

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

MÉTODOS DE PRONÓSTICO TEMA 1: ANÁLISIS DE SERIES DE TIEMPO Y ELABORACIÓN DE PRONÓSTICOS

Estadística con R. Clasificadores

Capítulo 8. Selección de variables Introducción

Técnicas Multivariadas Avanzadas

Aprendizaje Automatizado. Árboles de Clasificación

Clasificación Supervisada. Métodos jerárquicos. CART

Tema: ESTADÍSTICA DESCRIPTIVA BÁSICA CON SPSS 8.0

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

Tema: Análisis de valores faltantes con SPSS

UNIVERSIDAD DE ANTIOQUIA FACULTAD NACIONAL DE SALUD PÚBLICA Héctor Abad Gómez. Facultad Nacional de Salud Pública Héctor Abad Gómez

Guía docente 2007/2008

EVALUACIÓN EN APRENDIZAJE. Eduardo Morales y Jesús González

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE

Análisis de la evolución y tendencia de las tasas de hepatitis A en Chile desde a 2002

Temario. SEMANA 1 3 al 7 de Febrero. Expositor: Dr. C. Rodrigo E. Elizondo Omaña

Introducción a la Estadística Aplicada en la Química

Universidad de Puerto Rico Recinto de Río Piedras Facultad de Educación Escuela Secundaria. Prontuario del Curso Estadística y Probabilidad

SPSS Classification Trees 13.0

DIRECCIÓN Y ADMINISTRACIÓN DE PEQUEÑAS EMPRESAS

Lingüística computacional

IBM SPSS - Árboles de decisiones 25 IBM

2. Rentabilidad y riesgo

Métodos de Clasificación sin Métrica. Reconocimiento de Patrones- 2013

PRACTICUM 3: Finanzas y Contabilidad Pública

Aprendizaje Automatizado. Árboles de Clasificación

ANÁLISIS DE REGRESIÓN

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

SISTEMAS INTELIGENTES

N T E N.. IDO. CAPíTULO 3 TABLAS Y GRÁFICAS: UNA IMAGEN DICE MÁS QUE MIL PALABRAS 78. CAPíTULO I LA IMAGINACiÓN ESTADíSTICA

> plot(salmon[,- 1],col=as.factor(salmon[,1]))

CASO 5-3 MILAN FOOD COOPERATIVE (B)

Introducción a la minería de datos. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Ejercicios y Talleres. puedes enviarlos a

Métodos de Diseño y Análisis de Experimentos

INDICE Capitulo 1. Nociones Básicos sobre el SPSS/PC+ Capitulo 2. Nociones Básicos sobre Probabilidad

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

ESTADÍSTICA APLICADA A LA EDUCACIÓN (Tema 7) Asignatura de Formación Básica (FB) de 1º curso, común a los Grado en Educación Social y en Pedagogía

Ideas básicas del diseño experimental

Lucila Finkel Temario

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

Minería de Datos. Árboles de Decisión. Fac. Ciencias Ing. Informática Otoño de Dept. Matesco, Universidad de Cantabria

TABLA DE CONTENIDO. Resumen Introducción Entorno relevante asociado al proyecto Contexto de la Industria...

ANALISIS DE CLUSTER CON SPSS: INMACULADA BARRERA

Método de cuadrados mínimos

Anexo I CUESTIONARIO UTILIZADO PARA LA RECOGIDA DE INFORMACIÓN

ESTADISTICA PARA LA CALIBRACIÓN Y VALIDACIÓN DE METODOLOGÍAS ANALÍTICAS

DESCRIPCIÓN DE DATOS POR MEDIO DE GRÁFICAS

Estrategia de análisis estadístico de los datos. Inferencia Estadística y contraste de hipótesis

ÍNDICE. Capítulo 1. Técnicas de segmentación. Conceptos y clasificación... 1

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

2. Algoritmos genéticos y redes neuronales 3. Inducción de árboles clasificadores. Inducción de árboles de clasificación. Aprendizaje UPM UPM

INDICE Prefacio 1. Introducción 2. Distribuciones de frecuencia: tablas estadísticas y graficas

CONTROL ESTADISTICO DE LA CALIDAD

MODELADO CALIBRACIÓN MULTIVARIADA

Segmentación de clientes. Dra. Adriana Amigo

Análisis Probit. StatFolio de Ejemplo: probit.sgp

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

ANALIZAR Comparar medias

Ejemplo Diseño Completamente aleatorizado (Pág. 470 Montgomery)

Inteligencia Artificial: Su uso para la investigación

ÍNDICE. Prefacio... xi

Curso: 4 Créditos ECTS: 6 Tipo de asignatura: Optativa Tipo de formación: Teórico-práctica

Proyecto PropULSA: Estadística y Probabilidad Breviario Académico

Selección de fuentes de datos y calidad de datos

Teoría de la decisión

INTRODUCTION TO MACHINE LEARNING ISABELLE GUYON

TEMA I CONTEXTUALIZACIÓN Y REVISIÓN GENERAL DE LAS TÉCNICAS MULTIVARIANTES

Departamento de Medicina Preventiva y Salud Publica e Historia de la Ciencia. Universidad Complutense de Madrid. SPSS para windows.

Transcripción:

Introducción a SPSS Árboles de Clasificación Jorge Del Río L. Consultor Estadístico

Introducción Es un módulo que contiene diferentes procedimientos para resolver problemas de predicción y clasificación utilizando análisis de árboles de decisión. Es capaz de combinar a través de un conjunto de variables independientes y sucesivamente particionando la data en subgrupos de mejorar la predicción o clasificación de una variable objetivo. Es una técnica valiosa cuando deseamos construir modelos con gran cantidad de variables independientes o con poca teoría previa que sirva de guía.

Análisis basado en árboles Los procedimientos tradicionales implican el ajuste de un modelo (regresión por ejemplo) según el comportamiento de los datos. Los árboles de decisión dividen los datos sucesivamente con base a algún criterio que implique relaciones entre las variables predictoras y la variable objetivo.

Análisis basado en árboles Cuando se tiene éxito, el árbol que resulta indica qué variables predictoras están relacionadas con mayor fuerza con la variable objetivo. Los nodos terminales muestran los grupos que pueden tener una mayor concentración de casos con la característica deseada.

Usos Generales de los Árboles de Decisión Segmentación. Identificar personas son probablemente miembros de un grupo. Estratificación. Asignación de casos a categorías. Predicción. Creación de reglas para predecir eventos futuros. Reducción de datos y filtro de variables. Seleccionar un subconjunto de variables para contruir un modelo paramétrico. Identificación de interacciones. Identificar relaciones que pertenezcan a subgrupos específicos. Fusión de categorías. Colapsar variables contínuas en categorías discretas.

Aplicaciones de los Árboles de Decisión Correo directo. Determinar grupos demográficos con alta tasa de respuesta. Credit Scoring. Usar historial crediticio para tomar decisiones de crédito. Recursos Humanos. Entender las reglas de pasadas de contratación para afinar el proceso. Análisis de mercado. Determinación de variables geográficas, precios, características del consumidor y otras

Aplicaciones de los Árboles de Decisión Control de calidad. Determinación de productos defectuosos. Estudio de políticas. Generar reglas de decisión en las políticas de contratación. Salud. Descubrir variables que contribuyan a mejores resultados de salud.

Ventajas y desventajas sobre modelos tradicionales Diseñados para trabajar con un número elevado de variables (CHAID vs loglineal) Como métodos no paramétricos capturan relaciones que los modelos lineales no pueden capturar (relaciones no lineales e interacciones complejas). No genera una ecuación general que exprese el modelo.

Por qué cuatro métodos? Diferentes métodos pueden manejar diferentes tipos medida en las variables. Uso o no de criterios estadísticos al momento de escoger y partir variables. Si se incorporan o no costos de clasificación errónea y probabilidades a priori. Esfuerzo computacional de la máquina.

Comparación Característica CHAID CHAID Exahustivo C&RT QUEST Tipo de Partición Múltiple Múltiple Binaria Binaria Dependiente Continua Sí Sí Sí No Predictoras Continuas Si (*) Si (*) Sí Sí Coste de Mala Clasificación (Crecimiento del Arbol) Pruebas Estadísticas (Selección del Predictor) Pruebas Estadísticas (Particionar) No No Sí Sí Sí Sí No Sí Sí Sí No No Velocidad Moderada Moderada Lento Moderada/Lento Utiliza A priori? No No Sí Sí Valores Faltantes para los Predictores Usados? Si, como una categoría Si, como una categoría No, Sustitutos usados para partición No, Sustitutos usados para partición

Recomendaciones El análisis de datos requiere de una participación humana atenta. Siempre mire los datos en bruto. Conozca las características en sus datos antes de emprender un proyecto grande. Limpie los datos o esté conciente de cualquier irregularidad en ellos. Valide sus resultados con nuevos datos o con una muestra de prueba. Si es posible utilice modelos estadísticos tradicionales para extender y verificar lo aprendido.

Tabla de Ganancia de Nodos Nodo. Número del nodo. Nodo N. Número de casos dentro de un nodo. Nodo Porcentaje. Porcentaje de personas en el nodo contra la muestra completa. Ganancia N. N de casos en el nodo que caen dentro de la categoría objetivo. Ganancia Porcentaje. Porcentaje de personas en la categoría objetivo contra el N total de la categoría objetivo. Respuesta. Tasa de respuesta en el nodo para la categoría objetivo. Índice. Radio del nodo de respuesta versus la respuesta de la muestra total.

CHAID y CHAID Exhaustivo

Qué es CHAID? Chi-square Automatic Interaction Detector (Detector Automático de Interacción Chi-cuadrado). El modelo CHAID es un método exploratorio del análisis de datos usado para estudiar las relaciones entre una variable dependiente y una serie grande de variables predictoras. CHAID selecciona un sistema de predictores y de sus interacciones que predicen óptimamente la medida de la variable dependiente.

Qué es CHAID? El modelo desarrolla un árbol de clasificación con los perfiles más importantes formados por las variables independientes diferenciado los criterios de una variable dependiente. CHAIS es puede proveer información relevante sobre una variable dependiente, donde modelos formales tienen dificultades (como muchas variables categóricas o un limitado tamaño de muestra).

Principios y Consideraciones CHAID tiende a crear árboles amplios más que los métodos binarios. Funciona con todo tipo de variables (cualitativas y cuantitativas) CHAID comienza su análisis seleccionando la variable independiente más significativa (menor p-value). Si la variable independiente tiene más de 2 categorías, CHAID las compara y une las categorías que no muestren diferencias en el resultado. Para variables nominales, cualquier categoría puede ser unida, mientras que para ordinales solo categorías contiguas. Por lo tanto, CHAID divide la data sistemáticamente en subgrupos que muestren diferencias significativas.

Lectura de un Diagrama CHAID Los diagramas CHAID se deben pensar como el "tronco de un árbol" con particiones progresivas en "ramas más pequeñas. El "tronco inicial del árbol" son todos los participantes en el estudio. Las variables predictoras conducen a una discriminación estadísticamente significativa. El "más significativo" define la primera partición de la muestra, o la primera ramificación del árbol.

Lectura de un Diagrama CHAID Entonces, cada uno de los nuevos grupos formados, son particionados por otra de las variables predictoras, etc. El resultado al final del proceso es un árbol que presenta una serie de grupos con diferencias máximas sobre la variable dependiente. En cada paso, las pruebas estadísticas se hacen para determinar si una partición es significativa y puede ser hecha.

Ventajas El nivel de medida para la variable dependiente y las variables predictoras pueden ser nominal, ordinal o intervalo. No todas las variables predictoras necesitan ser medidas en el mismo nivel. Los valores faltantes se pueden tratar como una "categoría flotante" para poder utilizar los datos parciales, siempre que sea posible dentro del árbol. Un sistema apropiadamente conservador de criterios estadísticos se utiliza, y los modelos que resultan acentúan los resultados más fuertes.

Opciones Técnicas Ajuste del.05 de Bonferroni sobre las probabilidades Un tamaño mínimo del nodo padre de 10 Un tamaño mínimo del nodo hijo de 5. La capacidad de partir o combinar continuamente las categorías de las variables predictoras. En algunos casos, estas opciones técnicas se ajustan según el tamaño de muestra o se basan en conocimiento anterior sobre las variables.

Notas sobre CHAID Es un método útil para resumir datos, y puede mostrar divisiones naturales importantes sobre los clientes. Los modelos presentados se deben considerar como sugestivos, pero no absolutamente definitivos, se pueden complementar con modelos estadísticos tradicionales.

CHAID y Regresión Logística CHAID: diseñado para detectar interacciones Reg. Logística: Detección puede ser dirigida a incluir interacciones. R. Logística acepta variables continuas mientras que CHAID necesita discretizarlas. Si tiene muchas variables continuas cuya interacción se sospecha no esta relacionada con salida. R. Logística Si tiene muchas variables categóricas cuyas interacciones se relacionan con la v. objetivo. CHAID

Extensión CHAID y Características Adicionales

Introducción Se estudiará la importancia de la validación del modelo. Dificultad del procedimiento: Es más probable que el modelo se ajuste a la data. Se recomienda evaluar el modelo aplicado a otra data. El Statistics maneja 2 tipos de validación: Partición. Validación cruzada.

Introducción Adicionalmente se analizarán la incorporación de beneficios y perdidas. Por defecto CHAID asume que la clasificación errónea es igualmente costosa aunque esto no siempre es así. Podemos proveer valores para el costo de una mala clasificación.

Validación Los modelos tienden a modelar bien la data con la que fueron realizados pero no en otras muestras. Dividir los datos en 2 muestras, una para entrenamiento y otra para prueba es la solución más sugerida por los estadísticos. El investigador define la cantidad de casos que incluirá cada muestra. No hay regla para la cantidad de datos 50% a 90% de data para entrenamiento

Validación Cuando no se tiene el tamaño de muestra necesario para realizar una partición de los datos, se recurre a la Validación Cruzada. Muestra pequeña: Validación Cruzada Divide la muestra en subgrupos iguales Promedio de los errores: Tabla de riesgo Los árboles son generados, excluyendo data de cada subgrupo A tener en cuenta: Procesamiento Muestras relacionadas Se recomienda utilizar la validación cruzada para muestras menores a 1000 casos. De lo contrario utilizar la partición de la muestra.

Incorporando Ganancias Incorpora valores de rentabilidad para la categoría de respuesta Direct mail o Marketing de Base de Datos No afectan al crecimiento del árbol Ejemplo: Aceptar o rechazar una nueva tarjeta Estimar la ganancia por tarjeta aceptada

Costo de Clasificación Errónea Diferente del concepto de rentabilidad, esta no proviene de errores. Pueden influir en el crecimiento del árbol y asignación de casos (CRT) Permite asignar a una categoría específica un costo de clasificación errónea. CHAID incorpora estos costos una vez que es árbol ha sido elaborado. En resumen, la incorporación de costos, afecta la de designación de nodos para evitar el error más costoso.

Árboles de Clasificación y Regresión (C&RT) Classification and Regression Trees

El Método C&RT Breiman, Friedman, Olshen y Stone (1984) C&RT hace separaciones binarias sucesivas en los datos guiándose por un criterio, no una prueba estadística como lo hace CHAID. En cada nodo, la variable predictora que mejore más el criterio, se usa para hacer la siguiente partición. Los árboles creados con este criterio se dejan crecer ampliamente y después son podados: podar minimizando el costo complejo.

Impureza Es el nombre del criterio para crecer el árbol con una variable objetivo nominal. Captura el grado en el que los casos dentro de un nodo están concentrados en una sola categoría. Un nodo puro es aquel en que todos los casos están en una sola categoría. El mayor grado de impureza se da cuando todas las categorías de una variable predictora contienen la misma cantidad de casos, es decir todas las categorías o clases aparecen en igual proporción, siendo este nodo nada util.

Impureza Medidas de Impureza Gini: Si P(t)i es la proporción de casos en el nodo t de la categoría i, la medida de dispersión es: g( t) 1 i 2 p i La impureza no solo se mide para un sólo nodo: El promedio ponderado de los valores de impureza de cada nodo, es la medida de impureza de toda la rama. C&RT parte el árbol con el predictor que más disminuye la impureza. En el diagrama del árbol se muestra la MEJORA.

Costo Complejo Crecer un árbol indefinidamente, casi siempre reduce la impureza. La medida de costo complejo aumenta en la medida en que el árbol es más grande. CostoCompl ex R( T) a* T R(T): medida de riesgo de clasificacion erronea del árbol o rama a: coeficiente de penalidad T : número de nodos terminales del árbol o rama. Para mejorar la medida de costos complejo, el componente de sustitución de riesgo debe disminuir más que la penalidad.

Costo complejo y poda La medida de costo complejo funciona bien si se deja crecer el árbol bastante, y luego se poda utilizando este criterio. El método consiste en podar ramas de manera sucesiva con base a la máxima reducción de la medida de costo complejo. De los árboles, se escoge el árbol más pequeño, cuyo riesgo (probabilidad de clasificar erróneamente) esté dentro de un rango de un error estándar del menor riesgo encontrado durante el crecimiento del árbol.

Cómo se hacen las particiones? Para predictoras continuos u ordinales: Se ordenan los datos dentro de los nodos por los valores de las categorías de la variable predictora. Se calcula la disminución en impureza para todos los posibles puntos de corte. Se determina la mejor partición.

Cómo se hacen las particiones? Para predictoras nominales Todas las posibles combinaciones de sus categorías son evaluadas, y la partición se hace cuando se encuentra la mayor reducción en impureza. Esto hace que un misma variable predictora pueda aparecer muchas veces dentro de una rama.

Valores perdidos y Sustitutos En CHAID los valores perdidos se tratan como una categoría diferente. En C&RT estos casos se utilizan en el análisis reemplazándolos con una estimación que depende de la clasificación según la mejor variable predictora disponible.

C&RT, CHAID y Regresión Logística CHAID y regresión logística son más rápidas y están basadas en pruebas estadísticas. CHAID junta categorías de las variables predictoras continuas en categorías ordinales antes del análisis.c&rt crea particiones durante el análisis.

Árboles de Regresión La parte RT de C&RT es la que nos permite predecir variables objetivo que sean continuas. Es una alternativa atractiva puesto que puede capturar, de manera nativa, relaciones no lineales entre variables, además de efectos de interacción. Una opción óptima es correr un RT que identifique variables relevantes y posibles interacciones y relaciones no lineales para luego correr la regresión

El método de regresión Puesto que la variable objetivo es continua, el criterio es minimizar la varianza dentro de cada nodo, obteniendo así los nodos más homogéneos sobre la variable objetivo. De la misma manera de CT, el crecimiento del árbol seguido de la poda es la base de RT

C&RT, CHAID y Regresión Logística Si existen relaciones cuasi lineales entre una predictora y la proporción de la variable objetivo, C&RT tratará de capturar esta relación con particiones binarias sucesivas, CHAID con una partición multicategórica y ninguna será tan eficiente como RL. Sin embargo CHAID y C&RT pueden capturar relaciones no lineales e interacciones complejas.

Impureza El criterio de impureza se mantiene pero se mide de acuerdo a la varianza al interior del nodo. Captura el grado en el que las respuestas dentro de un nodo están concentradas alrededor de un solo valor. La impureza de una rama es el promedio ponderado de las varianzas de los nodos terminales.

Costos y probabilidades a priori Para una variable objetivo continua, no hay categorías a las cuales asignarle beneficios o probabilidades. Si los costos se consideran relevantes, estarían asociados a la distancia entre el valor pronosticado y el verdadero, que está implícito en la varianza.

QUEST Analysis Quick Unbiased Efficient Statistical Tree

Dos razones para desarrollar QUEST Reducir el tiempo de procesamiento que tenía C&RT. Reducir la tendencia de CHAID de favorecer variables continuas o aquellas con muchas categorías (corrección de Bonferroni)

Complejidad computacional. Una variable ordinal con n valores en un nodo conlleva (n-1) divisiones, por lo que el numero de cálculos en cada nota aumenta de forma proporcional al numero de valores. Sesgos en la selección de variables. Pero un problema mas serio desde el punto de vista interpretativo y de generalización, de resultados es que los métodos exhaustivo tienen a seleccionar aquellas variables que cuentan con un mayor numero de categorías. El proceso se repite de forma recursiva hasta que salta alguna de las reglas de Parada, gracias a este procedimiento de cálculo, Quest: *Apenas muestra sesgos de respuesta *Muestra una mayor simplicidad de calculo *Permite incluir métodos de validación mediante poda *Permite incorporar combinaciones lineales de variables Comparando Quest con métodos exhaustivos se han comprobado que cuando se utilizan divisiones univariadas, no existe un ganador claro.

El método Quest Sea X Se calcula niv. Sig: Chi-cuadrado o ANOVA se selecciona al menor SI Es menor que alfa preestablecido? NO Se selecciona Para división SI Se usa Levene Su niv.sig es menor a alfa? NO Seleccionar la variable para dividir Seleccionar la var con el menor niv.sig para dividir el nodo

Como lo hace? SI Es X ordinal o continua? NO SI Tiene Y dos categorías? NO Transfomar X en dummys y calcular la mayor coordenada discriminante de Z Aplicar el Análisis Discriminante Cuadrático para determinar el punto de división Calcular la media de X para cada categoría de Y y aplicar un cluster de 2 medias a esas medias

Otras características equivalentes a C&RT Costo Complejo Poda del árbol Valores perdidos reemplazados utilizando otras variables predictoras

Recomendaciones A pesar de ser una herramienta para minería de datos, es importante sacar variables que sean simples medidas alternativas a la variable objetivo, y aquellas que no tengan porque tener relación con ella (cédula) Para muestras menores a 1000, reduzca el tamaño mínimo de nodo padre y filial, para muestras mayores a 10000, auméntelo (a menos que esté corriendo C&RT o QUEST)

Trucos Tenga en consideración si hace falta tener todas la categorías de la variable objetivo. Reducirlo a las relevantes arrojará un mejor resultado. Si necesita definir sus propias particiones dentro de una variable predictora, hágalo.

Eficiencia Si hay variables nominales con muchas categorías, el esfuerzo computacional es considerable: 10 categorías: 511 combinaciones; 30 categorías : 536,870,911!!! Tenga en cuenta esto para decidir en que computador va a correr su análisis.

Tiempos N Datos Método 10 Predictores 50 Predictores CHAID 0:00:01 0:00:02 CHAID Exhaustivo 0:00:01 0:00:02 1000 C&RT 0:00:02 0:00:09 QUEST 0:00:04 0:00:16 C&RT (Variable Continua) 0:00:03 0:00:14 CHAID 0:00:04 0:00:08 CHAID Exhaustivo 0:00:06 0:00:19 10000 C&RT 0:08:45 0:50:00 QUEST 0:08:04 A C&RT (Variable Continua) 6:05:00 --- CHAID 0:00:10 0:00:30 CHAID Exhaustivo 0:00:15 0:00:40 50000 C&RT 0:07:50 1:13:00 QUEST 0:14:45 A C&RT (Variable Continua) --- ---