Segmentación de una cartera de clientes usando aprendizaje de máquina

Documentos relacionados
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

Aprendizaje Automatizado

SVM: Máquinas de Vectores Soporte. Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid

Métodos Predictivos en Minería de Datos

MÁQUINA DE VECTORES DE SOPORTE

Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín.

Procesos Estocásticos I

Curso de Introducción a R Módulo 4: simulaciones estocásticas

OPTIMIZACIÓN VECTORIAL

Introducción a los Computadores (CNM-130) Estructuras selectivas en Matlab

ESTADÍSTICA BAYESIANA Y TEORÍA DE DECISIONES

1. DATOS DE LA ASIGNATURA

Problemas de clasificación: problemas de localización

ENSIA 605 Inteligencia de Negocios y Minería de Datos

Clases de complejidad computacional: P y NP

Universidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Programación Lineal

Modelos predictivos y de optimización de estructuras de hormigón

MÁQUINAS DE VECTORES DE SOPORTE

Aprendizaje Computacional. Eduardo Morales y Jesús González

Métodos, Algoritmos y Herramientas

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO. Facultad de Ciencias. Plan de estudios de la Licenciatura en Actuaría. Teoría de Redes

Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos

1. Unidad Académica: Facultad de Ciencias

Línea de trabajo: Control de los Procesos de Manufactura Optimización de los Procesos de Manufactura

Optimización de Problemas de Producción

Tareas 20% Primer Examen Parcial 20% Segundo Examen Parcial 20% Proyecto Final 25% Examen Final 15%

Graficación. Carrera: SCM Participantes. Representantes de la academia de sistemas y computación de los Institutos Tecnológicos.

Redes Neuronales Artificiales

Universidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Álgebra Lineal

Formulación del problema de la ruta más corta en programación lineal

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones

OPTATIVA I: MINERIA DE DATOS

Universidad Autónoma del Estado de México Licenciatura en Matemáticas Programa de Estudios: Teoría de Grupos

Aux 6. Introducción a la Minería de Datos

GUÍA DOCENTE. Ingeniería Informática en Sistemas de Información Doble Grado:

Base y Dimensión de un Espacio Vectorial

CRITERIOS DE SELECCIÓN DE MODELOS

autómatas finitos y lenguajes regulares LENGUAJES FORMALES Y

Espacios vectoriales y aplicaciones lineales

es el lugar geométrico de los puntos p tales que p 0 p n o p 0 p o. p x ; y ; z perteneciente a y un vector no

Inteligencia Artificial. Grado en INFORMÁTICA 4º curso. Modalidad: Presencial

LICENCIATURA ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS

PRÁCTICA I. Ejercicios Teóricos

MODELOS PREDICTIVOS PARA LA DETECCIÓN TEMPRANA Y GESTIÓN DE ACCIDENTES LABORALES Susana Blanco, Walter Rudolph

GUÍA DOCENTE Computación Neuronal y Evolutiva. Grado en Ingeniería Informática

Diagonalización simultánea de formas cuadráticas.

MINERÍA DE DATOS: PREPROCESAMIENTO Y CLASIFICACIÓN

Diagonalización de matrices

APUNTE: Introducción a la Programación Lineal

Sistemas polinomiales

Introducción a los Computadores (CNM-130) Estructuras algorítmicas selectivas

Estudio e Implementación de una Máquina de Soporte Vectorial.

Sistemas lineales de ecuaciones diferenciales. Juan-Miguel Gracia

Support Vector Machines

Guía docente de la asignatura

Máquinas de Vectores de Soporte

Trabajo No 1. Derivados Financieros

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Extensión de la Morfología Matemática a imágenes en Color

Aprendizaje basado en ejemplos.

1. Comprender las definiciones y principios básicos de la teoría de conjuntos. 3. Diferenciar entre las diferentes tipos de relaciones.

DES: Programa(s) Educativo(s): Tipo de materia: Clave de la materia: Semestre:

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

EXAMEN DE SEPTIEMBRE, MATEMÁTICAS I. 1. (2.5 ptos) Sean f y g funciones con derivadas primeras y segundas continuas de las que se sabe que

ALGORITMOS DIGITALES II. Ing. Hugo Fdo. Velasco Peña Universidad Nacional 2006

Matemáticas I Grado de Administración y Dirección de Empresas Examen de Febrero Curso 2011/ ?

or t o G o n a l i d a d y

Métodos basados en Kernels para el Procesamiento de Lenguaje Natural

Análisis Inteligente de Datos: Introducción

GUÍA DE EXAMEN DE NUEVO INGRESO. Maestría en Optimización de Procesos

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES ACATLÁN LICENCIATURA EN MATEMÁTICAS APLICADAS Y COMPUTACIÓN

Esta definición se puede ampliar a cualquier par de bases de los espacio inicial y final MATRIZ DE UNA APLICACIÓN LINEAL EN BASES ARBITRARIAS

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Nombre de la asignatura: Diseño Estructurado de Algoritmos. Carrera: Ingeniería en Sistemas Computacionales. Clave de la asignatura: SCB-9316

UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR. Ingeniería Aplicada TEÓRICA SERIACIÓN 100% DE OPTATIVAS DISCIPLINARIAS

Tema 2: Análisis Discriminante

Teoria de Errores. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingeniería. Hermes Pantoja Carhuavilca 1 de 31

Práctica 6. Extremos Condicionados

Geometría combinatoria de cuadrados mágicos, latinos, sudokus y otras tablas curiosas

UNIVERSIDAD TECNOLÓGICA DE PEREIRA FACULTAD DE INGENIERÍAS MAESTRÍA EN INGENIERÍA DE SISTEMAS Y COMPUTACIÓN

FILTRADO DE CONTENIDOS WEB EN ESPAÑOL DENTRO DEL PROYECTO POESIA

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

INFORME TAREA N 4 CLUSTERING

Teoría de Geometría Afín y Proyectiva (G.A.P.) L A TEX

2. Formas cuadráticas. Expresiones diagonales. Clasificación respecto a su signo.

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

Programa. Números Complejos, Ecuaciones Diferenciales y Ecuaciones en

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

Tema 5: Elementos de geometría diferencial

Universidad Autónoma de Yucatán Facultad de Matemáticas

CLASIFICACIÓN AFÍN DE CÓNICAS

Clasificador no lineal basado en redes neuronales

Materia: Matemática de 5to Tema: Producto Punto. Marco Teórico

Espacios Vectoriales

+ = 0, siendo z=f(x,y).

LIBRO GUIA: INVESTIGACIÓN DE OPERACIONES Hamdy A. Taha. Editorial Pearson Prentice Hall, 2004

COMPLEMENTOS DE MATEMATICA 3 - Segundo cuatrimestre de 2007 Práctica 3 - Transformaciones lineales

Apéndice sobre ecuaciones diferenciales lineales

Diagrama de Voronoi. Ejemplo de problemas geométricos:

Transcripción:

Inicio Segmentación de una cartera de clientes usando aprendizaje de máquina Universidad San Ignacio de Loyola I encuentro interdisciplinario de investigación desarrollo y tecnología USIL 2014

Inicio Inicio 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

Inicio Aprendizaje de máquina Fundamentos Planteamiento del problema 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

Aprendizaje y clasificación Fundamentos Planteamiento del problema El aprendizaje es el proceso de adquirir o modificar conocimiento, como resultado de la experiencia. En nuestro caso buscamos un conjunto de funciones del siguiente tipo y/o ClienteconRiesgo(Juan) = Si ClienteconRiesgo(Roxana) = No ClienteFiel(María) = No ClienteFiel(Pedro) = Si Ambas funciones pueden formar parte del Conocimiento del Cliente. Aprendizaje de máquina El aprendizaje de máquina es una rama de la IA que desarrolla técnicas que permitan a las computadoras aprender.

Fundamentos Planteamiento del problema Idea geométrica (Aprendizaje de máquina) 1 Se cuenta con un conjunto de datos de clientes ya clasificados, que denominaremos conjunto de entrenamiento DNI Edad Renta Clase 1000025 40 2500 NO 1002945 38 3000 NO 1017122 35 8000 SI... 1018132 38 7000 SI 2 Se busca a partir de este conjunto construir una función f que clasifique nuevos clientes. DNI Edad Renta Clase 1999925 45 4500 f(45, 4500) Y Figura: Mapeo del conjunto de entrenamiento X

Inicio Aprendizaje de máquina Fundamentos Planteamiento del problema 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

Problema de clasificación binaria Fundamentos Planteamiento del problema Se estructura a continuación la idea geométrica ya expuesta Aprendizaje de máquina Estructura matemática Se tienen lo siguientes elementos El espacio con producto interno R n como nuestro conjunto universo de datos. El conjunto S donde S R n un conjunto de muestra. Una función f : S {1, 1} que denominaremos función de etiquetado. Un conjunto D de entrenamiento, donde D = {( x, y) / x S, y = f ( x)} Debemos hallar una función ˆf : R n {1, 1}, a partir de D tal que ˆf = f ( x) para todo x S. Vamos a denominar a f como la función de decisión. Cuando el conjunto de entrenamiento D es linealmente separable el problema anterior es denominado problema de clasificación binaria lineal.

Fundamentos Planteamiento del problema Solución al problema de clasificación binaria lineal Suponemos que el conjunto de entrenamiento D R n es linealmente separable g( x) = w x = 0 w γ ā Si a pertenece a la clase 1, entonces w a < 0 Si a pertenece a la clase 1, entonces w a > 0 Función de decisión de una clasificación binaria lineal La función de decisión ˆf para el problema, cuya superficie de decisión es L : w x = b está dada por ˆf ( x) = sgn( w x b)

Fundamentos Planteamiento del problema Algoritmos de Clasificación binaria lineal Hoy en día, existen varios métodos para construir una superficie de decisión, entre los más reconocidos se mencionan: Redes Neuronales Árboles de decisión Naive Bayes, etc. La teoría de aprendizaje estadístico postula geométricamente lo siguiente: Una superficie de decisión es óptima si es equidistante a los hiperplanos de soporte y maximiza el margen entre las clases.

Inicio Aprendizaje de máquina Clasificador de máximo margen Máquina de soporte vectorial 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

Clasificador de máximo margen Clasificador de máximo margen Máquina de soporte vectorial 3 1 4 2 1 Superficie de decisión 2 Hiperplanos de soporte 3 Vectores de soporte 4 Margen Figura: Conjunto de entrenamiento

Clasificador de Máximo Margen Clasificador de máximo margen Máquina de soporte vectorial Clasificador de Máximo Margen Dado un conjunto de entrenamiento linealmente separable: D = {( x 1, y 1 ), ( x 2, y 2 ), ( x 3, y 3 ),..., ( x l, y l )} R n { 1, 1} Podemos calcular una superficie de decisión w x = b que maximice el margen resolviendo el siguiente problema de optimización 1 mín φ( w, b) = mín w w w,b w,b 2 S.a y i ( w x i b) 1 0 1 La función objetivo no depende de b 2 El término independiente b aparece en las restricciones 3 Vamos a tener tantas restricciones como puntos de entrenamiento La alternativa para superarlo es resolver el problema dual

Inicio Aprendizaje de máquina Clasificador de máximo margen Máquina de soporte vectorial 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

Clasificación no lineal Clasificador de máximo margen Máquina de soporte vectorial φ φ( x i) x i Figura: Clasificación no lineal Podremos usar un clasificador lineal en el espacio de características Cómo calculamos la función φ?

Clasificador de máximo margen Máquina de soporte vectorial Luego usando una función núcleo reemplazando el producto interno la máquina de soporte vectorial para el caso no lineal estaría definida como ( m ) ˆf ( x) = sgn λ i y i φ( x i ), φ( x) b i=1 ( m ) = sgn λ i y i K ( x i, x) b i=1 Máquina de Soporte Vectoria no lineal Definimos a la máquina de soporte vectorial no lineal como la función de decisión dada por ( m ) ˆf ( x) = sgn λ i y i K ( x i, x) b i=1

Inicio Aprendizaje de máquina 1 Aprendizaje de máquina Fundamentos Planteamiento del problema 2 Máquina de soporte vectorial Clasificador de máximo margen Máquina de soporte vectorial (Caso no lineal) 3 Implementación computacional

del aprendizaje La biblioteca libsvm tiene implementado el algoritmo de máquina de soporte vectorial, esta b es usada por R (en los paquetes e1071 y kernlab) y WEKA. Los resultados que presentamos fueron salidas del paquete kernlab de R

Aprendizaje de máquina Nuestros datos fueron separados en dos grupos: Entrenamiento (1,045 registros) y Prueba (184 registros). Para las pruebas, utilizamos el núcleo denominado Radial Basic Function (RBF). K ( x i, x j ) = e σ( x i x j 2 ) Con los siguientes valores en los parámentros con σ = 0,25, Se obtuvo los siguientes resultados Afiliado* Traspaso* Afiliado 526 75 Traspaso 46 398 572 473 *Clasificación. El error de entrenamiento es de 11.57 %.Utilizando el modelo construido, se verificó con los datos de prueba con un 13.5 % de error Afiliado* Traspaso* Afiliado 100 9 Traspaso 16 59 116 68

Segundo ejercicio Aprendizaje de máquina Con el mismo conjunto de datos, decidimos escoger otro conjunto de entrenamiento (1,000 registros) y de prueba (229 registros), con el mismo valor en los parámetros que el ejercicio anterior, se entrenó a la máquina y se obtuvieron los siguientes resultados Afiliado* Traspaso* Afiliado 513 66 Traspaso 44 377 557 443 Error de entrenamiento 11 %, probamos el modelo con el conjunto de prueba: Afiliado* Traspaso* Afiliado 113 11 Traspaso 19 86 132 97 Error de entrenamiento 12.66 %, con esta cifra, damos por válido al modelo.

Puesta en marcha Aprendizaje de máquina Una vez hallado los parámetros óptimos se construye la máquina de soporte vectorial con la que se va a medir la probabilidad de traspaso de un conjunto de clientes no empleado para el entrenamiento. CodigoCte Clase Clase Prob.Traspaso C001 Afiliado Traspaso 57.97 % C002 Afiliado Afiliado 43.26 % C003 Afiliado Afiliado 34.86 % C004 Afiliado Traspaso 59.28 % C005 Afiliado Traspaso 55.34 % C006 Afiliado Afiliado 29.73 % C007 Afiliado Afiliado 27.07 % C008 Afiliado Traspaso 86.70 % C009 Afiliado Afiliado 25.57 % C010 Afiliado Afiliado 28.86 % C011 Afiliado Afiliado 25.30 % C012 Afiliado Traspaso 64.58 % C013 Afiliado Afiliado 44.55 % Cuadro: Probabilidad de traspaso

Gráficos de la clasificación Clase Traspaso en Azul Figura: Permanencia Entidad vs Permanencia en Sistema Figura: Edad vs Renta

Gráficos de la clasificación Figura: Permanencia Entidad vs Permanencia en Sistema Figura: Edad vs Renta

Gráficos de la clasificación Figura: CuotasPagadas vs MaxCuotasConsecutivas Figura: Renta vs TPHO

Bibliografía Aprendizaje de máquina Lutz Hamel. Knowledge Discovery with Support Vector Machines. John Wiley y Sons Inc, 2009. Ralf Herbrich. Learning Kernel Classifiers. Massachusetts Institute of Tecnology, 2002. Xindong WuVipin Kumar. The Top Ten Algorithms in Data Mining. Chapman y Hall/CRC, 2009. A.L. Peressini, F.E. Sullivan, J.J. Uhl Jr. The Mathematics of nonlinear programming. Springer Verlag New York INC, 1988. Nello Cristianini and John ShaweTaylor. An Introduction to Support Vector Machines and Other Kernelbased Learning Methods. Cambridge University Press 2000.

Bibliografía Aprendizaje de máquina Ingo Steinward and Andreas Christmann. Support Vector Machines. Springer ScienceBusiness Media, LLC, 2008. WilliHansSteeb. The Nonlinear Workbook 3rd Edition. World Scientific Publishing Co. Pte. Ltd, 2005.

Muchas gracias por su atención