Sistemas Inteligentes para la Gestión de la Empresa



Documentos relacionados
Big Data. Francisco Herrera. Research Group on Soft Computing and Information Intelligent Systems (SCI 2 S) University of Granada, Spain

Francisco Herrera. Dpto. Ciencias de la Computación e I.A. Universidad de Granada

Big Data & Machine Learning. MSc. Ing. Máximo Gurméndez Universidad de Montevideo

Francisco Herrera. Dpto. Ciencias de la Computación e I.A. Universidad de Granada

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK.

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO

Big Data: retos a nivel de desarrollo. Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co

INTELIGENCIA DE NEGOCIO

Hadoop. Cómo vender un cluster Hadoop?

Yersinio Jiménez Campos Analista de datos Banco Nacional de Costa Rica

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1

FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS

Trabajo final de Ingeniería

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López

CURSO: DESARROLLADOR PARA APACHE HADOOP

Objetos Distribuidos - Componentes. Middleware

PINOT. La ingestión near real time desde Kafka complementado por la ingestión batch desde herramientas como Hadoop.

Proyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source

Análisis de datos de accidentes de tráfico mediante soluciones BigData y Business Intelligence

Soluciones Integrales en Inteligencia de Negocios

Este proyecto tiene como finalidad la creación de una aplicación para la gestión y explotación de los teléfonos de los empleados de una gran compañía.

Universidad de Guadalajara

Conectores Pentaho Big Data Community VS Enterprise

Agustiniano Ciudad Salitre School Computer Science Support Guide Second grade First term

CURSOS DE VERANO 2014

MÁSTER: MÁSTER EXPERTO BIG DATA

Big data A través de una implementación

Cocinando con Big Data

XII Encuentro Danysoft en Microsoft Abril Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código

Diseño ergonómico o diseño centrado en el usuario?

Tecnologías para el. datos en big data. Francisco Herrera

ANÁLISIS Y DESARROLLO DE UNA PLATAFORMA BIG DATA

Text Mining Introducción a Minería de Datos

1. Ir a

Software Libre para Aplicaciones de Big Data

BIG DATA. Jorge Mercado. Software Quality Engineer

Base de datos II Facultad de Ingeniería. Escuela de computación.

Qué significa Hadoop en el mundo del Big Data?

Innovación empresarial disciplina DevOps

Servicios avanzados de supercomputación para la ciència y la ingeniería

CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN.

CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES

Marcos de Desarrollo. Diseño e implementación de aplicaciones Web con.net

1. REQUISITOS DE SOFTWARE Y HARDWARE

Sistemas Operativos Windows 2000

Guía Rápida de Inicio

RECOMENDACIÓN PERSONALIZADA Y BIG DATA

30 oct. SAP Fraud Management. El Camino a la transparencia. La necesidad Gestionar en tiempo real. El medio Una plataforma in-memory

Transición de su infraestructura de Windows Server 2003 a una solución moderna de Cisco y Microsoft

PLATAFORMA SPARK: CATAPULTA MACHINE LEARNING

Diplomado en Big Data

Beneficios estratégicos para su organización. Beneficios. Características V

Como extender la capacidad Analítica conectando fuentes de datos Big Data en ArcGIS

picojava TM Características

La ayuda practica de hoy para los CIO s y responsables de servicio

IBM PERFORMANCE EVENTS. Smarter Decisions. Better Results.

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio?

Acerca de esté Catálogo

La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network)

Deep Learning y Big Data

SOCIALIZANDO EL CAMPUS VIRTUAL ATENEA DE LA UPC. Cataluña

NubaDat An Integral Cloud Big Data Platform. Ricardo Jimenez-Peris

"Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios

El Cliente y El Ingeniero de Software

Guía Rápida de Puesta en Marcha de MailStore

WINDOWS : COPIAS DE SEGURIDAD

CURSOS DE VERANO 2014

CURSO PRESENCIAL: DESARROLLADOR BIG DATA

Guía de licenciamiento de NAV en pago por uso

Especificaciones de Hardware, Software y Comunicaciones

REQUERIMIENTOS HARDWARE Y SOFTWARE QWEBDOCUMENTS VERSION 4

III. INTRODUCCIÓN AL CLOUD COMPUTING

Aprendizaje Automático y Data Mining. Bloque IV DATA MINING

BUSINESS INTELLIGENCE Y REDSHIFT

CLOUD ENIAC BACKUP. Sus datos son importantes?

Capítulo VI. Conclusiones. En este capítulo abordaremos la comparación de las características principales y

Guía rápida del usuario. Disco duro virtual.

Título del Proyecto: Sistema Web de gestión de facturas electrónicas.

APLICATIVO WEB PARA LA ADMINISTRACIÓN DE LABORATORIOS Y SEGUIMIENTO DOCENTE EN UNISARC JUAN DAVID LÓPEZ MORALES

Symantec Desktop and Laptop Option

A continuación resolveremos parte de estas dudas, las no resueltas las trataremos adelante

INTELIGENCIA DE NEGOCIO

ESTUDIO, ANÁLISIS Y EVALUACIÓN DEL ENTORNO DE TRABAJO HADOOP. Entidad Colaboradora: ICAI Universidad Pontificia Comillas

Big Data y BAM con WSO2

Alessandro Chacón Ernesto Level Ricardo Santana

P á g i n a 1 / 15. M A N U A L I N S T A L A C I Ó N C o p y r i g h t P r i v a t e P l a n e t L t d.

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX

Instalación: Instalación de un agente en una máquina cliente y su registro en el sistema.

Virginia Miguez Directora Administración Pública Intel Corporation Iberia

Anexo 11. Manual de Administración

INTRODUCCIÓN A LA PROGRAMACIÓN WEB UNIDAD. Estructura de contenidos: cisvirtual@ucv.edu.pe. 1.

ADAPTACIÓN DE REAL TIME WORKSHOP AL SISTEMA OPERATIVO LINUX

Esta solución de fácil uso está orientada a cualquier industria, ya sea una empresa del sector privado o del sector público.

INTELIGENCIA DE NEGOCIO

Ventajas del almacenamiento de datos de nube

emuseum PUBLIQUE SUS COLECCIONES EN LA WEB Por qué elegir emuseum? Se integra fácilmente con TMS Búsqueda eficaz Completamente personalizable

La Nueva Economía de los Datos

MINERÍA DE DATOS Y SUS TENDENCIAS ACTUALES

Transcripción:

Sistemas Inteligentes para la Gestión de la Empresa 2014-2015 Tema 1. Introducción a la Inteligencia de Negocio Tema 2. Depuración y Calidad de Datos Tema 3. Análisis Predictivo para la Empresa Tema 4. Modelos avanzados de Analítica de Empresa Tema 5. Análisis de Transacciones y Mercados Tema 6. Big Data

Objetivos Conocer el problema de big data. Conocer las tecnologías asociadas para la resolución de problemas. Conocer el diseño de algoritmos en big data.

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Algunas Aplicaciones 5. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 6. Deep Learning 7. Diseño de Algoritmos para Big Data

Tema 6. Big Data Contenido Introducción a Big data Paradigma MapReduce Bibliografía A. Fernandez, S. Río, V. López, A. Bawakid, M.J. del Jesus, J.M. Benítez, F. Herrera, Big Data with Cloud Computing: An Insight on the Computing Environment, MapReduce and Programming Frameworks. WIREs Data Mining and Knowledge Discovery 4:5 (2014) 380-409 http://issuu.com/secacult_uja/docs/libro_francisco_herrera.indd 4

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Algunas Aplicaciones 5. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 6. Deep Learning 7. Diseño de Algoritmos para Big Data

Big Data Ciencia Nuestro mundo gira en torno a los datos Bases de datos de astronomía, genómica, datos medio-ambientales, datos de transporte, Ciencias Sociales y Humanidades Libros escaneados, documentos históricos, datos sociales, Negocio y Comercio Ventas de corporaciones, transacciones de mercados, censos, tráfico de aerolíneas, Entretenimiento y Ocio Imágenes en internet, películas, ficheros MP3, Medicina Datos de pacientes, datos de escaner, radiografías Industria, Energía, Sensores, 6

Big Data Alex ' Sandy' Pentland, director del programa de emprendedores del 'Media Lab' del Massachusetts Institute of Technology (MIT) Considerado por 'Forbes' como uno de los siete científicos de datos más poderosos del mundo http://www.elmundo.es/elmundo/2013/09/03/navegante/1378243782.html 7

Big Data 8

Qué es Big Data? No hay una definición estándar Big data es una colección de datos grande, complejos, muy difícil de procesar a través de herramientas de gestión y procesamiento de datos tradicionales Big Data son datos cuyo volumen, diversidad y complejidad requieren nueva arquitectura, técnicas, algoritmos y análisis para gestionar y extraer valor y conocimiento oculto en ellos... 9

Qué es Big Data? 10

Qué es Big Data? 11

Qué es Big Data? Las 3 V s de Big Data Volumen Big Data Variedad Velocidad 12

Qué es Big Data? 3 V s de Big Data 13

Qué es Big Data? 3 V s de Big Data 1ª: Volumen 14

Qué es Big Data? 3 V s de Big Data 15

Qué es Big Data? 3 V s de Big Data Los DATOS se generan muy rápido y necesitan ser procesados rápidamente Online Data Analytics 2ª: Velocidad Decisiones tardías oportunidades perdidas Ejemplos: E-Promociones: Basadas en la posición actual e historial de compra envío de promociones en el momento de comercios cercanos a la posición Monitorización/vigilancia sanitaria: Monitorización sensorial de las actividades del cuerpo cualquier medida anormal requiere una reacción inmediata 16

Qué es Big Data? 3 V s de Big Data 17

Qué es Big Data? 3 V s de Big Data Varios formatos y estructuras: 3ª: Variedad Texto, numéricos, imágenes, audio, video, sequencias, series temporales Una sola aplicación puede generar muchos tipos de datos Extracción de conocimiento Todos estos tipos de datos necesitan ser analizados conjuntamente 18

Qué es Big Data? 4ª V Veracidad 4ªV Veracidad 19

Qué es Big Data? 5 V s --> Valor 5ªV = Valor 20

Qué es Big Data? Las 8 V s de Big Data Veracidad Valor Variedad Variabilidad Velocidad Validez Volumen Big Data Volatilidad 21

Qué es Big Data? Big data es cualquier característica sobre los datos que represente un reto para las funcionalidades de un sistema. 22

Qué es Big Data? Big data incluye datos estructurados con datos no estructurados, imágenes, vídeos 23

Qué es Big Data? Quién genera Big Data? Dispositivos móviles (seguimiento de objetos) Redes sociales y multimedia (todos generamos datos) Instrumentos científicos (colección de toda clase de datos) Redes de sensores (se miden toda clase de datos) El progreso y la innovación ya no se ven obstaculizados por la capacidad de recopilar datos, sino por la capacidad de gestionar, analizar, sintetizar, visualizar, y descubrir el conocimiento de los datos recopilados de manera oportuna y en una forma escalable 24

Big Data. Aplicaciones Astronomía Genómica Telefonía Transacciones de tarjetas de crédito Tráfico en Internet Procesamiento de información WEB 25

Big Data. Ejemplo Evolutionary Computation for Big Data and Big Learning Workshop Big Data Competition 2014: Self-deployment track Objective: Contact map prediction Details: 32 million instances 631 attributes (539 real & 92 nominal values) 2 classes 98% of negative examples About 56.7GB of disk space Evaluation: True positive rate True negative rate TPR TNR http://cruncher.ncl.ac.uk/bdcomp/index.pl?action=data

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Algunas Aplicaciones 5. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 6. Deep Learning 7. Diseño de Algoritmos para Big Data

MapReduce Problema: Escalabilidad de grandes cantidades de datos Ejemplo: Exploración 100 TB en 1 nodo @ 50 MB/sec = 23 días Exploración en un clúster de 1000 nodos = 33 minutos Solución Divide-Y-Vencerás Una sola máquina no puede gestionar grandes volúmenes de datos de manera eficiente 28

MapReduce Escalabilidad de grandes cantidades de datos Exploración 100 TB en 1 nodo @ 50 MB/sec = 23 días Exploración en un clúster de 1000 nodos = 33 minutos Solución Divide-Y-Vencerás Qué ocurre cuando el tamaño de los datos aumenta y los requerimientos de tiempo se mantiene? Hace unos años: Había que aumentar los recursos de hardware (número de nodos). Esto tiene limitaciones de espacio, costes, Google 2004: Paradigma MapReduce 29

MapReduce Escalabilidad de grandes cantidades de datos Exploración 100 TB en 1 nodo @ 50 MB/sec = 23 días Exploración en un clúster de 1000 nodos = 33 minutos Solución Divide-Y-Vencerás MapReduce Modelo de programación de datos paralela Concepto simple, elegante, extensible para múltiples aplicaciones Creado por Google (2004) Procesa 20 PB de datos por día (2004) Popularizado por el proyecto de codigo abierto Hadoop Usado por Yahoo!, Facebook, Amazon, 30

MapReduce MapReduce es el entorno más popular para Big Data Basado en la estructura Valorllave. Dos operaciones: 1. Función Map : Procesa bloques de información 2. Función Reduce function: Fusiona los resultados previous de acuerdo a su llave. + Una etapa intermedia de agrupamiento por llave (Shuffling) input (k, v) (k, v) (k, v ) input input input map map map map k, list(v ) Shuffling: group values by keys reduce reduce reduce v (k, v ) k, list(v ) v (k, v) (k, v ) k, list(v ) v output output output map (k, v) list (k, v ) reduce (k, list(v )) v (k, v) (k, v ) J. Dean, S. Ghemawat, MapReduce: Simplified data processing on large clusters, Communications of the ACM 51 (1) (2008) 107-113.

MapReduce Flujo de datos MapReduce map (k,v) list(k,v ) reduce (k,list(v )) v

MapReduce Una imagen completa del proceso MapReduce 33

MapReduce

MapReduce Características Paralelización automática: Dependiendo del tamaño de ENTRADA DE DATOS se crean mutiples tareas MAP Dependiendo del número de intermedio <clave, valor> particiones se crean tareas REDUCE Escalabilidad: Funciona sobre cualquier cluster de nodos/procesadores Puede trabajar desde 2 a 10,000 máquinas Transparencia programación Manejo de los fallos de la máquina Gestión de comunicación entre máquina 35

MapReduce Tiempo de ejecución: Características Partición de datos Programación de la tarea Manejo de los fallos de la máquina Gestión de comunicación entre máquina 36

MapReduce Número de BLOQUES? El número de bloques es independiente del número de nodos disponibles. Va a estar asociado al tamaño y características del problema. 37

Almacenamiento MapReduce de los BLOQUES. El número de bloques es independiente del número de nodos disponibles 38

MapReduce Flujo de datos en MapReduce, transparente para el programador Ficheros de entrada Ficheros Intermedios Ficheros salida 39

MapReduce Aspectos a analizar: Proceso map: Puede crear conjuntos de datos muy pequeños, lo cual puede ser un inconveniente para algunos problemas. Ejemplo: Problemas de Clasificación. Nos podríamos encontrar con el problema de falta de densidad de datos y de clases con muy pocos datos (clasificación no balanceada). 40

MapReduce Aspectos a analizar: Proceso reduce: Debe combinar las soluciones de todos los modelos/procesos intermedios Esta es la fase más creativa porque hay que conseguir crear un modelo global de calidad asociado al problema que se desea resolver a partir de los modelos intermedios. 41

MapReduce Resumiendo: Ventaja frente a los modelos distribuidos clásicos: El modelo de programación paralela de datos de MapReduce oculta la complejidad de la distribución y tolerancia a fallos Claves de su filosofía: Es escalable: se olvidan los problemas de hardware más barato: se ahorran costes en hardware, programación y administración MapReduce no es adecuado para todos los problemas, pero cuando funciona, puede ahorrar mucho tiempo Bibliografía: A. Fernandez, S. Río, V. López, A. Bawakid, M.J. del Jesus, J.M. Benítez, F. Herrera, Big Data with Cloud Computing: An Insight on the Computing Environment, MapReduce and Programming Frameworks. WIREs Data Mining and Knowledge Discovery 4:5 (2014) 380-409 42

MapReduce Limitaciones If all you have is a hammer, then everything looks like a nail. Los siguientes tipos de algoritmos son ejemplos en los que MapReduce no funciona bien: Iterative Graph Algorithms Gradient Descent Expectation Maximization 43

Hadoop http://hadoop.apache.org/ 44

Hadoop Hadoop Distributed File System (HDFS) es un sistema de archivos distribuido, escalable y portátil escrito en Java para el framework Hadoop Map Reduce Layer HDFS Layer Creado por Doug Cutting (chairman of board of directors of the Apache Software Foundation, 2010) Task tracker Job tracker Name node Data node Task tracker Data node http://hadoop.apache.org/ 45

Hadoop Primer hito de Hadoop: July 2008 - Hadoop Wins Terabyte Sort Benchmark Uno de los grupos de Yahoo Hadoop ordenó 1 terabyte de datos en 209 segundos, superando el récord anterior de 297 segundos en la competición anual de ordenación de un terabyte (Daytona). Esta es la primera vez que un programa en Java de código abierto ganó la competición. http://sortbenchmark.org/ http://developer.yahoo.com/blogs/hadoop/hadoop-sorts-petabyte-16-25- hours-terabyte-62-422.html 46

Hadoop http://hadoop.apache.org/ Qué es Apache Hadoop? Apache Hadoop es un proyecto que desarrolla software de código abierto fiable, escalable, para computación distribuida Hadoop se puede ejecutar de tres formas distintas (configuraciones): 1. Modo Local / Standalone. Se ejecuta en una única JVM (Java Virtual Machine). Esto es útil para depuración 2. Modo Pseudo-distribuido (simulando así un clúster o sistema distribuido de pequeña escala) 3. Distribuido (Clúster) 47

Hadoop El proyecto Apache Hadoop incluye los módulos: Hadoop Common: Las utilidades comunes que apoyan los otros módulos de Hadoop. Hadoop Distributes File System (HDFS): El sistema de ficheros que proporciona el acceso Hadoop YARN: Marco para el manejo de recursos de programación y grupo de trabajo. Hadoop MapReduce: Un sistema de basado en YARN o para el procesamiento en paralelo de grandes conjuntos de datos. http://hadoop.apache.org/ Ecosistema Apache Hadoop incluye más de 150 proyectos: Avro: Un sistema de serialización de datos. Cassandra: Una base de datos escalable multi-master sin puntos individuales y fallo Chukwa: Un sistema de recogida de datos para la gestión de grandes sistemas distribuidos. Hbase: Una base de datos distribuida, escalable que soporta estructurado de almacenamiento de datos para tablas de gran tamaño. Hive: Un almacén de datos que proporciona el Resumen de datos para tablas de gran tamaño. Pig: Lenguaje para la ejecución de alto nivel de flujo de datos para computación paralela. Tez: Sustituye al modelo MapShuffleReduce por un flujo de ejecución con grafos acíclico dirigido (DAG) Giraph: Procesamiento iterativo de grafos Mahout: Aprendizaje automático escalable (biblioteca de minería de datos) Recientemente: Apache 48

Hadoop Cómo accedo a una plataforma Hadoop? Plataformas Cloud con instalación de Hadoop Amazon Elastic Compute Cloud (Amazon EC2) http://aws.amazon.com/es/ec2/ Windows Azure //www.windowsazure.com/ Instalación en un cluster Ejemplo ATLAS, infraestructura del grupo SCI 2 S Cluster ATLAS: 4 super servers from Super Micro Computer Inc. (4 nodes per server) The features of each node are: Microprocessors: 2 x Intel Xeon E5-2620 (6 cores/12 threads, 2 GHz, 15 MB Cache) RAM 64 GB DDR3 ECC 1600MHz, Registered 1 HDD SATA 1TB, 3Gb/s; (system) 1 HDD SATA 2TB, 3Gb/s; (distributed file system) 49

Hadoop Cómo puedo instalar Hadoop? Distribución que ofrece Cloudera para Hadoop. http://www.cloudera.com/content/clo udera/en/why-cloudera/hadoop-andbig-data.html Qué es Cloudera? Cloudera es la primera distribución Apache Hadoop comercial y no-comercial. 50

Mahout Software de Ciencia de Datos Generation 1ª Generación 2ª Generación Ejemplos KNIME, SAS, R, Weka, SPSS, KEEL Mahout, Pentaho, Cascading Scalabilidad Vertical Horizontal (over Hadoop) Algoritmos disponibles Algoritmos No disponibles Tolerancia a Fallos Huge collection of algorithms Practically nothing Single point of failure Small subset: sequential logistic regression, linear SVMs, Stochastic Gradient Descendent, k-means clustering, Random forest, etc. Vast no.: Kernel SVMs, Multivariate Logistic Regression, Conjugate Gradient Descendent, ALS, etc. Most tools are FT, as they are built on top of Hadoop

Mahout Biblioteca de código abierto en APACHE http://mahout.apache.org/ 52

Mahout Cuatro grandes áreas de aplicación Agrupamiento Clasificación Sistemas de Recomendaciones Asociación 53

Mahout Caso de estudio: Random Forest para KddCup99 54

Mahout Caso de estudio: Random Forest para KddCup99 Implementación RF Mahout Partial: Es un algoritmo que genera varios árboles de diferentes partes de los datos (maps). Dos fases: Fase de Construcción Fase de Clasificación 55

Mahout Caso de estudio: Random Forest para KddCup99 Class Instance Number normal 972.781 DOS 3.883.370 PRB 41.102 R2L 1.126 U2R 52 Tiempo en segundos para ejecución Cluster ATLAS: 16 nodos -Microprocessors: 2 x Intel E5-2620 (6 cores/12 56

Mahout Caso de estudio: Random Forest para KddCup99 Class Instance Number normal 972.781 DOS 3.883.370 PRB 41.102 R2L 1.126 U2R 52 Tiempo en segundos para Big Data con Cluster ATLAS: 16 nodos -Microprocessors: 2 x Intel E5-2620 (6 cores/12 57

Índice Qué es Big Data? MapReduce: Paradigma de Programación para Big Data (Google) Plataforma Hadoop (Open access) Librería Mahout para Big Data Limitaciones de MapReduce

Hadoop Mahout Qué algoritmos puedo encontrar para Hadoop? Analizamos 10 algoritmos muy conocidos Decision trees (C4.5, Cart)(MReC4.5) K-Means SVM Apriori knn Naïve Bayes EM (Expectation Maximization) PageRank Adaboost Limitaciones de MapReduce Palit, I., Reddy, C.K., 2012. Scalable and parallel boosting with mapreduce. IEEE TKDE 24 (10), pp. 1904-1916. (Amazon EC2 cloud, CGL-MapReduce: (modelos No disponibles 59

Limitaciones de MapReduce If all you have is a hammer, then everything looks like a nail. Los siguientes tipos de algoritmos son ejemplos en los que MapReduce no funciona bien: Iterative Graph Algorithms Gradient Descent Expectation Maximization 60

Limitaciones de MapReduce Algoritmos de grafos iterativos. Existen muchas limitaciones para estos algoritmos. Ejemplo: Cada iteración de PageRank se corresponde a un trabajo de MapReduce. Se han propuesto una serie de extensiones de MapReduce o modelos de programación alternativa para acelerar el cálculo iterativo: Pregel (Google) Implementación: http://www.michaelnielsen.org/ddi/pregel/ 61

Limitaciones de MapReduce Enrique Alfonseca 62

Limitaciones de MapReduce Procesos con flujos acíclicos de procesamiento de datos http://tez.apache.org/

Limitaciones de MapReduce GIRAPH (APACHE Project) (http://giraph.apache.org/) Procesamiento iterativo de grafos GPS - A Graph Processing System, (Stanford) http://infolab.stanford.edu/gps/ para Amazon's EC2 Twister (Indiana University) http://www.iterativemapreduce.org/ Clusters propios PrIter (University of Massachusetts Amherst, Northeastern University-China) http://code.google.com/p/priter/ Cluster propios y Amazon EC2 cloud Distributed GraphLab (Carnegie Mellon Univ.) https://github.com/graphlab-code/graphlab Amazon's EC2 Spark (UC Berkeley) (Apache Foundation) http://spark.incubator.apache.org/research.html HaLoop (University of Washington) http://clue.cs.washington.edu/node/14 http://code.google.com/p/haloop/ Amazon s EC2 GPU based platforms Mars Grex 64

Limitaciones de MapReduce Spark (UC Berkeley) http://spark.incubator.apache.org/research.html. It started as a research project at UC Berkeley in the AMPLab, which focuses on big data analytics. It introduces the resilient distributed datasets (RDD) abstraction, allowing iterative algorithms. It s about 100 times faster than Hadoop. Zaharia, M., Chowdhury, M., Das, T., Dave, A., Ma, J., McCauley, M., Franklin, M., Shenker, S., and Stoica, I. Resilient Distributed Datasets: A fault-tolerant abstraction for in-memory cluster computing. NSDI 2012. 2014 - Hadoop Spark ML Lib Spark Big Data in-memory https://spark.apache.org/docs/latest/mllib-guide.html 65

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Algunas Aplicaciones 5. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 6. Deep Learning 7. Diseño de Algoritmos para Big Data

Apache Spark Generation Examples 1st Generation SAS, R, Weka, SPSS, KEEL 2nd Generation Mahout, Pentaho, Cascading Scalability Vertical Horizontal (over Hadoop) Algorithms Available Algorithms Not Available Fault- Tolerance Huge collection of algorithms Practically nothing Single point of failure Small subset: sequential logistic regression, linear SVMs, Stochastic Gradient Decendent, k- means clustsering, Random forest, etc. Vast no.: Kernel SVMs, Multivariate Logistic Regression, Conjugate Gradient Descendent, ALS, etc. Most tools are FT, as they are built on top of Hadoop 3nd Generation Spark, Haloop, GraphLab, Pregel, Giraph, ML over Storm Horizontal (Beyond Hadoop) Much wider: CGD, ALS, collaborative filtering, kernel SVM, matrix factorization, Gibbs sampling, etc. Multivariate logistic regression in general form, k-means clustering, etc. Work in progress to expand the set of available algorithms FT: HaLoop, Spark Not FT: Pregel, GraphLab, Giraph

Apache Spark

Apache Spark Arquitectura de Hadoop V1

Apache Spark Evolución de Hadoop

Apache Spark Apache Hadoop YARN es el sistema operativo de datos de Hadoop 2, responsable de la gestión del acceso a los recursos críticos de Hadoop. YARN permite al usuario interactuar con todos los datos de múltiples maneras al mismo tiempo, haciendo de Hadoop una verdadera plataforma de datos multiuso y lo que le permite tomar su lugar en una arquitectura de datos moderna.

Apache Spark

Apache Spark https://spark.apache.org/ Enfoque InMemory HDFS Hadoop + SPARK Fast and expressive cluster computing

Esquema de computación más flexible que MapReduce. Permite la flujos acíclicos de procesamiento de datos, algoritmos iterativos Apache Spark Ecosistema Apache Spark Big Data in-memory. Spark permite realizar trabajos paralelizados totalmente en memoria, lo cual reduce mucho los tiempos de procesamiento. Sobre todo si se trata de unos procesos iterativos. En el caso de que algunos datos no quepan en la memoria, Spark seguirá trabajando y usará el disco duro para volcar aquellos datos que no se necesitan en este momento (Hadoop commodity hardware ). Spark ofrece una API para Java, Python y Scala

http://databricks.com/blog/2014/10/10/spark- Apache Spark October 10, 2014 Using Spark on 206 EC2 nodes, we completed the benchmark in 23 minutes. This means that Spark sorted the same data 3X faster using 10X fewer machines. All the sorting took place on disk (HDFS), without using Spark s inmemory cache.

Apache Spark November 5, 2014 http://sortbenchmark.org/

Apache Spark Spark Programming Model KEY Concept: RDD (Resilient Distributed Datasets) Write programs in terms of operations on distributed data sets Collection of objects spread across a cluster, stored in RAM or on Disk Built through parallel transformations on distributed datasets Automaticallly rebuilt on failure RDD operations: transformations and actions Transformations (e.g. map, filter, groupby) (Lazy operations to build RDSs from other RDSs) Actions (eg. Count, collect, save ) (Return a result or write it a storage) Zaharia-2012- Zaharia M, Chowdhury M, Das T, Dave A, Ma J, McCauley M, Franklin MJ, Shenker S, Stoica I. Resilient distributed datasets: a fault-tolerant abstraction for in-memory cluster computing. In: 9th USENIX Conference on Networked Systems Design and Implementation, San Jose, CA, 2012, 1 14.

Apache Spark Spark Operations Transformations (define a new RDD) map filter sample groupbykey reducebykey sortbykey flatmap union join cogroup cross mapvalues Actions (return a result to driver program) collect reduce count save lookupkey Zaharia-2012- Zaharia M, Chowdhury M, Das T, Dave A, Ma J, McCauley M, Franklin MJ, Shenker S, Stoica I.

Apache Spark Enfoque InMemory Ecosistema Apache Spark Futura versión de Mahout con Spark https://cwiki.apache.org/confluence/display/spark/po wered+by+spark Databricks, Groupon, ebay inc., Amazon, Hitachi, Nokia, Yahoo!,

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 5. Deep Learning 6. Algunas Aplicaciones 7. Diseño de Algoritmos para Big Data

Aprendizaje automática en Big Data. Bibliotecas Biblioteca de código abierto Currently Mahout supports mainly three use cases: Recommendation mining takes users' behavior and from that tries to find items users might like. Clustering takes e.g. text documents and groups them into groups of topically related documents. Classification learns from existing categorized documents what documents of a specific category look like and is able to assign unlabelled documents to the (hopefully) correct category. http://mahout.apache.org/ 81

Aprendizaje automática en Big Data. Bibliotecas Historia 82

Aprendizaje automática en Big Data. Bibliotecas Historia 83

Aprendizaje automática en Big Data. Bibliotecas Historia 84

Aprendizaje automática en Big Data. Bibliotecas 85

Aprendizaje automática en Big Data. Bibliotecas Algoritmos Es una buena librería para introducirse en el uso de MapReduce sobre Hadoop 86

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/releases/spark-release-1-3-0.html

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/mllib/

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/mllib/

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/docs/latest/mllib-guide.html

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/docs/latest/mllib-guide.html

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/docs/latest/mllib-guide.html

Aprendizaje automática en Big Data. Bibliotecas https://spark.apache.org/docs/latest/mllib-guide.html

Aprendizaje automática en Big Data. Bibliotecas Performance

Aprendizaje automática en Big Data. Bibliotecas

Aprendizaje automática en Big Data. Bibliotecas R packages using MapReduce: RHadoop RHIPE Hadoop Streaming R packages using Spark: SparkR SparkFernTreeR

Aprendizaje automática en Big Data. Bibliotecas RHadoop It is a collection of five R packages for connecting between Hadoop and R environment. rmr: It is an interface to perform MapReduce inside the R environment. rhdfs: It is an R interface for providing the HDFS commands from the R console. rhbase: It is an R interface for operating Hadoop MapReduce HBase data source stored at the distributed network via a Thrift server. plymr: This R package enables the R user to perform common data manipulation operations (plyr). ravro: The ravro package provides tools to allow reading of Avro data files into R.

Aprendizaje automática en Big Data. Bibliotecas Hadoop Streaming It is one of utilities provided by Hadoop to perform MapReduce job with executable scripts, such as Mapper and Reducer. The Hadoop streaming supports the Perl, Python, PHP, R, and C++ programming languages.

Aprendizaje automática en Big Data. Bibliotecas Rhipe It is a package that attempts to integrate R and Hadoop by using the concept Divide and Recombine (D & R). The D & R model is alike MapReduce provided by Hadoop.

Aprendizaje automática en Big Data. Bibliotecas SparkR https://github.com/amplab-extras/sparkr-pkg It is an R package that integrates R with Spark and enables native R commands in a distributed mode.

Aprendizaje automática en Big Data. Bibliotecas SparkR Features and Advantages As Apache Spark providing a schema based on Resilient Distributed Datasets, SparkR offers many processes not only map and reduce, for example, filter, groupby, broadcast, etc. Since R supports functional programming, it is efficient on coding and quite similar to Scala. It is fault tolerant, scalable storage, distributed file systems as Spark. We can directly use available R packages by executing includepackage. Since SparkR works on R, we gain many benefits regarding visualizations, statistics, and other primitive functions in R. It works on the interactive mode, which is easy to use for data analysis.

Aprendizaje automática en Big Data. Bibliotecas SparkR Functions Basically, they are the same as Spark, but with additional functions: lapply, lapplypartition, and includepackage. Input data (create RDD): Load datasets (textfile). Create objects (parallelize). Types of RDD operations: Transformations: lapply, filterrdd, lapplypartition, etc Actions: reduce, reducebykey, take, collect, etc. Output data: Save to a file(object) (saveastextfile, saveasobjectfile). Print (collect, collectpartition).

Aprendizaje automática en Big Data. Bibliotecas SparkR

Aprendizaje automática en Big Data. Bibliotecas SparkFernTreeR (Lala Riza) It is an R package implementing random forest and random ferns for big data on the Apache Spark framework (with SparkR). It can be used on standalone machine(without SparkR) and cluster. Random forest is used for classification, regression, density estimation/clustering, and manifold learning. Random fern method is used for classification.

Aprendizaje automática en Big Data. Bibliotecas SparkFernTreeR (Lala Riza) It allows to parallelize based on data, model (tree), and both. For example, if testing data are small (less than 30% of RAM), we can parallelize trees instead of the data. Functions included in the packages: Learning: dectree, randforest, SparkRF, SparkFerns. Prediction: predict (S3), predictsparkforest, predictsparkferns.

Aprendizaje automática en Big Data. Bibliotecas SparkFernTreeR (Lala Riza) An example using IRIS data set

Aprendizaje automática en Big Data. Bibliotecas Sofia-ML: Suit Of Fast Incremental Algorithms for Machine Learning Desarrollada por David Sculley (Google) Adaptada para problemas de extracción de conocimiento muy grandes Capaz de diseñar SVM a partir de 780.000 ejemplos en 0.1 Incluye: segundos en un procesador a 2.4 GHz SVM (diferentes kernels), Regresión logística Redes neuronales: Passive-Aggresive Perceptron ROMMA, K-means Existe también un paquete en R para Sofia ML https://code.google.com/p/sofia-ml/ http://cran.r-project.org/web/packages/rsofia/index.html

Aprendizaje automática en Big Data. Bibliotecas Sofia-ML: Suit Of Fast Incremental Algorithms for Machine Learning http://cran.r-project.org/web/packages/rsofia/index.html

Aprendizaje automática en Big Data. Bibliotecas Wowpal Wabbit (Fast Learning) Fast & Incremental Learning) John Langford (Yahoo! and Microsoft) (A package in Debian & R) http://hunch.net/~vw/ https://github.com/johnlangford/vowpal_wabbit/wiki/tutorial List of available algorithms: Active learning algorithms. Matrix factorization. Neural networks. BFGS. Stochastic gradient descent. Conjugate gradient, etc. A. Agarwal, O. Chapelle, M. Dudík, J. Langford. A Reliable Effective Terascale Linear Learning System. JMLR 15 (2014) 1111-1133. http://www.jmlr.org/papers/volume15/agarwal14a/agarwal14a.pdf

Aprendizaje automática en Big Data. Bibliotecas Wowpal Wabbit (Fast Learning) http://cran.r-

Aprendizaje automática en Big Data. Bibliotecas MapReduce sobre GPU

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data Nota: Deep Learning no es big data per se, introduce el uso de estructuras de aprendizaje que requieren de arquitecturas de procesamiento eficientes, distribuido (GPU, ) 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 5. Deep Learning 6. Algunas Aplicaciones 7. Diseño de Algoritmos para Big Data

Aprendizaje automática en Big Data. Bibliotecas Deep Learning: El aprendizaje profundo es un conjunto de algoritmos que intento de modelar abstracciones de alto nivel en los datos mediante el uso de arquitecturas compuestas de transformación no lineales múltiple. Bibliografía: L. Deng and D. Yu. Deep Learning methods and applications. Foundations and Trends in Signal Processing Vol. 7, Issues 3-4, 2014.

Aprendizaje automática en Big Data. Bibliotecas Algunas definiciones (Deng and Yu, 2014)

Aprendizaje automática en Big Data. Bibliotecas Algunas definiciones (Deng and Yu, 2014)

Aprendizaje automática en Big Data. Bibliotecas Algunas definiciones (Deng and Yu, 2014)

Aprendizaje automática en Big Data. Bibliotecas Algunas definiciones (Deng and Yu, 2014)

Aprendizaje automática en Big Data. Bibliotecas Human information processing mechanisms (e.g., vision and audition),however, suggest the need of deep architectures for extracting complex structure and building internal representation from rich sensory inputs. Historically, the concept of deep learning originated from artificial neural network research. (Hence, one may occasionally hear the discussion of new-generation neural networks. ) Feed-forward neural networks or MLPs with many hidden layers, which are often referred to as deep neural networks (DNNs), are good examples of the models with a deep architecture.

Aprendizaje automática en Big Data. Bibliotecas Machine learning: Shallow-structured arquitectures Gaussian mixture models (GMMs), linear or nonlinear dynamical systems, conditional, random fields (CRFs), maximum entropy (MaxEnt) models, Support vector machines (SVMs), logistic regression, kernel regression, multilayer perceptrons (MLPs) with a single hidden layer including extreme learning machines (ELMs). These architectures typically contain at most one or two layers of nonlinear feature transformations.

Aprendizaje automática en Big Data. Bibliotecas Traditional recognition approaches Features are not learning

Aprendizaje automática en Big Data. Bibliotecas Shallow vs. deep architectures

Aprendizaje automática en Big Data. Bibliotecas k j Backpropagation w jk v ij Minimize error of calculated output Adjust weights Gradient Descent Procedure Forward Phase Backpropagation of errors For each sample, multiple epochs i

Aprendizaje automática en Big Data. Bibliotecas Problems with Backpropagation Multiple hidden Layers Get stuck in local optima start weights from random positions Slow convergence to optimum large training set needed Only use labeled data most data is unlabeled

Aprendizaje automática en Big Data. Bibliotecas Hierarchical Learning Natural progression from low level to high level structure as seen in natural complexity Easier to monitor what is being learnt and to guide the machine to better subspaces Usually best when input space is locally structured spatial or temporal: images, language, etc. vs arbitrary input features

Aprendizaje automática en Big Data. Bibliotecas Deep Architecture (Train networks with many layers) Multiple hidden layers Motivation (why go deep?) Approximate complex decision boundary Fewer computational units for same functional mapping Hierarchical Learning Increasingly complex features work well in different domains Vision, Audio,

Aprendizaje automática en Big Data. Bibliotecas Deep Architecture (Train networks with many layers) Some Models: Deep networks for unsupervised or generative learning: deep belief network (DBN, a stack of restricted Boltzmann machines (RBMs). Deep networks for supervised learning: Deep Neural Networks (DNN), Convolutional neural network (CNN), in which each module consists of a convolutional layer and a pooling layer, CNNs have been found highly effective and been commonly used in computer vision and image recognition). Hybrid deep networks: DBN-DNN (when DBN is used to initialize the training of a DNN, the resulting network is sometimes called the DBN DNN)

Aprendizaje automática en Big Data. Bibliotecas Convolutional Neural Networks Each layer combines (merges, smoothes) patches from previous layers Typically tries to compress large data (images) into a smaller set of robust features, based on local variations Basic convolution can still create many features

Aprendizaje automática en Big Data. Bibliotecas Convolutional Neural Networks C layers are convolutions, S layers pool/sample

Aprendizaje automática en Big Data. Bibliotecas ImageNet Classification with Deep Convolutional Neural Networks Part of: Advances in Neural Information Processing Systems 25 (NIPS 2012) ImageNet is a dataset of over 15 million labeled high-resolution images belonging to roughly 22,000 categories. The images were collected from the web and labeled by human labelers using Amazon s Mechanical Turk crowdsourcing tool. Starting in 2010, as part of the Pascal Visual Object Challenge, an annual competition called the ImageNet Large-Scale Visual Recognition Challenge (ILSVRC) has been held. ILSVRC uses a subset of ImageNet with roughly 1000 images in each of 1000 categories. In all, there are roughly 1.2 million training images, 50,000 validation images, and 150,000 testing images.

Aprendizaje automática en Big Data. Bibliotecas Google Brain is a deep learning research project at Google Google cuenta, desde hace tres años con el departamento conocido como Google Brain (dirigido por Andrew Ng, Univ. Stanford, responsable de un curso de coursera de machine learning) dedicado a esta técnica entre otras. En 2013, Google adquirió la compañía DNNresearch Inc de uno de los padres del Deep Learning (Geoffrey Hinton). En enero de 2014 se hizo con el control de la startup Deepmind Technologies una pequeña empresa londinense en la trabajaban que algunos de los mayores expertos en deep learning.

http://elpais.com/elpais/2015/02/25/ciencia/142486045 Aprendizaje automática en Big Data. Bibliotecas Google Brain is a deep learning research project at Google

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle (A. Herrera-Poyatos) Andrés Herrera Poyatos Repositorio en GitHub con el código: https://github.com/andreshp/kaggle

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle Desarrollar un reconocedor de dígitos es uno de los problemas clásicos de la ciencia de datos. Sirve de benchmark para probar los nuevos algoritmos. Ningún un humano acierta el 100%! Aplicación práctica: detección de matrículas, conversión de escritura a mano en texto 9 6 6 6 4 0 7 4 0 1 3 1 3 4 7 2 7 1 2 1 1 7 4 2 3 5 1 2 4 4

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle Kaggle mantiene una competición pública: http://www.kaggle.com/c/digit-recognizer Datos a analizar: MNIST DATA http://yann.lecun.com/exdb/mnist/

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle Data Set: Training Set: 42.000 Imágenes Test Set: 28.000 Imágenes Imagen: 10 clases: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 28x28 píxeles Ejemplo: Puntuación para la clasificación general: índice de acierto sobre un 25% del Test Set.

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 1. Primer paso 1. Probar los algoritmos más conocidos para usarlos como benchmark KNN con k = 10 Random Forest con 1000 árboles 0.96557 en Kaggle 0.96829 en Kaggle 2. Optimizar los parámetros de un algoritmo sencillo Cross Validation sobre KNN para encontrar el mejor valor de k. Solución: K=1 0.97114 en Kaggle

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 2. Visualización Media de todas las imágenes del training set por clases: Observación: Incluso las medias no están centradas (ver 6 y 7). Esto provoca problemas para clasificarlas correctamente. Solución: Preprocesamiento

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 3. Preprocesamiento Idea: Eliminar las filas y columnas de píxeles en blanco. Problema: Las nuevas imágenes tienen diferentes dimensiones.

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 3. Preprocesamiento Solución: Redimensionar las imágenes a 20x20 píxeles (tras el proceso anterior la imagen más grande tiene esa dimensión) Media de las imágenes del training set preprocesadas: Todas están centradas! KNN con k=1 sobre los datos preprocesados 0.97557 en Kaggle

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle Librería que contiene Deep Learning: H2O http://0xdata.com/ Récord del mundo en el problema MNIST sin preprocesamiento http://0xdata.com/blog/2015/02/deep-learning-performance/ Soporte para R, Hadoop y Spark Funcionamiento: Crea una máquina virtual con Java en la que optimiza el paralelismo de los algoritmos.

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle http://docs.h2o.ai/ruser/top.html http://cran.rproject.org/src/contrib/h2o_2.8.4.4.tar.gz

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle http://cran.rproject.org/web/packages/h2o/index.html

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 4. Deep Learning sobre MNIST DATA preprocesados Andrés Herrera Poyatos Repositorio en GitHub con el código: https://github.com/andreshp/kaggle

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle 4. Deep Learning sobre MNIST DATA preprocesados hidden=c(1024,1024,2048) Andrés Herrera Poyatos Repositorio en GitHub con el código: https://github.com/andreshp/kaggle

Aprendizaje automática en Big Data. Bibliotecas 4. Deep Learning sobre MNIST DATA preprocesados Tiempo de Ejecución: 2.5 horas de cómputo con un Procesador Intel i5 a 2.5 GHz. Resultados conseguidos: Deep Learning 0.98229 en Kaggle Preprocesamiento + Deep Learning 0.98729 en Kaggle El primer resultado era 0.96557!

Aprendizaje automática en Big Data. Bibliotecas Caso estudio: Digit Recognizer Kaggle Librería de Deep Learning en Python nolearn - Web: https://pythonhosted.org/nolearn/ Incluye: DBN y CNN.

Aprendizaje automática en Big Data. Bibliotecas Deep Learning Referencias: L. Deng and D. Yu. Deep Learning methods and applications. Foundations and Trends in Signal Processing Vol. 7, Issues 3-4, 2014. A fast learning algorithm for deep belief nets -- Hinton et al., 2006 Reducing the dimensionality of data with neural networks -- Hinton & Salakhutdinov Páginas web personales de los 2 investigadores de referencia: https://www.cs.toronto.edu/~hinton/ (G. Hinton) http://www.iro.umontreal.ca/~bengioy/yoshua_en/index.ht ml (Yosua Bengio)

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 5. Deep Learning 6. Algunas Aplicaciones 7. Diseño de Algoritmos para Big Data

Algunas aplicaciones Netflix (el origen de Kaggle)

Algunas aplicaciones Google Flu (http://www.google.org/flutrends) Detect pandemic risk in real time 2009, nuevo virus gripe A: cepa H1N1 Sanidad pública temía una pandemia similar a la de la gripe española de 1918 500 millones de afectados Decenas de millones de fallecidos No hay vacuna, hay que ralentizar la propagación Solución: Los centros de control y prevención de enfermedades (CDC) recopilan datos de los médicos Se consigue un panorama de la pandemia con un desfase, retraso de 2 semanas!

Algunas aplicaciones Google Flu Google puede predecir la propagación de la gripe ( ) analizando lo que la gente busca en internet J. Ginsberg, M.H. Mohebbi, R.S. Patel, L. Brammer, M.S. Smolinski, L. Brilliant. Detecting influenza epidemics using search engine query data. Nature 475 (2009) 1012-1014 Google utilizó: Detect pandemic risk in real time + de 3.000M de búsquedas a diario 50 M de términos de búsqueda más utilizados Comparó esta lista con los datos de los CDC sobre propagación de gripe entre 2003 y 2008 Identificar a los afectados en base a sus búsquedas Buscaron correlaciones entre frecuencia de búsquedas de información y propagación de la gripe en tiempo y espacio

Algunas aplicaciones Google Flu Detect pandemic risk in real time Encontraron una combinación de 45 términos de búsqueda que al usarse con un modelo matemático presentaba una correlación fuerte entre su predicción y las cifras oficiales de la enfermedad Podían decir, como los CDC, a dónde se había propagado la gripe pero casi en tiempo real, no una o dos semanas después Con un método basado en Big Data Se ha extendido a 29 países En 2013 sobreestimó los niveles de gripe (x2 la estimación CDC) La sobreestimación puede deberse a la amplia cobertura mediática de la gripe que puede modificar comportamientos de búsqueda Los modelos se van actualizando anualmente

Algunas aplicaciones Google Flu Trends (2008) (http://www.google.org/flutrends) Detect pandemic risk in real time Wikipedia Usage Estimates Prevalence of Influenza-Like Illness in the United States in Near Real-Time David J. McIver, John S. Brownstein, Harvard Medical School, Boston Children s Hospital, Plos Computational Biology, 2014. Wikipedia traffic could be used to provide real time tracking of flu cases, according to the study published by John Brownstein. Wikipedia is better than Google at tracking flu trends? 154

Algunas aplicaciones Studies: Health, Social Media and Big Data You Are What You Tweet: Analyzing Twitter for Public Health Discovering Health Topics in Social Media Using Topic Models Michael J. Paul, Mark Dredze, Johns Hopkins University, Plos One, 2014 Analyzing user messages in social media can measure different population characteristics, including public health measures. A system filtering Twitter data can automatically infer health topics in 144 million Twitter messages from 2011 to 2013. ATAM discovered 13 coherent clusters of Twitter messages, some of which correlate with seasonal influenza (r = 0.689) and allergies (r = 0.810) temporal surveillance data, as well as exercise (r =.534) and obesity (r =2.631) related geographic survey data in the United States. 155

Algunas aplicaciones Big Data, Vol.2, 2, 2014 156

Algunas aplicaciones Earthquakes and Social Media The United States Geological Survey Twitter searches increases in the volume of messages on earthquake and has been able to locate earthquakes with 90% accuracy.

Algunas aplicaciones http://www.sciencemag.org/content/347/6221/536 http://elpais.com/elpais/2015/01/29/ciencia/1422520042_066660.html

Algunas aplicaciones Objectives include: 1. Increasing the number of Big Data for Development (BD4D) innovation success cases 2. Lowering systemic barriers to big data for development adoption and scaling 3. Strengthening cooperation in the big data for development ecosystem 159

Algunas aplicaciones 160

Algunas aplicaciones http://www.ibtimes.com/ibm-watson-api-coming-3- potential-business-applications-ibms-watson-cloudecosystem-1470694 By Dave Smith on November 14 2013 IBM is 12:22 preparing PM its Watson supercomputer technology to be utilized by thirdparty developers for the first time via a Watson cloud service called the 161

Algunas aplicaciones ECBDL 14 Big Data Competition Big Data Competition 2014: Self-deployment track Objective: Contact map prediction Details: 32 million instances 631 attributes (539 real & 92 nominal values) 2 classes 98% of negative examples About 56.7GB of disk space http://cruncher.ncl.ac.uk/bdcomp/index.pl?action=data

Algunas aplicaciones ECBDL 14 Big Data Competition 2014 The challenge: Very large size of the training set Does not fit all together in memory. Even large for the test set (5.1GB, 2.9 million instances) Relatively high dimensional data. Low ratio (<2%) of true contacts. Imbalance rate: > 49 Unbalanced problem! --- - - - - - - - - - - - - - - + + + + +

Algunas aplicaciones Our approach: ECBDL 14 Big Data Competition 2014 1. Balance the original training data Random Oversampling (As first idea, it was extended) 2. Detect relevant features. 1. Evolutionary Feature Weighting 3. Learning a model. Random Forest Classifiying test set.

Algunas aplicaciones ECBDL 14 Big Data Competition 2014 Results of the competition: Contact map prediction Team Name TPR TNR Acc TPR TNR Efdamis 0.730432 0.730183 0.730188 0.533349 ICOS 0.703210 0.730155 0.729703 0.513452 UNSW 0.699159 0.727631 0.727153 0.508730 HyperEns 0.640027 0.763378 0.761308 0.488583 PUC-Rio_ICA 0.657092 0.714599 0.713634 0.469558 Test2 0.632009 0.735545 0.733808 0.464871 EmeraldLogic 0.686926 0.669737 0.670025 0.460059 LidiaGroup 0.653042 0.695753 0.695036 0.454356 EFDAMIS team ranked first in the ECBDL 14 big data competition

Algunas aplicaciones ECBDL 14 Big Data Competition

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 5. Deep Learning 6. Algunas Aplicaciones 7. Diseño de Algoritmos para Big Data

Índice Casos de estudio de aprendizaje no supervisado Casos de estudio de clasificación Casos de estudio de clasificación no balanceada Preprocesamiento de datos en Big Data

Aprendizaje no supervisado Mahout MLlib 169

Aprendizaje no supervisado Mahout: K-means clustering 170

Aprendizaje no supervisado Mahout: K-means clustering 171

Aprendizaje no supervisado Mahout: K-means clustering 172

Aprendizaje no supervisado Mahout: K-means clustering 173

Aprendizaje no supervisado 174

Aprendizaje no supervisado MLlib: K-means clustering 175

Aprendizaje no supervisado MLlib: FP-growth Mllib implements a parallel version of FP-growth called PFP, as described in Li et al., PFP: Parallel FP-growth for query recommendation. RecSys 08 Proceedings of the 2008 ACM conference on Recommender systems Pages 107-114 PFP distributes the work of growing FP-trees based on the suffices of transactions, and hence more scalable than a single-machine implementation. 176

Índice Casos de estudio de aprendizaje no supervisado Casos de estudio de clasificación Casos de estudio de clasificación no balanceada Preprocesamiento de datos en Big Data

Clasificación Mahout MLlib 178

Clasificación: RF Caso de estudio: Random Forest para KddCup99 179

Clasificación: RF Caso de estudio: Random Forest para KddCup99 Implementación RF Mahout Partial: Es un algoritmo que genera varios árboles de diferentes partes de los datos (maps). Dos fases: Fase de Construcción 180

Clasificación: RF Caso de estudio: Random Forest para KddCup99 181

Clasificación: RF Caso de estudio: Random Forest para KddCup99 Implementación RF Mahout Partial: Es un algoritmo que genera varios árboles de diferentes partes de los datos (maps). Dos fases: Fase de Clasificación 182

Clasificación: RF Caso de estudio: Random Forest para KddCup99 Class Instance Number normal 972.781 DOS 3.883.370 PRB 41.102 R2L 1.126 U2R 52 Tiempo en segundos para ejecución secuencial Cluster ATLAS: 16 nodos -Microprocessors: 2 x Intel E5-2620 (6 cores/12 183

Clasificación: RF Caso de estudio: Random Forest para KddCup99 Class Instance Number normal 972.781 DOS 3.883.370 PRB 41.102 R2L 1.126 U2R 52 Tiempo en segundos para Big Da con 20 Bloques (Maps) Cluster ATLAS: 16 nodos -Microprocessors: 2 x Intel E5-2620 (6 cores/12 184

Clasificación: Generación Prototipos A Combined MapReduce-Windowing Two-Level Parallel Scheme for Evolutionary Prototype Generation I. Triguero, D. Peralta, J. Bacardit, S.García, F. Herrera. A Combined MapReduce-Windowing Two-Level Parallel Scheme for Evolutionary Prototype Generation. IEEE CEC Conference, 2014. I. Triguero

Clasificación: Generación Prototipos Prototype Generation: properties The NN classifier is one of the most used algorithms in machine learning. Prototype Generation (PG) processes learn new representative examples if needed. It results in more accurate results. Advantages: PG reduces the computational costs and high storage requirements of NN. Evolutionary PG algorithms highlighted as the best performing approaches. Main issues: Dealing with big data becomes impractical in terms of Runtime and Memory consumption. Especially for EPG. I. Triguero

Clasificación: Generación Prototipos Evolutionary Prototype Generation Evolutionary PG algorithms are typically based on adjustment of the positioning of the prototypes. Each individual encodes a single prototype or a complete generated set with real codification. The fitness function is computed as the classification performance in the training set using the Generated Set. Currently, best performing approaches use differential evolution. I. Triguero, S. García, F. Herrera, IPADE: Iterative Prototype Adjustment for Nearest Neighbor Classification. IEEE Transactions on Neural Networks 21 (12) (2010) 1984-1990 More information about Prototype Reduction can be found in the SCI2S thematic website: http://sci2s.ugr.es/pr I. Triguero

Clasificación: Generación Prototipos Parallelizing PG with MapReduce Map phase: Each map constitutes a subset of the original training data. It applies a Prototype Generation step. For evalution, it use Windowing: Incremental Learning with Alternating Strata (ILAS) As output, it returns a Generated Set of prototypes. Reduce phase: We established a single reducer. It consists of an iterative aggregation of all the resulting generated sets. As output, it returns the final Generated Set. I. Triguero

Clasificación: Generación Prototipos Parallelizing PG with MapReduce The key of a MapReduce data partitioning approach is usually on the reduce phase. Two alternative reducers: Join: Concatenates all the resulting generated sets. This process does not guarantee that the final generated set does not contain irrelevant or even harmful instances Fusion: This variant eliminates redundant prototypes by fusion of prototypes. Centroid-based PG methods: ICPL2 (Lam et al). W. Lam et al, Discovering useful concept prototypes for classification based on filtering and abstraction. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 14, no. 8, pp. 1075-1090, 2002 I. Triguero

Clasificación: Generación Prototipos Windowing: Incremental Learning with Alternating Strata (ILAS) Training set is divided into strata, each iteration just uses one of the stratum. Training set 0 Ex/n 2 Ex/n 3 Ex/n Ex Iterations 0 Iter Main properties: Avoids a (potentially biased) static prototype selection This mechanism also introduces some generalization pressure J. Bacardit et al, Speeding-up pittsburgh learning classifier systems: Modeling time and accuracy In Parallel Problem Solving from Nature - PPSN VIII, ser. LNCS, vol. 3242, 2004, pp. 1021 1031 I. Triguero

Clasificación: Generación Prototipos The MRW-EPG scheme Windowing: Incremental Learning with Alternating Strata (ILAS) I. Triguero

Clasificación: Generación Prototipos Experimental Study PokerHand data set. 1 million of instances, 3x5 fcv. Performance measures: Accuracy, reduction rate, runtime, test classification time and speed up. PG technique tested: IPADECS. I. Triguero

Clasificación: Generación Prototipos Results PokerHand: Accuracy Test vs. Runtime results obtained by MRW-EPG I. Triguero

Clasificación: Generación Prototipos Results I. Triguero

Clasificación: Generación Prototipos Results: Speed-up I. Triguero

Clasificación: Generación Prototipos EPG for Big Data: Final Comments There is a good synergy between the windowing and MapReduce approaches. They complement themselves in the proposed twolevel scheme. Without windowing, evolutionary prototype generation could not be applied to data sets larger than approximately ten thousands instances The application of this model has resulted in a very big reduction of storage requirements and classification time for the NN rule. I. Triguero

Clasificación: Generación Prototipos EPG for Big Data: Final Comments Complete study: I. Triguero, D. Peralta, J. Bacardit, S. García, F. Herrera. MRPR: A MapReduce solution for prototype reduction in big data classification. Neurocomputing 150 (2015) 331 345. ENN algorithm for Filtering

Fig. 6 Average runtime obtained by MRPR. (a) PokerHand Complete study: I. Triguero, D. Peralta, J. Bacardit, S. García, F. Herrera. MRPR: A MapReduce solution for Clasificación: Generación Prototipos EPG for Big Data: Final Comments

Clasificación: Boosting Referencia: I. Palit, C. Chandan, K. Reddy. Scalable and Parallel Boosting with MapReduce. IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING, VOL. 24, NO. 10, OCTOBER 2012, 1904-1915.

Índice Casos de estudio de aprendizaje no supervisado Casos de estudio de clasificación Casos de estudio de clasificación no balanceada Preprocesamiento de datos en Big Data

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S del Río, V López, JM Benítez, F Herrera On the use of MapReduce for S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada S. del Río

Clasificación no balanceada Analysis of the sequential versions when the size of the data available is increased S. del Río

Clasificación no balanceada Analysis of the effectiveness in classification of the approaches (Potential problem: lack of density of the positive class for RUS/SMOTE) S. del Río

Clasificación no balanceada Average number of positive instances by mapper for kddcup DOS vs PRB (Potential problem: lack of density of the positive class) S. del Río

Clasificación no balanceada Coments It is needed to determine the threshold for the minority class with respect to the number of mappers in order to find the best configuration that provides a better performance and lesser response time. Considering the results of the SMOTE algorithm, is necessary to design new techniques that are able to generate synthetic data that represent the minority class instances in the best way. It is necessary to analyse some data intrinsic characteristics that interact with this issue aggravating the problem in order to increase the performance with imbalanced big data (e.g., presence of noisy, the small sample size problem or the dataset shift problem). S. del Río

Clasificación no balanceada: Caso de estudio Source of dataset: Protein Structure Prediction (PSP) aims to predict the 3D structure of a protein based on its primary sequence Primary Sequence 3D Structure J. Bacardit et al, Contact map prediction using a large-scale ensemble of rule sets and the fusion of multiple predicted structural features, Bioinformatics 28 (19) (2012) 2441-2448

Clasificación no balanceada: Caso de estudio Contact Map dataset A diverse set of 3262 proteins with known structure were selected 90% of this set was used for training 10% for test Instances were generated for pairs of AAs at least 6 positions apart in the chain (avoiding trivial contacts) The resulting training set contained 32 million pairs of AA and 631 attributes Less than 2% of those are actual contacts +60GB of disk space Test set of 2.89M instances Data files available at http://cruncher.ncl.ac.uk/bdcomp/index.pl?action=data

Evolutionary Computation for Big Data and Big Learning Workshop ECBDL 14 Big Data Competition 2014: Self-deployment track Objective: Contact map prediction Details: 32 million instances 631 attributes (539 real & 92 nominal values) 2 classes 98% of negative examples About 56.7GB of disk space Evaluation: True positive rate True negative rate TPR TNR http://cruncher.ncl.ac.uk/bdcomp/index.pl?action=data J. Bacardit et al, Contact map prediction using a large-scale ensemble of rule sets and the fusion of multiple predicted structural features, Bioinformatics 28 (19) (2012) 2441-2448

Evolutionary Computation for Big Data and Big Learning Workshop ECBDL 14 Big Data Competition 2014: Self-deployment track The challenge: Very large size of the training set Does not fit all together in memory. Even large for the test set (5.1GB, 2.9 million instances) Relatively high dimensional data. Low ratio (<2%) of true contacts. Imbalance rate: > 49 Imbalanced problem! --- - - - - - - - - - - - - - - + + + + +

ECBDL 14 Big Data Competition Strategies to deal with imbalanced data sets: Data level vs algorithm level Over-Sampling Random Focused Retain influential examples Balance the training set Under-Sampling Random Focused Remove noisy instances in the decision boundaries Reduce the training set Cost Modifying (cost-sensitive) Algorithm-level approaches: A commont strategy to deal with the class imbalance is to choose an appropriate inductive bias. Boosting approaches: ensemble learning, AdaBoost, 220

ECBDL 14 Big Data Competition A MapReduce Approach 32 million instances, 98% of negative examples Low ratio of true contacts (<2%). Imbalance rate: > 49. Imbalanced problem! Previous study on extremely imbalanced big data: S. Río, V. López, J.M. Benítez, F. Herrera, On the use of MapReduce for Imbalanced Big Data using Random Forest. Information Sciences 285 (2014) 112-137. Over-Sampling Random Focused Under-Sampling Random Focused Cost Modifying (cost-sensitive) Boosting/Bagging approaches (with preprocessing)

ECBDL 14 Big Data Competition Our approach: ECBDL 14 Big Data Competition 2014 1. Balance the original training data Random Oversampling (As first idea, it was extended) 2. Learning a model. Random Forest 3. Detect relevant features. 1. Evolutionary Feature Weighting Classifying test set.

ECBDL 14 Big Data Competition A MapReduce Approach for Random Oversampling Low ratio of true contacts (<2%). Imbalance rate: > 49. Imbalanced problem! Initial Map ROS-M-data 1 ROS-R-data 1 Reduce ROS-M-data 2 ROS-R-data 2 ROS-data Original dataset Final dataset ROS-M-data n ROS-R-data n Maps set S. Río, V. López, J.M. Benítez, F. Herrera, On the use of MapReduce for Imbalanced Big Data using Random Forest. Information Sciences, 2014.

ECBDL 14 Big Data Competition A MapReduce Approach for Random Oversampling

Predicted class ECBDL 14 Big Data Competition Building a model with Random Forest Bootstrap sample Building Random trees Majority Voting Select m variables at random for each node decision Compute best split using the m variables as CART Training dataset Fully grow the trees and do not prune them

ECBDL 14 Big Data Competition We initially focused on Oversampling rate: 100% RandomForest: Number of used features: 10 (log n +1); Number of trees: 100 Number of maps: {64, 190, 1024, 2048} TNR*TPR Nº mappers TPR_tst TNR_tst Test 64 0,601723 0,806269 0,485151 How to increase the TPR rate? Very low TPR (relevant!) Idea: To increase the ROS percentaje

ECBDL 14 Big Data Competition How to increase the TPR rate? Idea: To increase the ROS percentaje Oversampling rate: {100, 105, 110, 115, 130} RandomForest: Number of used features:10; Number of trees: 100 Algorithms TPR TNR TNR*TPR Test ROS+RF (RS: 100%) 0.6351 0.7733 0.491186 ROS+RF (RS: 105%) 0.6568 0.7555 0.496286 ROS+RF (RS: 110%) 0.6759 0.7337 0.495941 ROS+RF (RS: 115%) 0.7041 0.7103 0.500175 ROS+RF (RS: 130%) 0.7472 0.6609 0.493913 The higher ROS percentage, the higher TPR and the lower TNR

ECBDL 14 Big Data Competition How to increase the performance? Third component: MapReduce Approach for Feature Weighting for getting a major performance over classes Map Side Each map read one block from dataset. Perform an Evolutionary Feature Weighting step. Output: a real vector that represents the degree of importance of each feature. Number of maps: 32768 (less than 1000 original data per map) Reduce Side Aggregate the feature s weights A feature is finally selected if it overcomes a given threshold. Output: a binary vector that represents the final selection I. Triguero, J. Derrac, S. García, F. Herrera, Integrating a Differential Evolution Feature Weighting scheme into Prototype Generation. Neurocomputing 97 (2012) 332-343

ECBDL 14 Big Data Competition

ECBDL 14 Big Data Competition Evolutionary Feature Weighting. It allows us to construct several subset of features (changing the threshold). 64 mappers Algorithms TNR*TPR TNR*TPR Training TPR TNR Test ROS+RF (130% - Feature Weighting 63) 0.726350 0.66949 0.775652 0.519292 ROS+RF (115% - Feature Weighting 63) 0.736596 0.652692 0.790822 0.516163 ROS+RF (100% - Feature Weighting 63) 0.752824 0.626190 0.811176 0.507950

ECBDL 14 Big Data Competition We decided to investigate: a) On the Random Forest: the influence of the Random Forest s parameters (internal features and number of trees) b) Higher number of features (90) and ROS with 140% 190 mappers Algorithms TNR*TPR TNR*TPR Training TPR TNR Test ROS+ RF (130%+ FW 63+6f+100t) 0.604687 0.698152 0.742462 0.518351 ROS+ RF (130%+ FW 63+6f+200t) 0.632078 0.700064 0.745225 0.521705 ROS+ RF (140%+ FW 63+15f+200t) 0.627409 0.719678 0.728912 0.524582 ROS+ RF (140%+ FW 90+15f+200t) 0.635855 0.722639 0.726397 0.524923 ROS+ RF (140%+ FW 90+25f+200t) 0.629273 0.721652 0.729740 0.526618 Correct decisions with FW 90 and RF with 25f and 200 trees. Good trade off between TPR and TNR

ECBDL 14 Big Data Competition The less number of maps, the less TPR and the high TNR Algorithms 190 mappers TNR*TPR Training TPR TNR 64 mappers TNR*TPR Test ROS+ RF (140%+ FW 90+25f+200t) 0.629273 0.721652 0.729740 0.526618 Algorithms TNR*TPR Training TPR TNR TNR*TPR Test ROS+ RF (130%+ FW 90+25f+200t) 0.736987 0.671279 0.783911 0.526223 ROS+ RF (140%+ FW 90+25f+200t) 0.717048 0.695109 0.763951 0.531029 64 mappers and we got 0.53 ROS 130 65 (140 68) replications of the minority instances

ECBDL 14 Big Data Competition Current state: Our knowledge: Good configuration: FW 90 and RF with 25 f + 200t The higher ROS percentage, the higher TPR and the lower TNR The less number of maps, the less TPR and the high TNR and high accuracy. 4 days to finish the competion: 64 mappers Algorithms TNR*TPR Training TPR TNR TNR*TPR Test ROS+ RF (140%+ FW 90+25f+200t) 0.717048 0.695109 0.763951 0.531029 Can we take decisions for improving the model?

ECBDL 14 Big Data Competition Last decision: We investigated to increase ROS until 180% with 64 mappers 64 mappers Algorithms TNR*TPR Training TPR TNR TNR*TPR Test ROS+ RF (130%+ FW 90+25f+200t) 0.736987 0.671279 0.783911 0.526223 ROS+ RF (140%+ FW 90+25f+200t) 0.717048 0.695109 0.763951 0.531029 ROS+ RF (150%+ FW 90+25f+200t) 0.706934 0.705882 0.753625 0.531971 ROS+ RF (160%+ FW 90+25f+200t) 0,698769 0.718692 0.741976 0.533252 ROS+ RF (170%+ FW 90+25f+200t) 0.682910 0.730432 0.730183 0.533349 ROS+ RF (180%+ FW 90+25f+200t) 0,678986 0.737381 0.722583 0.532819 To increase ROS and reduce the mappers number lead us to get a tradeoff with good results ROS 170 85 replications of the minority instances

ECBDL 14 Big Data Competition ROS 170 85 replications of the minority instances Experiments with 64 maps

ECBDL 14 Big Data Competition Evolutionary Computation for Big Data and Big Learning Workshop Results of the competition: Contact map prediction Team Name TPR TNR Acc TPR TNR Efdamis 0.730432 0.730183 0.730188 0.533349 ICOS 0.703210 0.730155 0.729703 0.513452 UNSW 0.699159 0.727631 0.727153 0.508730 HyperEns 0.640027 0.763378 0.761308 0.488583 PUC-Rio_ICA 0.657092 0.714599 0.713634 0.469558 Test2 0.632009 0.735545 0.733808 0.464871 EmeraldLogic 0.686926 0.669737 0.670025 0.460059 EFDAMIS team ranked first in the ECBDL 14 big data competition LidiaGroup 0.653042 0.695753 0.695036 0.454356

ECBDL 14 Big Data Competition Evolutionary Computation for Big Data and Big Learning Workshop Results of the competition: Contact map prediction Team Name TPR TNR Acc TPR TNR Efdamis 0.730432 0.730183 0.730188 0.533349 ICOS 0.703210 0.730155 0.729703 0.513452 UNSW 0.699159 0.727631 0.727153 0.508730 Algorithms 64 mappers TNR*TPR Training TPR TNR TNR*TPR Test ROS+RF (130% - Feature Weighting 63) 0.726350 0.66949 0.7756520.519292 ROS+RF (115% - Feature Weighting 63) 0.7365960.652692 0.7908220.516163 ROS+RF (100% - Feature Weighting 63) 0.7528240.626190 0.8111760.507950 To increase ROS and to use Evolutionary feature weighting were two good decisions for getting the first position

ECBDL 14 Big Data Competition Our algorithm: ROSEFW-RF

ECBDL 14 Big Data Competition At the beginning ROS+RF (RS: 100%) TNR*TPR Nº mappers TPR_tst TNR_tst Test 64 0,601723 0,806269 0,485151 At the end 64 mappers Algorithms TNR*TPR Training TPR TNR TNR*TPR Test ROS+ RF (160%+ FW 90+25f+200t) 0,698769 0.718692 0.741976 0.533252 ROS+ RF (170%+ FW 90+25f+200t) 0.682910 0.730432 0.730183 0.533349 ROS+ RF (180%+ FW 90+25f+200t) 0,678986 0.737381 0.722583 0.532819

ECBDL 14 Big Data Competition Timeline (364 predictions)

ECBDL 14 Big Data Competition Team Name Efdamis ICOS UNSW Learning strategy Oversampling+FS+Random Forest Oversampling+Ensemble of Rule sets Ensemble of Deep Learning classifiers Computational Infrastructure MapReduce Batch HPC Parallel HPC HyperEns SVM Parallel HPC PUC-Rio_ICA Linear GP GPUs EmeraldLogic ~Linear GP GPUs LidiaGroup 1-layer NN Spark??

ECBDL 14 Big Data Competition

Índice Casos de estudio de aprendizaje no supervisado Casos de estudio de clasificación Casos de estudio de clasificación no balanceada Preprocesamiento de datos en Big Data

Preprocesamiento de datos en Big Bata Hay muy pocos algoritmos de preprocesamiento de da Las posibilidades de algoritmos muy grandes: S. García, J. Luengo, F. Herrera Data Preprocessing in Data Mining Springer, Enero 2015

Preprocesamiento de datos en Big Bata ChiSqSelector ChiSqSelector stands for Chi-Squared feature selection. It operates on labeled data with categorical features. ChiSqSelector orders features based on a Chi-Squared test of independence from the class, and then filters (selects) the top features which are most closely related to the label. Model Fitting ChiSqSelector has the following parameters in the constructor: numtopfeatures number of top features that the selector will select (filter).

Preprocesamiento de datos en Big Bata 2 propuestas recientes: (Journal submission)

Preprocesamiento de datos en Big Bata 2 propuestas recientes: (BigDataSE2015 submission)

Sistemas Inteligentes para la Gestión de la Empresa TEMA 6. Big Data 1. Introducción a Big data 2. Paradigma MapReduce 3. Plataforma Apache Spark 4. Aprendizaje automático en Big Data. Bibliotecas y Algoritmos 5. Deep Learning 6. Algunas Aplicaciones 7. Diseño de Algoritmos para Big Data

Comentarios Finales Machine learning: Huge collection of algorithms Big data: A small subset of algorithms Para el diseño y/o adaptación de cualquier algoritmo es necesario diseñar de forma adecuada una fase de fusión de información por cuanto siempre será necesario utilizar funciones Map y Reduce cuando la base de datos sea muy grande. Igualmente los procedimientos iterativos requieren de un diseño adecuado para optimizar la eficiencia. Todavía se está en una fase muy temprana de diseño de algoritmos de aprendizaje automático para big data. El preprocesamiento de datos es esencial para mejorar el comportamiento de los algoritmos de aprendizaje. El diseño de estos algoritmos para big data está en una fase muy incipiente.

Comentarios Finales http://elpais.com/elpais/2015/03/26/buenavida/1427382655_646798.html 250