HADOOP LIVE. 12 de diciembre de 2017
|
|
- Milagros García Rey
- hace 5 años
- Vistas:
Transcripción
1 HADOOP LIVE 12 de diciembre de 2017
2 Presentación Jesús Javier Moralo García Bioinformático por la UAM & CSIC Máster Big Data & Analytics de Datahack Gestión, Análisis e Integración de Datos Global Biodiversity Information Facility ( Proyecto de Integración de Colecciones de Historia Natural ( Plataforma Europea de Cibertaxonomía ( Dirección de equipos Técnicos Data & IA Creative en datahack Diseño y Desarrollo de Bots Proyectos en Big Data &
3 QUÉ ES BIG DATA?
4 Cada día generamos más datos Transacciones financieras Redes de sensores Logs de servidores y aplicaciones Redes sociales y más rápido: Automatización Acceso a Internet universal Contenido generado por los usuarios
5 Hay valor en estos datos? Diseño e implementación de procesos para extracción de información Incrementar el conocimiento del cliente final Poder de decisión a los usuarios del negocio: medir las acciones y resultado Ahorrar grandes cantidades de dinero Abrir nuevas oportunidades de negocios
6 PROBLEMAS Las Tres Vs
7 PROBLEMAS - Volumen Almacenamiento de los datos: Generamos muchos más datos que nunca Dónde metemos toda esa información? El coste de almacenamiento ha ido bajando Año Capacidad (GB) Coste por GB (USD) $ $ $ (Cloud) $0.03 / $0.01
8 PROBLEMAS - Velocidad Acceso a los datos: Para poder procesar un dato, primero hay que leerlo La velocidad de lectura ha ido aumentando, pero no al mismo ritmo que la capacidad de almacenamiento Año Capacidad (GB) Transferencia (MB/s) Tiempo lectura disco segundos hora horas Hecho que puede afectar a los negocios: Tiempos de respuesta a posibles compradores web Obtención de resultados para toma de decisiones en bolsa
9 PROBLEMAS - Variedad Hay muchos tipos de datos que almacenar:
10 COMPUTACIÓN CENTRALIZADA Tradicionalmente las cargas de trabajo han estado limitadas por la CPU Durante décadas, el objetivo ha sido producir máquinas más potentes: CPUs + rápidas y + RAM Sin embargo, esto presenta ciertos problemas de escalabilidad ( y coste!)
11 COMPUTACIÓN DISTRIBUIDA Crecer de forma horizontal, añadiendo más nodos con capacidad similar Arquitectura tradicional: Nodos con gran capacidad de proceso (CPUs, ocasionalmente GPUs) Almacenamiento centralizado (cabinas NAS o SAN) La transferencia de datos se hace a través de la red Redes de alta velocidad (Gigabit Ethernet, Fibre Channel, Infiniband) I. Copiar datos del almacenamiento central al nodo de cómputo II. III. Procesar los datos Copiar el resultado al almacenamiento central Bien con pequeñas cantidades de datos
12 COMPUTACIÓN DISTRIBUIDA - PROBLEMAS Este flujo de trabajo no escala bien cuando hay muchos datos: Se invierte mucho tiempo en copiar de un lado a otro Empeora si se añaden nodos, compiten por el ancho de banda Los procesadores se quedan a la espera
13 SE NECESITAN SISTEMAS Orientados a los datos para afrontar las cargas actuales Resistentes a fallos (robustos) Deben escalar en horizontal y: Los nuevos nodos debe suponer un aumento de la capacidad No debe haber competencia por los recursos La ejecución de unos trabajos no deben afectar al resultado de otros
14 HADOOP The New Hero
15 HISTORIA DE HADOOP Hadoop surge en 2002 como un proyecto de Apache para mejorar Nutch, un buscador web de código libre Dos publicaciones de Google tienen un importante impacto: Google Filesystem (2003) MapReduce (2004) El proyecto Nutch se modifica radicalmente (2005) y finalmente Hadoop se constituye como un proyecto aparte dentro de Apache (2008) Yahoo! y Facebook son sus primeros usuarios importantes Hadoop genera sus propios subproyectos: Pig, Hive, HBase (2010) En 2013 se publica Hadoop 2.2 (versión GA de Hadoop 2.x)
16 QUÉ ES HADOOP? Framework de procesamiento distribuido Tiene dos componentes principales: HDFS (almacenamiento) MapReduce (procesamiento) Mayoritariamente desarrollado en Java, pero también Scala y C++ Existen numerosas herramientas para realizar diferentes tareas: Filosofía UNIX => Haz sólo una cosa y hazla bien Muchos son proyectos de código libre Componen el llamado ecosistema de Hadoop
17 HDFS Los ficheros son divididos en bloques, replicados tres veces y distribuidos en tres máquinas diferentes (seguridad y eficiencia)
18 MapReduce Método de procesamiento en paralelo que se hace sobre los múltiples nodos de un clúster Así, partiendo de un fichero que está troceado en splits de datos, se hace un procesado en paralelo (nodos) de los mismos y se unen al final
19 SOLUCIONES QUE APORTA HADOOP - I Problema: Ancho de banda es finito y los nodos compiten por él Solución: Almacenar el dato donde sea procesado Localidad del dato (data locallity) Se omite la separación entre almacenamiento y proceso, los nodos hacen las dos cosas Problema: La lectura de disco es lenta Solución: Usar varios discos en paralelo Un disco de 3TB tarda 4 horas en leerse 1000 discos en paralelo leen esa información en menos de 15 seg Cada nodo puede tener varios discos, no hacen falta 1000 nodos
20 SOLUCIONES QUE APORTA HADOOP - II Problema: La programación distribuía es complicada Solución: Usar un modelo sencillo (MapReduce) Se lee un registro cada vez Se abstraen las complejidades subyacentes Problema: El hardware distribuido es caro Solución: Usar componentes más baratos de forma distribuida Discos duros SATA Ethernet con cableado UTP
21 BENEFICIOS DEL ANÁLISIS CON HADOOP Análisis que anteriormente eran imposibles o poco prácticos Menores costes Menor tiempo Mayor flexibilidad Escalabilidad casi linear Consultas más grandes / complejas
22 El Ecosistema de Hadoop
23 ECOSISTEMA HADOOP
24 FLUME Recopila y agrega datos de casi cualquier fuente a un almacén persistente, como HDFS Su unidad base es el Agente (proceso Java), tiene 3 componentes: Source: Recopila los datos de una fuente Canal: Agrupa los datos Sink: Los escribe en un almacén persistente
25 SQOOP Herramienta para obtener datos de fuentes estructuradas BBDD relacionales Data Warehouses NoSQL Otras características: Carga los datos en Hive y Hbase Se integra con Oozie (BATCH)
26 PIG Es una herramienta de ETL (Extract, Transform and Load) Su nombre viene de la analogía de que al igual que los cerdos comen de todo, Pig esta pensado para poder trabajar en cualquier tipo de dato. Permite la abstracción del MapReduce, los usuarios pueden trabajar con los datos del clúster Hadoop sin tener conocimientos de programación MapReduce Usa el lenguaje Pig Latin (similar a PERL) El interprete de Pig convierte los scripts de Pig Latin en jobs de MapReduce
27 HIVE Herramienta para consultar datos residentes en un clúster de Hadoop Los usuarios consultar los almacenados en un clúster Hadoop sin tener que necesitar tener conocimientos de programación MapReduce (Abstracción MapReduce) Usa el lenguaje HiveQL, muy similar a SQL Almacena los metadatos en un pequeña BDR El interprete convierte las queries HiveQL en jobs de MapReduce Permite el particionamiento de tablas, clustering, tipos de datos complejos y algunas optimizaciones
28 IMPALA Creado por Cloudera en 2012 Permite hacer consulta de datos, usa la sintaxis de Hive (HiveQL) Usa MPP (massively parallel processing) y no MapReduce Tiene Baja latencia Al ser MPP da una baja latencia Funciona muy bien para mejorar el acceso a los datos vía web Los datos se almacenan en HDFS Consume más RAM Soporta Kerberos Compatible con ODBC (herramientas de BI)
29 OOZIE Programador de tareas de Hadoop Se integra con: Scripts Comandos Shell ETL Tools Clientes como Hive, Sqoop, etc Características: Es intuitivo Permite contextualizar flujos Se puede integrar con HUE Objetos reutilizar flujos
30 Welcome to the Safari!!! CLIENTE Python R Spark MLlib Spark SQL SparkR HUE Oozie Sentry Pig Hive Impala HDFS Sqoop Flume Cloudera Manager HADOOP BBDDs Otros
31 Distribuciones Hadoop
32 Distribuciones On Premise
33 Distribuciones en Cloud Amazon Elastic Map Reduce Azure HD Insight IBM BigInsights Google Cloud Dataproc
34 Clúster Hadoop de datahack El clúster Hadoop de datahack esta formado por siete máquinas: 2 NameNode (NN1 y NN2) 4 DataNodes (DN1, DN2, DN3 y DN4) 1 Gestor de Cloudera Manager (CDM1) El acceso al mismo desde internet se hace a través de una máquina brigde (Caronte) a la que está redireccionado el tráfico del puerto 22 (SSH) del router que gestiona el acceso desde internet CDM1 DN1 DN2 datahack Caronte NN1 NN2 DN3 DN4
35 CLOUDERA MANAGER Interfaz de Administración del Clúster
36 HUE Interfaz web para la consulta y visualización de datos Herramienta de usuario, no de administración Está escrito en Python Es extensible, se pueden añadir módulos propios Compatible con Kerberos Integrable con servidores web existentes, con fines de alta disponibilidad
37 Más Información en:
38 Gracias por vuestra atención!
CURSO: DESARROLLADOR PARA APACHE HADOOP
CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 2: INTRODUCCIÓN A HADOOP www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Qué es Hadoop? 3 Historia de Hadoop 4 Por qué utilizar Hadoop? 5 Core Hadoop
Más detallesBig Data Analytics & IBM BIG INSIGHT
Big Data Analytics & IBM BIG INSIGHT En la actualidad se generan grandes volumenes de datos de diversos tipos, a gran velocidad y con diferentes frecuencias. Las tecnologıas disponibles permiten efectuar
Más detallesBIG DATA: Una mirada tecnológica
BIG DATA: Una mirada tecnológica Dr. Rubén Casado ruben.casado@treelogic.com @ruben_casado AGENDA 1. Qué y cómo es Big Data? 2. Batch processing 3. Real-time processing 4. Hybrid computation model 5. Casos
Más detallesMÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING. Master
MÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING Master MÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING MBD_MÓDULO 1: FUNDAMENTOS DE BIG DATA 1. Qué es Big Data y qué no es Big Data 2. Business Intelligence
Más detallesANALÍTICA DE BIG DATA (BDA)
ANALÍTICA DE BIG DATA (BDA) Tendencias Retos Oportunidades Fabián García Nocetti IIMAS-UNAM CAACFMI-UNAM AMIAC Ciencia de Datos y Big Data Analítica de Big Data (BDA) Aplicaciones Arquitectura General
Más detallesArancha Pintado. Perfiles Big Data. www.madridschoolofmarketing.es
Arancha Pintado Perfiles Big Data www.madridschoolofmarketing.es De dónde venimos? De dónde venimos? Cuál es la diferencia? Si se supiera cómo tratar esa información, cómo "sacarle el jugo", eso proporcionaría
Más detalleswww.consultec.es Introducción a Big Data
Introducción a Big Data Quiénes somos? Gorka Armen+a Developer garmen+a@consultec.es @joruus Iñaki Elcoro Developer ielcoro@consultec.es @iceoverflow Índice 1. Introducción 2. Qué no es Big Data? 3. Qué
Más detallesDESARROLLO APLICACIONES BUSINESS INTELLIGENCE CON MS SQL SERVER Big Data
DESARROLLO APLICACIONES BUSINESS INTELLIGENCE CON MS SQL SERVER 2016 + Big Data DESCRIPCIÓN Este curso está orientado a brindar a los alumnos los fundamentos necesarios en el campo del Business Intelligence
Más detallesAsumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio
Asumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio 1 Agenda Big data y NAS de escalamiento horizontal EMC Isilon La promesa
Más detallesMitos y Realidades del Big Data -Introducción al Big Data-
Jornada: Mitos y Realidades del Big Data -Introducción al Big Data- Urko Zurutuza Dpto. Electrónica e Informática Mondragon Goi Eskola Politeknikoa JMA Mondragon Unibertsitatea Agenda Introducción al Big
Más detallesTabla de Contenido. iii
Tabla de Contenido 1. Introducción... 1 1.1. Contexto... 1 1.2. Oportunidad de mejora... 2 1.3. Objetivos de la tesis... 3 1.4. Propuesta de solución... 3 2. Marco teórico... 4 2.1. Big Data... 4 2.1.1.
Más detallesCURSO DE APACHE SPARK_
DURACIÓN: 72 HORAS Apache Spark es un motor de procesamiento distribuido construido para aumentar la velocidad de procesamiento de grandes cantidades de datos añadiendo facilidad de uso y un análisis sofisticado.
Más detallesIFCT0109_SEGURIDAD INFORMÁTICA (RD 686/2011, de 13 de mayo modificado por el RD 628/2013, de 2 de agosto)
El programa formativo adjunto incluye el certificado de profesionalidad IFCT0109 Seguridad Informática, la Especialización IFCT24 Analista de Datos Big Data Cloudera Apache Hadoop y el módulo de prácticas
Más detallesPROGRAMA FORMATIVO: ANALISTA DE DATOS BIG DATA CLOUDERA
PROGRAMA FORMATIVO: ANALISTA DE DATOS BIG DATA CLOUDERA Julio 2017 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES Área Profesional: SISTEMAS Y TELEMÁTICA 2. Denominación:
Más detallesMÁster en Data Science y Arquitectura Big Data_ DURACIÓN: 248 HORAS
MÁster en Data Science y Arquitectura Big Data_ DURACIÓN: 248 HORAS MÁster en Data Science y Arquitectura Big Data_ El Máster en Data Science y Arquitectura Big Data ha sido diseñado para formar al alumno
Más detallesAcelerando la innovación con Apache Spark. Ricardo Barranco Fragoso IBM Big Data & Analytics Specialist
Acelerando la innovación con Apache Ricardo Barranco Fragoso Big Data & Analytics Specialist rbarran@mx1.ibm.com México Big Data y la Ciencia de Datos Entonces, la Ciencia de Datos es...? Es realmente
Más detallesMÁSTER: MÁSTER BIG DATA ANALYTICS
MÁSTER: MÁSTER BIG DATA ANALYTICS Información detallada del máster www.formacionhadoop.com El máster online Big Data Analytics de 190 horas tiene como objetivo formar a profesionales expertos en Big Data
Más detallesBig Data. The Big Picture
1 Big Data The Big Picture Recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y descubrimiento de información útil para la toma de decisiones.
Más detallesThe H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql
The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en
Más detallesBig Data. The Big Picture
1 Big Data The Big Picture Recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y descubrimiento de información útil para la toma de decisiones.
Más detallesCURSO ONLINE: ARQUITECTURAS BIG DATA
CURSO ONLINE: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com Este curso online de 70 horas está enfocado a técnicos que quieran conocer las herramientas más importantes
Más detallesDiplomado en Gestión de Grandes Volúmenes de Datos (Big Data)
Diplomado en Gestión de Grandes Volúmenes de Datos (Big Data) 16 semanas "Big Data" es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados
Más detallesMÁSTER: MÁSTER EXPERTO EN BIG DATA
MÁSTER: MÁSTER EXPERTO EN BIG DATA Información detallada del máster www.formacionhadoop.com El máster online de 150 horas está enfocado a los ingenieros que quieran aprender la arquitectura de un clúster
Más detallesLaguna de datos en acción: Análisis de loop cerrado y en tiempo real de Hadoop
Laguna de datos en acción: Análisis de loop cerrado y en tiempo real de Hadoop 1 Enfoque completo de Pivotal Es más que solo Hadoop Pivotal Data Labs 2 Por qué existe Pivotal? Empresas pioneras Elimine
Más detallesDeveloper Training for Spark and Hadoop
Developer Training for Spark and Hadoop Duración 5 días 28 horas Este curso práctico de cuatro días ofrece los conceptos clave y la experiencia que necesitan los desarrolladores para desarrollar aplicaciones
Más detallesPROGRAMA FORMATIVO: ADMINISTRADOR BIG DATA CLOUDERA
PROGRAMA FORMATIVO: ADMINISTRADOR BIG DATA CLOUDERA Julio 2017 1 DATOS GENERALES DEL CURSO 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES Área Profesional: SISTEMAS Y TELEMÁTICA 2. Denominación:
Más detallesBIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO
BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca
Más detallesDATA SCIENCE EN EL MUNDO REAL
DATA SCIENCE EN EL MUNDO REAL Estás preparado para ser el CDO (Chief Data Officer) que necesita la empresa? Rafael García Gallardo Fundador MSMK Big Talent + Big Data = Big Opportunities POR QUÉ MSMK -
Más detallesBig data A través de una implementación
Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina
Más detallesHadoop. Cómo vender un cluster Hadoop?
Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las
Más detallesToda nuestra Experiencia a tu alcance
Informática y Big Data Developer con Cloudera Apache Hadoop Con este curso aprenderás a elaborar código sobre la API de Hadoop, así como a depurar programas Mapreduce y optimizar su funcionamiento Toda
Más detallesUNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA
UNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA Copyright(c) 2.014 Víctor Manuel Cano Arquero Todos los derechos reservados Pág. 1 / 10 Registro de Cambios
Más detallesHDInsight. Big Data, al estilo Microsoft
HDInsight Big Data, al estilo Microsoft PABLO DOVAL SQL/BI Team Lead palvarez@plainconcepts.com http://geeks.ms/blogs/palvarez @PabloDoval Big Data ALGUNAS ESTADÍSTICAS DE SQL SERVER Categoría Metrica
Más detallesCURSO: DESARROLLADOR PARA APACHE HADOOP
CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios
Más detallesCurso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio
Curso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio 20 horas 4ª Edición Vigo, 27 y 28 de Enero y 3 y 4 de Febrero de 2017 Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio
Más detallesIntroducción a Big Data y su aplicación en el entono asegurador. Fernando Turrado García Octubre 2016
Introducción a Big Data y su aplicación en el entono asegurador Fernando Turrado García Octubre 2016 Presentación Ponente Fernando Turrado García Matemático, Máster en Investigación Informática (UCM) Arquitecto
Más detallesCURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA
CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 48 horas. Se trata de un curso de verano en horario de tarde
Más detallesPROGRAMA FORMATIVO: DESARROLLADOR SPARK BIG DATA CLOUDERA
PROGRAMA FORMATIVO: DESARROLLADOR SPARK BIG DATA CLOUDERA Julio 2017 DATOS GENERALES DEL CURSO 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES Área Profesional: DESARROLLO 2. DESARROLLADOR SPARK BIG
Más detallesDiplomado Big Data. Educación Profesional Escuela de Ingeniería Pontificia Universidad Católica de Chile 1
Diplomado Big Data 1 DESCRIPCIÓN En la era digital, la masiva producción de datos abre infinitas oportunidades para un efectivo análisis de la información. El diplomado Big Data proporciona una sólida
Más detallesDiplomado en Big Data (DBD)
Diplomado en Big Data (DBD) 1 DESCRIPCIÓN En la era digital, la masiva producción de datos abre infinitas oportunidades para un efectivo análisis de la información. El diplomado Big Data proporciona una
Más detallesNuevo plan de estudios. Especialización en Inteligencia de Negocios. Marzo de Curso Descripción Corta Contenidos
Nuevo plan de estudios Especialización en Inteligencia de Negocios Marzo de 2018 Curso Descripción Corta Contenidos Fundamentos de Inteligencia de Negocios y Gobierno de datos Almacenamiento de Información
Más detallesAndres Felipe Rojas / Nancy Gelvez. UNESCO UNIR ICT & Education Latam Congress 2016
Distributed processing using cosine similarity for mapping Big Data in Hadoop (Procesamiento distribuido usando similitud de coseno para mapear Big Data en Haddop) Andres Felipe Rojas / Nancy Gelvez UNESCO
Más detallesAPACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López
APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop
Más detallesUnidad 1 - Surgimiento y Conceptualización de Bases de Datos
TEMARIO Curso: Big Data Base de Datos NoSQL MongoDB. Unidad 1 - Surgimiento y Conceptualización de Bases de Datos 1. Valor de las Bases de Datos NoSQL 2. Cambios en la evolución tecnológica de las BD 3.
Más detallesCurso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio
Curso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio 20 horas 3ª Edición A Coruña, 4, 5, 11 y 12 de Noviembre de 2016 Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio Introducción
Más detallesCURSOS BIGDATA. Para más información y costos: Lic. Nayana Guerrero
CURSOS BIGDATA Curso: Introducción al mundo BigData Duración: 3 sesiones 12 horas Conocimientos previos: No se requieren conocimientos de programación Sesión I. Qué es Big Data? De dónde surge? Cómo se
Más detallesLa importancia de Big Data en finanzas
La importancia de Big Data en finanzas Jornada sobre Tecnologías de la computación en el Sector Financiero Emilio Parrado Hernández (emilio. parrado@bbva.com) Global Strategies and Data Science Outline
Más detallesBig Data con nombres propios
Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán
Más detallesÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1
ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones
Más detallesToda nuestra Experiencia a tu alcance
Informática y Desarrollador Big Data Cloudera Apache Hadoop Con este curso adquirirás los conocimientos esenciales del lenguaje Java para elaborar código sobre la API de Hadoop Toda nuestra Experiencia
Más detallesCocinando con Big Data
Cocinando con Big Data Javier Sánchez BDM Big Data jsanchez@flytech.es 91.300.51.09 21/11/2013 Javier Sánchez 1 Agenda Qué es Big Data? Receta Punto de Partida Para qué Big Data? Conclusiones 21/11/2013
Más detallesII TALLER DE ESPECIALIZACIÓN EN: BIG DATA APLICADO (Aprobado con Acuerdo de Consejo Universitario No )
II TALLER DE ESPECIALIZACIÓN EN: BIG DATA APLICADO (Aprobado con Acuerdo de Consejo Universitario No. 0911-2018) (13, 15, 17, 20, 22, 24, 27, 29, 31 Agosto y 03 de Setiembre del 2018) Informes e inscripción:
Más detallesLA SOLUCIÓN DE HADOOP UTILIZA EMC ISILON Y CLOUDERA ENTERPRISE
LA SOLUCIÓN DE HADOOP UTILIZA EMC ISILON Y CLOUDERA ENTERPRISE ASPECTOS FUNDAMENTALES EMC ISILON Utiliza la primera y única solución NAS de escalamiento horizontal del sector que incluye compatibilidad
Más detallesBIG DATA EN EL SISTEMA DATATUR- ESTADISTICAS TURISTICAS DE TURESPAÑA
BIG DATA EN EL SISTEMA DATATUR- ESTADISTICAS TURISTICAS DE TURESPAÑA 15 noviembre 2016 Pablo Burgos Casado Coordinador áreas Informática S.G. Gestión Económico-Administrativa y TI de Turespaña 1. ESTADISTICAS
Más detallesCICLO INTEGRAL BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS
CICLO INTEGRAL BIG DATA PARA EL DESARROLLO DE APLICACIONES PRODUCTIVAS QUIÉNES SOMOS? Centro de Formación saxsa El Centro de Formación saxsa es parte de saxsa, empresa líder en Soluciones Big Data con
Más detallesCURSO: APACHE SPARK CAPÍTULO 1: INTRODUCCIÓN.
CURSO: APACHE SPARK CAPÍTULO 1: INTRODUCCIÓN www.formacionhadoop.com Índice 1 Por qué realizar el curso de Apache Spark? 2 Requisitos previos del curso 3 Bloques del curso 4 Objetivos 5 Tutor del curso
Más detallesSoftware Libre para Aplicaciones de Big Data
Software Libre para Aplicaciones de Big Data Club de Investigación Tecnológica San José, Costa Rica 2014.07.16 Theodore Hope! hope@aceptus.com Big Data: Qué es?! Conjuntos de datos de: " Alto volumen (TBs
Más detallesBig Data y Seguridad
Big Data y Seguridad Introducción Análisis de datos y su proceso de madurez Se han analizado datos desde hace mucho tiempo, ahora la calidad y cantidad están aumentando. 2500 petabytes generados por día.
Más detallesEscalabilidad y Sharding. Pierre-Yves Duquesnoy Sales Engineer
Escalabilidad y Sharding Pierre-Yves Duquesnoy Sales Engineer La importancia de la Escalabilidad La plataforma InterSystems IRIS permite: La Escalabilidad Vertical y Horizontal Escalar en Número de Usuarios
Más detallesNoviembre18, 2017 Concepción, Chile. #sqlsatconce
Noviembre18, 2017 Concepción, Chile #sqlsatconce Azure Data Lake Analytics y U-SQL Nombre Speaker: Marco Ramírez M. Cargo : Head of Learning and Talent Development en Metric Arts. Director Académico en
Más detallesMÁSTER EN ARQUITECTURA Y TECNOLOGÍA BIG DATA ASIGNATURAS OBLIGATORIAS
Propio: MÁSTER EN ARQUITECTURA Y TECNOLOGÍA BIG DATA Código Plan de s: EN22 Año Académico: 2018-2019 ESTRUCTURA GENERAL DEL PLAN DE ESTUDIOS: CURSO Obligatorios Optativos Prácticas Externas Memoria/ Proyecto
Más detallesBIG DATA. Jorge Mercado. Software Quality Engineer
BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino
Más detallesBases de datos distribuidas Fernando Berzal, berzal@acm.org
Bases de datos distribuidas Fernando Berzal, berzal@acm.org Acceso a los datos Bases de datos relacionales: SQL O/R Mapping Bases de datos distribuidas Bases de datos NoSQL Bases de datos multidimensionales:
Más detallesArquitectura de Aplicaciones
Versión: v01r00 Fecha: 19/07/2016 Queda prohibido cualquier tipo de explotación y, en particular, la reproducción, distribución, comunicación pública y/o transformación, total o parcial, por cualquier
Más detallesMÁSTER: MÁSTER EXPERTO BIG DATA
MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster
Más detallesArquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI
Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI- 100105-2014-192 Código: Fecha: 11/12/2014 Persona de Contacto: Carlos Vicente Corral
Más detallesPROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop
PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS Y TELEMÁTICA
Más detallesEscuela Politécnica Superior de Linares
Escuela Politécnica Superior de Linares UNIVERSIDAD DE JAÉN ESCUELA POLITÉCNICA SUPERIOR DE LINARES BIG DATA. INFRAESTRUCTURA VIRTUALIZADA PARA BIG DATA Y APLICACIÓN PRÁCTICA Alumno: Jeimi García López
Más detallesSistemas de Información Gerencial. Tema 7: BIG DATA. Ing. Francisco Rodríguez Novoa
Sistemas de Información Gerencial Tema 7: BIG DATA Ing. Francisco Rodríguez Novoa 1 Índice Big Data. Big Data Science Por qué Big Data? Google crea el Modelo de Programación MapReduce Aplicaciones de BIG
Más detallesBig Data, MapReduce y. Hadoop. el ecosistema. Bases de Datos No Relacionales Instituto de Computación, FING, UdelaR 2016
Big Data, MapReduce y el ecosistema Hadoop Bases de Datos No Relacionales Instituto de Computación, FING, UdelaR 2016 CC-BY Lorena Etcheverry lorenae@fing.edu.uy Agenda Big Data: algunas definiciones El
Más detallesBuenas prácticas para la implementación de herramientas de Ciencia de Datos Leonardo Alfonso Ramos Corona Facultad de Geografía, UAEM.
Buenas prácticas para la implementación de herramientas de Ciencia de Datos Leonardo Alfonso Ramos Corona Facultad de Geografía, UAEM. Qué es la ciencia de datos? Es muy difícil encontrar una definición
Más detallesTecnologías Big Data. y su impacto en la organización
Tecnologías Big Data y su impacto en la organización Francisco Javier Antón Vique Presidente de la Fundación Big Data Madrid, 24 de abril de 2014 Modelos de crecimiento y tecnologías Entorno económico
Más detallesIntroducción a Tecnologías Big Data
MÓDULO 1 Introducción a Tecnologías Big Data Contenidos Escenarios y retos 1 2 Data is the new OIL We need to find it, extract it, refine it, distribuite it and monetize it. David Buckingham Impacto en
Más detallesIniciativa académica: UNAM Parte 1 Aquiles Loranca Sánchez.
IBM Information Management Iniciativa académica: UNAM Parte 1 Aquiles Loranca Sánchez. aloranca@mx1.ibm.com 27 de marzo de 2014 IBM Corporation Agenda 2 Breve historia de Informix. Elementos claves de
Más detallesESTADO DEL ARTE INDUSTRIA 4.0 BIG DATA
ESTADO DEL ARTE INDUSTRIA 4.0 BIG DATA ESTADO DEL ARTE INDUSTRIA 4.0 Oportunidades I4.0 Galicia Página 1 de 103 ÍNDICE 1. INTRODUCCIÓN... 4 1.1 BIG DATA... 5 1.1.1 Definición/Descripción... 5 1.1.2 Breve
Más detallesObjetivos: Descripción del curso. Curso: Dirigido a: Big Data - Administración I UNIVERSIDAD NACIONAL DE INGENIERÍA Ê Ê Ê Ê Ê.
Big Data - Administración I Duración: 24 hrs. Código: BGIDI Curso: Descripción del curso Es un curso orientado al uso práctico de Hadoop 2 donde se examinarán técnicas de implementación y gestión sobre
Más detallesEntregable E2.2 (E2.2) Arquitectura global del sistema
Gestión integrada de los procesos y máquinas para la mejora del mantenimiento y flexibilización de la producción Nº Expediente: IMDECA/2015/82 PROGRAMA: PROYECTOS DE I+D EN COLABORACIÓN ACTUACIÓN: IMDECA-Proyectos
Más detallesBig Data M E C D. 15 de noviembre de 2016
Big Data M E C D Carmen Cabanillas Serrano Subdirectora General Adjunta Tecnologías de la Información y las Comunicaciones Ministerio de Educación, Cultura y Deporte 15 de noviembre de 2016 Índice Historia
Más detallesAbril 1, 2017 Santiago, Chile
Abril 1, 2017 Santiago, Chile #606 SANTIAGO 2017 #sqlsatsantiago Presentación Speaker Marco Antonio Ramírez Melcherts Cargo y empresa: Head of Learning and Talent Development Twitter: @maramirm Email:
Más detallesPREVIEW BIDOOP 2.0. Big Data Brunch
PREVIEW BIDOOP 2.0 Big Data Brunch 08 de Julio 2014 Quién soy? Trabajando con Hadoop desde 2010 sluangsay@pragsis.com @sourygna CTO de Pragsis Responsable departamento sistemas Preventa Instructor de Hadoop
Más detallesALTO NIVEL DE HOSTING NIVEL DE RENDIMIENTO 1&1: RENDIMIENTO QUE AUMENTA EN FUNCIÓN DE TUS NECESIDADES
ALTO NIVEL DE HOSTING NIVEL DE RENDIMIENTO 1&1: RENDIMIENTO QUE AUMENTA EN FUNCIÓN DE TUS NECESIDADES En lo que al éxito de tus páginas web se refiere, cobran especial importancia una estructura sencilla
Más detallesAlessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928
Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International
Más detallesWeb GIS y Big Data en los análisis de tendencias y comportamientos
Con mapas se dice mejor Web GIS y Big Data en los análisis de tendencias y comportamientos Edwin Roa Reinaldo Cartagena #esriccu Introducción Web GIS & Big Data Big Data para apoyar un nivel de toma de
Más detalles20767A Implementing a SQL Data Warehouse
20767A Implementing a SQL Data Warehouse Duración: 40 Horas Examen Asociado: Examen 70-767 Descripción del Curso: Este instructor de 5 días condujo curso describe cómo implementar una plataforma de almacenamiento
Más detallesPROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop
PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS
Más detallesen Big Data y Business Analytics
en Big Data y Business Analytics 600 horas (60 ECTS) Programa MÓDULO 1: INTRODUCCIÓN AL BIG DATA... 2 MÓDULO 2: BBDD RELACIONALES: SQL. DISEÑO DE UN DATAWAREHOUSE... 2 MÓDULO 3: BBDD NoSQL y HDFS... 3
Más detallesTecnologías Hadoop. Una introducción al ecosistema Hadoop
Tecnologías Hadoop Una introducción al ecosistema Hadoop Quien soy Angel Llosa Guillen Architecture Manager in Capgemini https://es.linkedin.com/in/anllogui https://twitter.com/anllogui Esta charla Introducción
Más detallesCURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com
CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido
Más detallesArquitectura Lambda vs Arquitectura Kappa
Arquitectura Lambda vs Arquitectura Kappa Cuál es el mejor enfoque para implementar un ambiente de trabajo para procesar big data? Josué Careaga El mundo de la industria y los negocios se transforma a
Más detallesProyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source
Proyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source Francisco Magaz Villaverde Consultor: Víctor Carceler Hontoria Junio 2012 Contenido Introducción Qué es Cloud Compu5ng?
Más detallesCURSO PRESENCIAL: DESARROLLADOR BIG DATA
CURSO PRESENCIAL: DESARROLLADOR BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla durante 3 semanas de Lunes a Jueves. Se trata de un curso formato ejecutivo que permite
Más detallesRaúl Saráchaga. Explorando los sabores de Azure Data Warehouse
Raúl Saráchaga Explorando los sabores de Azure Data Warehouse BIG Thanks to SQLSatLima sponsors Sponsor sessions at 16:50 Don t miss them, they might be getting distributing some awesome prizes! KEMP ER
Más detallesYO, CIENCIA DE DATOS. BIG DATA DAY Facultad de Ciencias, UNAM Ciudad de México, marzo 2016
YO, CIENCIA DE DATOS BIG DATA DAY Facultad de Ciencias, UNAM Ciudad de México, marzo 2016 Qué es CIENCIA DE DATOS? La ciencia de datos es un campo interdisciplinario que involucra los procesos y sistemas
Más detallesBases de Datos Paralelas. Carlos A. Olarte BDII
Carlos A. Olarte (carlosolarte@puj.edu.co) BDII Contenido 1 Introducción 2 Paralelismo de I/O 3 Paralelismo entre Consultas 4 OPS Introducción Por qué tener bases de datos paralelas? Tipos de arquitecturas:
Más detallesFicha Técnica del curso Online de Cloud Computing con Amazon Web Services (AWS)
Ficha Técnica del curso Online de Cloud Computing con Amazon Web Services (AWS) Nombre del Curso: Curso Online de Cloud Computing con Amazon Web Services (AWS) Breve descripción del Curso: Este curso online
Más detallesHora 1 1. Introducción 2. Web semántica 2.1 Ontologías 2.2 Lenguajes 2.3 Ejemplos 2.4 Estado actual Microformatos 2.4.
1 Hora 1 1. Introducción 2. Web semántica 2.1 Ontologías 2.2 Lenguajes 2.3 Ejemplos 2.4 Estado actual 2.4.1 Microformatos 2.4.2 Microdatos Hora 2 3. Big Data 4. Arquitecturas de servicio 4.1 Arquitecturas
Más detallesLa combinación perfecta
La combinación perfecta Eynar Espinoza Pérez Big Data Latam Leader eespinoz@cl.ibm.com Una nueva Economía The Insight Economy está aquí Los innovadores están viendo los beneficios: La analítica retornan
Más detallesLa moda del Big Data: En qué consiste en realidad?
La moda del Big Data: En qué consiste en realidad? La moda del Big Data: En qué consiste en realidad? Descripción: Big Data es uno de los conceptos de moda en el mundo informático. En la actualidad contamos
Más detallesAfinación y Rendimiento de Bases de Datos
DIPLOMADO Afinación y Rendimiento de Bases de Datos TEMARIO DURACIÓN: 250 hrs. 1. Sistemas de Información OLTP y SQL (40 hrs.) 1.1 Componentes de un Sistema de Información 1.2 Tipos de un Sistema de Información
Más detallesII TALLER DE ESPECIALIZACIÓN EN:
II TALLER DE ESPECIALIZACIÓN EN: (14,16, 18, 21, 23, 25, 28 y 30 de mayo del 2018) Informes e inscripción: 70 80 000 anexo 0169 Piso 8 de la Torre Administrativa Universidad, Av. Benavides 5440 Santiago
Más detalles