Big Data. The Big Picture
|
|
|
- María Domínguez Botella
- hace 7 años
- Vistas:
Transcripción
1 1 Big Data The Big Picture Recolección y tratamiento de datos masivos de orígenes diversos, que representan una fuente constante para el análisis y descubrimiento de información útil para la toma de decisiones.
2 2 TECNOLOGÍAS Trabajaremos con las principales tecnologías del mercado, como Apache Hadoop, Spark y Hbase o MapReduce INFRAESTRUCTURA Llevaremos a cabo proyectos sobre Cloudera, la distribución de Hadoop más utilizada. Pero veremos implementaciones como IBM Big Insights o MapR ALMACENAMIENTO Tendremos ocasión de trabajar con Apache Cassandra y MongoDB y estudiaremos los Big Data tradeoffs entre Bases de datos relacionales y NoSQL. También estudiaremos la idoneidad de las Graph Databases como Neo4j o GraphDB ANÁLISIS Y BI Trabajaremos con Python y R como lenguajes y nos introduciremos en suites como IBM Cognos BI o herramientas de análisis estadístico como SPSS VISUALIZACIÓN Nos adentraremos en el mundo de la visualización avanzada de datos, y trabajaremos con tableau, R y distintas librerías python como NetworkX, matplotlib o geoplotlib entre otras.
3 3 Perfiles Data Scientist Data Architect Data Analyst Data Engineer Decision Maker Ordena, clasifica y modela los datos y elabora modelos predictivos. Las matemáticas, y las estadísticas sus armas Diseña sistemas de gestión de datos e integra, centraliza y gestiona orígenes de datos. El modelado de datos y los procesos ETL son su ámbito. Recolecta, procesa y realiza análisis estadísticos para llegar a enunciados que representen tendencias o hechos reales. Construyen, m a n t i e n e n y evalúan soluciones Big Data diseñadas por el arquitecto. Apoyan la toma de decisiones con las c o n c l u s i o n e s derivadas del análisis de datos. Las herramientas BI son su medio
4 4 Itinerario formativo Resumen The Big Picture Introducción al Big Data, Usos y escenarios, aplicaciones. Implicaciones actuales. Perspectiva y evolución. Infraestructura Implementaciones de Hadoop: Cloudera, Hortonworks, MapR y IBM BigInsights Arquitectura Análisis Análisis Estadístico con R, Python. Uso de SPSS Modeler, IBM Cognos BI Tecnologías Principales actores en el mercado. Apache Hadoop, Hbase, Spark, MapReduce, Cassandra. Fundamentos Almacenamiento NoSQL vs Relational Graph Databases MongoDB Apache Cassandra. Visualización Trabajaremos con las principales librerías Python para visualización. Comandos en R para gráficas, Tableau
5 5 Distribución del conocimiento Cómo se organiza el contenido 10% 20% 20% 50% Teoría Casos Reales Master Class Ejercicios Fundamentos y Conceptos El objetivo será fundar una base sólida donde los conceptos estén claros y se obtenga una visión actual y holística del Big Data. Experiencia Real Nuestros expertos están trabajando en proyectos de Big Data en empresas de primer nivel. Compartirán con nosotros los casos a los que se enfrentan día a día, y analizaremos juntos las lecciones que han obtenido. Clases Únicas Una vez a la semana recibiremos una master class de un experto en diferentes áreas que nos desvelarán los secretos y conocimientos avanzados que de otra manera tardaríamos años en adquirir. Eminentemente práctico La mayor parte del programa se dedicará a la realización tutorizada de ejercicios prácticos. Estos ejercicios serán guiados al principio pero muchos ejercicios se realizarán en equipo y podrán tener más de una solución.
6 6 Habilidades Qué habilidades adquiriremos La base Una visión holística del Big Data y las tecnologías y Soluciones a su alcance. Tendencias y futuro. La representación del dato Adquiriremos destreza en la representación de los datos de una forma exhaustiva e intuitiva Big Data Storage Estudiaremos los motores de bases de datos en tres enfoques, nosql, Relacionales y Graph Databases. Trabajaremos con MongoDB Visualization Analytics y BI Big Data Storage Plataforma Hadoop Big Data Fundamentals Analítica, Estadística y Business Intelligence Los datos necesitan un análisis para convertirse en enunciados, trabajaremos con Python, R, SPSS y Cognos Hadoop e implementaciones Adquiriremos dominio de la plataforma y estudiaremos las distribuciones más utilizadas, así como su idoneidad en cada tipo de proyecto.
7 7 Cómo nos gusta enseñar Nuestra metodología El conocimiento se transmite. Nos apasiona nuestro trabajo y deseamos que n u e s t r o s a l u m n o s participen de nuestra ilusión. El aprendizaje se potencia cuando te diviertes Esto es un hecho, Elconocimiento se adquiere N u e s tra filosofía e s aprender haciendo. Sabemos que es ahí donde necesitas nuestra guía. No te vamos a enseñar nada que puedas buscar tu mismo en Google.
8 8 Herramientas PRUEBAS DE NIVEL Y APROVECHAMIENTO LABORATORIOS ESCRITORIOS VIRTUALES MASTER CLASSES Y CASOS REALES VIRTUAL & REMOTE TRAINING 03 LEARN BY DOING 02 01
9 9 Cómo seleccionamos a los candidatos Proceso de selección Buscamos a los mejores Hemos puesto mucho esfuerzo en crear estos másteres. Deseamos que todos los participantes disfruten aprediendo tanto como nosotros vamos a disfrutar enseñando. Necesitamos asegurarnos que todos los candidatos tienen las características y capacidades necesarias para aprovechar y asimilar los conocimientos.
10 10 Cómo seleccionamos a los candidatos Nuestro proceso de selección Trayectoria Valoramos la experiencia profesional y el perfil del candidato. Ilusión Preferimos una persona apasionada que cien meramente interesadas Expectativas Valoramos las expectativas del candidato hacia el curso. Nos aseguramos de ofrecerte exactamente lo que estás buscando. Conocimientos Nos aseguramos que el candidato disponga de los conocimientos necesarios para aprovechar el itinerario formativo.
11 11 PRESENTACIÓN Presentación y definición de objetivos. Descripción general de la formación. Claves para sacar el máximo provecho. Entorno de trabajo INTRODUCCIÓN Qué es Big Data y qué no es Big Data. Casos reales de uso. Definiciones. Quién utiliza Big Data. Perfiles. Por qué es importante. FUNDAMENTOS Qué necesitamos saber. Fundamentos de estadística. Conceptos relacionados con data management. Módulo 1 - Fundamentos Establecemos las bases. Manejamos los términos de manera apropiada y definimos términos basándonos en ejemplos. TECNOLOGÍAS Qué es Hadoop, Hive, MaReduce, HDFS. Distributed & Parallel processing y Hadoop clusters. nosql. NewSQL. Alternativas y ecosistema Big Data. INFRAESTRUCTURA Distribuciones Hadoop. Cloudera. Hortonworks. Isotope. IBM BigInsights. ALMACENAMIENTO Una inmersión en el mundo del almacenamiento. Descripción general del ecosistema. Tipos de motores. Datawarehousing. OLTP vs OLAP. SQL vs NoSQL. HDFS. Cassandra. ANALÍTICA Y VISUALIZACIÓN Business Intelligence & Analytics. Herramientas. Formas de representar los datos. Herramientas ara visualización de datos.
12 12 INTRODUCCIÓN Hablamos de los distintos componentes y la función que cumple cada uno. Computación distribuida. Otras tecnologías en el ecosistema Hadoop. INSTALACIÓN Modos de Instalación. Modo Standalone. Modo pseudo-distribuido. Configurando SSH. Variables de Entorno. Configuración. Iniciando HDFS y YARN. Monitorización. ALMACENANDO DATOS Almacenando datos con HDFS. Escritura y lectura. Comandos HDFS. Nodos. Replicación y recuperación. ETL. Ingestión de datos. Hbase. Módulo 2 - Tecnologías Conoceremos de fondo Apache Hadoop, HDFS, MapReduce y YARN MAPREDUCE Procesando datos con MapReduce. Fases Map y Reduce. Flujo de datos. Implementando MapReduce en Java. Desplegar un jar en Hadoop. Monitorización. YARN Gestión de recursos de cluster. Arquitectura. Daemons. Operación, seguridad y gobierno de datos. Fair scheduler. CPU y Memoria. PLANIFICACIÓN Y TAREAS Anatomía de un Job Run en YARN. Parámetros. Cluster resource Allocation. Colas de trabajos. Ejecutando trabajos en colas específicas. Logs.
13 13 INTRODUCCIÓN Distribuciones más utilizadas. Cloudera. HortonWorks, MapR. IBM BigInsights. Diferencias, escenarios de idoneidad. HDFS Profundizando en HDFS. NameNode. DataNode. Creando, recuperando y manipulando archivos. Comandos HDFS. Copiando datos a Hadoop. Toleranci a fallos. Módulo 3 - Infraestructura Trabajaremos con la distribución Hadoop más utilizada Cloudera. También profundizaremos en el conocimiento de otras distribuciones como Hortonworks, IBM BigInsights o MapR. Trabajaremos con Impala, Pig, Hue, Spark,.. CLOUDERA Instalación y VMs. Hardware e infraestructura para un cluster. Cloudera Manager. Montar un cluster de servidor con varios nodos. Seguridad. Monitorización IMPALA & PIG Instalación de Impala y pig. Lenguajes de programación. Creando consultas con pig. HUE & OTROS CLIENTES HADOOP Clientes, propósito. Instalando y configurando Hue. Autenticación y autorización. APACHE SPARK Introducción. Instalación. Lenguajes de programación. Appification, RDD. Ingesta de datos, Lambdas. Transformaciones. Acciones. Persistencia. Conversiones implícitas. Java en Spark. Instrumentación y librerías.
14 14 INTRODUCCIÓN El almacenamiento en Big Data. Problemática y soluciones. Tipos de bases de datos. nosql vs SQL. Graph Databases. Bases de datos MPP Módulo 4 - Almacenamiento Estudiaremos los distintos sistemas de almacenamiento más utilizados en proyectos Big Data y sus implicaciones. Trabajaremos con MongoDB como motor nosql APACHE CASSANDRA Introducción y casos de uso. Arquitectura. Instalación. Replicación y consistencia. Introducción a CQL. Write & read path. Multirow partitions. Compaction. Transacciones, Tipos complejos. MONGODB Introducción e instalación. Escalabilidad. Mongo Shell. Collections, BSON, Operadores. Insert & Updates & Queries. Encontrando documentos. Indexado. Big Data & reporting. HIVE Arquitectura. Esquema. Hive Warehouse. Lenguaje Hive. HiveQL. Ingesta de datos. Bucketing, joins, distributed cache, UDTFs. Funciones analíticas. INGESTA DE DATOS. SQOOP Y FLUME Sqoop y Flume. Ingesta de datos desde DB relacionales con Sqoop. Flume network streams. Multi-agent Flows. Sinks, Channels & Interceptors. HBASE Arquitectura. Diseño de tablas. Relaciones. Nodos de cluster. Hfiles y regions. Scaling y compaction
15 15 INTRODUCCIÓN La analítica de datos. Herramientas. Introducción al modelado de datos. Relaciones. Normalización. Estadística. Visualización y presentación. ANÁLISIS DE DATOS CON PYTHON Fundamentos de Python. Instalando Python. Ejecutando Programas en Python. Estructuras de datos. Construcciones e iteraciones. Librerías ara análisis. Pandas. NumPy. SciPy. Blaze. Módulo 5 - Análisis Trabajaremos con los datos para obtener correlaciones y conclusiones que nos ayuden en la toma de decisiones. Trabajaremos con Python pero también tendremos ocasión de profundizar en R y nos indotrduciremos en SPSS modeler y Cognos BI INTRODUCCIÓN A R Introducción e instalación. IDEs para R. Variables, operadores. Estructuras de datos, Funciones, control de flujo. Importando datos. Paquetes. Exploración de datos con R. IBM SPSS MODELER Introducción a Data Mining. Trabajando con modeler. Recolección de datos. Entendiendo los datos. Configurando la unidad de análisis. Integrando datos. Derivando y clasificando datos. Relaciones. Modelado. IBM COGNOS BUSINESS INTELLIGENCE Consumo de datos en Cognos BI. Creación de reportes. Espacio de trabajo. Modelos de Metadata. Framework manger. Cube designer. Extendiendo Cognos.
16 16 INTRODUCCIÓN La analítica de datos. Herramientas. Introducción al modelado de datos. Relaciones. Normalización. Estadística. Visualización y presentación. VISUALIZACIÓN DE DATOS CON PYTHON Fundamentos de Python. Instalando Python. Ejecutando Programas en Python. Estructuras de datos. Construcciones e iteraciones. Librerías ara análisis Módulo 6 - Visualización En éste módulo tendremos ocasión de profundizar más en las herramientas de análisis y proceso, con especial acento en aquellas herramientas y técnicas que nos permiten visualizar los resultados. VISUALIZACIÓN DE DATOS CON R Introducción e instalación. IDEs para R. Variables, operadores. Estructuras de datos, Funciones, control de flujo. Importando datos. Paquetes. Exploración de datos con R. PENTAHO REPORTING & DASHBOARDS Consumo de datos en Cognos BI. Creación de reportes. Espacio de trabajo. Modelos de Metadata. Framework manger. Cube designer. Extendiendo Cognos. TABLEAU Introducción a Data Mining. Trabajando con modeler. Recolección de datos. Entendiendo los datos. Configurando la unidad de análisis. Integrando datos. Derivando y clasificando datos. Relaciones. Modelado.
MÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING. Master
MÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING Master MÁSTER EN BIG DATA MANAGEMENT & DATA ENGINEERING MBD_MÓDULO 1: FUNDAMENTOS DE BIG DATA 1. Qué es Big Data y qué no es Big Data 2. Business Intelligence
MÁSTER: MÁSTER BIG DATA ANALYTICS
MÁSTER: MÁSTER BIG DATA ANALYTICS Información detallada del máster www.formacionhadoop.com El máster online Big Data Analytics de 190 horas tiene como objetivo formar a profesionales expertos en Big Data
Unidad 1 - Surgimiento y Conceptualización de Bases de Datos
TEMARIO Curso: Big Data Base de Datos NoSQL MongoDB. Unidad 1 - Surgimiento y Conceptualización de Bases de Datos 1. Valor de las Bases de Datos NoSQL 2. Cambios en la evolución tecnológica de las BD 3.
IFCT0109_SEGURIDAD INFORMÁTICA (RD 686/2011, de 13 de mayo modificado por el RD 628/2013, de 2 de agosto)
El programa formativo adjunto incluye el certificado de profesionalidad IFCT0109 Seguridad Informática, la Especialización IFCT24 Analista de Datos Big Data Cloudera Apache Hadoop y el módulo de prácticas
DESARROLLO APLICACIONES BUSINESS INTELLIGENCE CON MS SQL SERVER Big Data
DESARROLLO APLICACIONES BUSINESS INTELLIGENCE CON MS SQL SERVER 2016 + Big Data DESCRIPCIÓN Este curso está orientado a brindar a los alumnos los fundamentos necesarios en el campo del Business Intelligence
HADOOP LIVE. 12 de diciembre de 2017
HADOOP LIVE 12 de diciembre de 2017 Presentación Jesús Javier Moralo García Bioinformático por la UAM & CSIC Máster Big Data & Analytics de Datahack Gestión, Análisis e Integración de Datos Global Biodiversity
PROGRAMA FORMATIVO: ANALISTA DE DATOS BIG DATA CLOUDERA
PROGRAMA FORMATIVO: ANALISTA DE DATOS BIG DATA CLOUDERA Julio 2017 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES Área Profesional: SISTEMAS Y TELEMÁTICA 2. Denominación:
DATA SCIENCE EN EL MUNDO REAL
DATA SCIENCE EN EL MUNDO REAL Estás preparado para ser el CDO (Chief Data Officer) que necesita la empresa? Rafael García Gallardo Fundador MSMK Big Talent + Big Data = Big Opportunities POR QUÉ MSMK -
CURSO DE APACHE SPARK_
DURACIÓN: 72 HORAS Apache Spark es un motor de procesamiento distribuido construido para aumentar la velocidad de procesamiento de grandes cantidades de datos añadiendo facilidad de uso y un análisis sofisticado.
CURSO ONLINE: ARQUITECTURAS BIG DATA
CURSO ONLINE: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com Este curso online de 70 horas está enfocado a técnicos que quieran conocer las herramientas más importantes
PROGRAMA FORMATIVO: ADMINISTRADOR BIG DATA CLOUDERA
PROGRAMA FORMATIVO: ADMINISTRADOR BIG DATA CLOUDERA Julio 2017 1 DATOS GENERALES DEL CURSO 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES Área Profesional: SISTEMAS Y TELEMÁTICA 2. Denominación:
Acelerando la innovación con Apache Spark. Ricardo Barranco Fragoso IBM Big Data & Analytics Specialist
Acelerando la innovación con Apache Ricardo Barranco Fragoso Big Data & Analytics Specialist [email protected] México Big Data y la Ciencia de Datos Entonces, la Ciencia de Datos es...? Es realmente
CURSO: DESARROLLADOR PARA APACHE HADOOP
CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 2: INTRODUCCIÓN A HADOOP www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Qué es Hadoop? 3 Historia de Hadoop 4 Por qué utilizar Hadoop? 5 Core Hadoop
BIG DATA: Una mirada tecnológica
BIG DATA: Una mirada tecnológica Dr. Rubén Casado [email protected] @ruben_casado AGENDA 1. Qué y cómo es Big Data? 2. Batch processing 3. Real-time processing 4. Hybrid computation model 5. Casos
Big Data Analytics & IBM BIG INSIGHT
Big Data Analytics & IBM BIG INSIGHT En la actualidad se generan grandes volumenes de datos de diversos tipos, a gran velocidad y con diferentes frecuencias. Las tecnologıas disponibles permiten efectuar
Introducción a Big Data y su aplicación en el entono asegurador. Fernando Turrado García Octubre 2016
Introducción a Big Data y su aplicación en el entono asegurador Fernando Turrado García Octubre 2016 Presentación Ponente Fernando Turrado García Matemático, Máster en Investigación Informática (UCM) Arquitecto
BIG DATA & DATA SCIENCE
BIG DATA & DATA SCIENCE ACADEMY PROGRAMS IN-COMPANY TRAINING PORTFOLIO Synergic Academy Solutions BIG DATA FOR LEADING BUSINESS El Big Data supone un cambio significativo en el proceso de toma de decisiones
CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA
CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 48 horas. Se trata de un curso de verano en horario de tarde
en Big Data y Business Analytics
en Big Data y Business Analytics 600 horas (60 ECTS) Programa MÓDULO 1: INTRODUCCIÓN AL BIG DATA... 2 MÓDULO 2: BBDD RELACIONALES: SQL. DISEÑO DE UN DATAWAREHOUSE... 2 MÓDULO 3: BBDD NoSQL y HDFS... 3
Full Stack Developer
1 Full Stack Developer The MEAN Stack Un Full Stack Developer es una profesional con habilidades en todos los ámbitos del desarrollo de aplicaciones, generalmente en unos o dos stacks, tanto en su vertiente
ANALÍTICA DE BIG DATA (BDA)
ANALÍTICA DE BIG DATA (BDA) Tendencias Retos Oportunidades Fabián García Nocetti IIMAS-UNAM CAACFMI-UNAM AMIAC Ciencia de Datos y Big Data Analítica de Big Data (BDA) Aplicaciones Arquitectura General
Hadoop. Cómo vender un cluster Hadoop?
Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las
ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1
ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones
La combinación perfecta
La combinación perfecta Eynar Espinoza Pérez Big Data Latam Leader [email protected] Una nueva Economía The Insight Economy está aquí Los innovadores están viendo los beneficios: La analítica retornan
Afinación y Rendimiento de Bases de Datos
DIPLOMADO Afinación y Rendimiento de Bases de Datos TEMARIO DURACIÓN: 250 hrs. 1. Sistemas de Información OLTP y SQL (40 hrs.) 1.1 Componentes de un Sistema de Información 1.2 Tipos de un Sistema de Información
Big Data. Plan de Estudio
Big Data Plan de Estudio Descripción Big Data, inteligencia de datos o datos masivos, se refiere a conjuntos de datos tan grandes que aplicaciones informáticas tradicionales de procesamiento de datos no
The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO [email protected] @antoniosql
The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO [email protected] @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en
Curso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio
Curso Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio 20 horas 3ª Edición A Coruña, 4, 5, 11 y 12 de Noviembre de 2016 Big Data: Herramientas Tecnológicas y Aplicaciones para Negocio Introducción
Big data A través de una implementación
Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina
Big Data con nombres propios
Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán
Tecnologías Hadoop. Una introducción al ecosistema Hadoop
Tecnologías Hadoop Una introducción al ecosistema Hadoop Quien soy Angel Llosa Guillen Architecture Manager in Capgemini https://es.linkedin.com/in/anllogui https://twitter.com/anllogui Esta charla Introducción
Mitos y Realidades del Big Data -Introducción al Big Data-
Jornada: Mitos y Realidades del Big Data -Introducción al Big Data- Urko Zurutuza Dpto. Electrónica e Informática Mondragon Goi Eskola Politeknikoa JMA Mondragon Unibertsitatea Agenda Introducción al Big
Diplomado Big Data. Educación Profesional Escuela de Ingeniería Pontificia Universidad Católica de Chile 1
Diplomado Big Data 1 DESCRIPCIÓN En la era digital, la masiva producción de datos abre infinitas oportunidades para un efectivo análisis de la información. El diplomado Big Data proporciona una sólida
BUSINESS ANALYTICS & BIG DATA UNIVERSIDAD NACIONAL DE INGENIERIA. II y III PROGRAMA DE ESPECIALIZACION EN
UNIVERSIDAD NACIONAL DE INGENIERIA Centro de Tecnologías de Información y Comunicaciones CTIC UNI II y III PROGRAMA DE ESPECIALIZACION EN BUSINESS ANALYTICS & BIG DATA EDICION FINES DE SEMANA: 07 DE ENERO
INTRODUCCIÓN Y FUNDAMENTOS DE OPEN STACK
INTRODUCCIÓN Y FUNDAMENTOS DE OPEN STACK OCT 7 OCT 15 Inicio 07/10/2016 20 h. Presencial Madrid Fin 15/10/2016 KSCHOOL.COM ÍNDICE NÚMEROS DE KSCHOOL ESCUELA BIG DATA SCIENCE DE KSCHOOL DESCRIPCIÓN Y OBJETIVOS
Business Intelligence y Big Data
Master en Business Intelligence y Big Data Aragón (Blended) En colaboración con El Master en Business Intelligence y Big Data tiene como misión principal responder al reto de formación cualificada de los
www.consultec.es Introducción a Big Data
Introducción a Big Data Quiénes somos? Gorka Armen+a Developer [email protected] @joruus Iñaki Elcoro Developer [email protected] @iceoverflow Índice 1. Introducción 2. Qué no es Big Data? 3. Qué
Buenas prácticas para la implementación de herramientas de Ciencia de Datos Leonardo Alfonso Ramos Corona Facultad de Geografía, UAEM.
Buenas prácticas para la implementación de herramientas de Ciencia de Datos Leonardo Alfonso Ramos Corona Facultad de Geografía, UAEM. Qué es la ciencia de datos? Es muy difícil encontrar una definición
CURSO: APACHE SPARK CAPÍTULO 1: INTRODUCCIÓN.
CURSO: APACHE SPARK CAPÍTULO 1: INTRODUCCIÓN www.formacionhadoop.com Índice 1 Por qué realizar el curso de Apache Spark? 2 Requisitos previos del curso 3 Bloques del curso 4 Objetivos 5 Tutor del curso
20767A Implementing a SQL Data Warehouse
20767A Implementing a SQL Data Warehouse Duración: 40 Horas Examen Asociado: Examen 70-767 Descripción del Curso: Este instructor de 5 días condujo curso describe cómo implementar una plataforma de almacenamiento
MÁSTER: MÁSTER EXPERTO BIG DATA
MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster
CURSO: ANÁLISIS DE DATOS CON APACHE SPARK
CURSO: ANÁLISIS DE DATOS CON APACHE SPARK Información detallada del curso www.formacionhadoop.com El curso online Análisis de datos con Apache Spark de 60 horas está recomendado para todos aquellos profesionales
Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI
Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI- 100105-2014-192 Código: Fecha: 11/12/2014 Persona de Contacto: Carlos Vicente Corral
Full Stack Developer
1 Full Stack Developer The PHP Stack Un Full Stack Developer es una profesional con habilidades en todos los ámbitos del desarrollo de aplicaciones, generalmente en unos o dos stacks, tanto en su vertiente
Big Data, MapReduce y. Hadoop. el ecosistema. Bases de Datos No Relacionales Instituto de Computación, FING, UdelaR 2016
Big Data, MapReduce y el ecosistema Hadoop Bases de Datos No Relacionales Instituto de Computación, FING, UdelaR 2016 CC-BY Lorena Etcheverry [email protected] Agenda Big Data: algunas definiciones El
CURSOS BIGDATA. Para más información y costos: Lic. Nayana Guerrero
CURSOS BIGDATA Curso: Introducción al mundo BigData Duración: 3 sesiones 12 horas Conocimientos previos: No se requieren conocimientos de programación Sesión I. Qué es Big Data? De dónde surge? Cómo se
APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López
APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop
CURSO DE INTRODUCCIÓN Y FUNDAMENTOS DE OPEN STACK
CURSO DE INTRODUCCIÓN Y FUNDAMENTOS DE OPEN STACK OCT 7 OCT 15 Inicio 07/10/2016 20 h. Presencial Madrid Fin 15/10/2016 KSCHOOL.COM ÍNDICE NÚMEROS DE KSCHOOL DICEN DE NOSOTROS ESCUELA BIG DATA SCIENCE
BUSINESS INTELLIGENCE
BUSINESS INTELLIGENCE Si buscas resultados distintos, no hagas siempre lo mismo Albert Einstein Introducción Business Intelligence (BI) es un término genérico que incluye las aplicaciones, la infraestructura
BUSINESS ANALYTICS & BIG DATA UNIVERSIDAD NACIONAL DE INGENIERIA V PROGRAMA DE ESPECIALIZACION EN EDICION SABADOS FULL DAY: 22 ABRIL 2017
UNIVERSIDAD NACIONAL DE INGENIERIA Centro de Tecnologías de Información y Comunicaciones CTIC UNI V PROGRAMA DE ESPECIALIZACION EN BUSINESS ANALYTICS & BIG DATA EDICION SABADOS FULL DAY: 22 ABRIL 2017
TP3 - Sistemas Distribuidos Map-Reduce
TP3 - Sistemas Distribuidos Map-Reduce DC - FCEyN - UBA Sistemas Operativos 2c - 2014 Quote Map-reduce is a programming model for expressing distributed computations on massive amounts of data and an execution
Tecnologías Big Data. y su impacto en la organización
Tecnologías Big Data y su impacto en la organización Francisco Javier Antón Vique Presidente de la Fundación Big Data Madrid, 24 de abril de 2014 Modelos de crecimiento y tecnologías Entorno económico
