160 horas Diplomado en Big Data BROCHURE, 2015
Contenido Quienes somos?... 3 Presentación del Programa... 4 Perfíl del Facilitador. 5 Objetivos.. 6 Información General.. 7 Plan de Estudio... 8-9 Plan de estudio detallado. 10-11 Contacto.. 12
Quiénes somos? Nuestros diplomados tienen como objeto ampliar, actualizar y fortalecer las competencias prácticas y especializadas en la formación de cada estudiante. "DiplomadosOnline, comprometidos con el desarrollo de tu perfil profesional". DiplomadosOnline fundamenta su estrategia académica en el novedoso método de Píldoras de Conocimiento (Knowledge Pills) y clases en línea centradas en el estudiante. "DiplomadosOnline, formación a tu alcance". Nuestros facilitadores utilizan diferentes estrategias, para el desarrollo del pensamiento crítico promoviendo experiencias de aprendizaje. El seguimiento de cada estudiante es constante, con el objeto de acompañar y sostener el éxito del proceso. "DiplomadosOnline, un método para aprender haciendo". Pag 3
Presentación del programa Pag 4 El auge tecnológico y el relativo bajo costo de los sistemas de computación en la actualidad; tales como: procesadores multinúcleo, computadores, redes de computadores, Clúster, Grids, Supercomputadores, etc., ha puesto al alcance de un gran número de empresas, la tecnología necesaria para abordar problemas complejos en diversas disciplinas del ámbito científico, industrial y organizacional. En este contexto, el Big Data -un área tecnológica que aborda las herramientas, métodos y técnicas de solución y optimización, tanto en hardware como en software, que permiten el manejo de grandes volúmenes de datos con soluciones de cómputo intensivo- busca explotar eficientemente los recursos computacionales usados y obtener una significativa reducción del tiempo empleado en el manejo y aprovechamiento de grandes volúmenes de datos, sin sacrificar su confiabilidad y seguridad. Sin duda, el Big Data y la computación en nube, son actualmente dos de los temas más importantes entre las Tecnologías de la Información (TdI). La posibilidad de manejar y analizar datos masivos (Big data) está abriendo la posibilidad de nuevos modelos de negocio y nuevas oportunidades -que no eran posibles con las tecnologías de información convencionales. Según Gartner, en 2015 van a ser necesarias 4,4 millones de personas formadas en esta disciplina y ha señalado que, por cada puesto de trabajo creado en el sector de Tecnologías de la Información, se generarán tres puestos adicionales fuera de la industria tecnológica -lo que da una cifra cercana a los 15 millones de trabajos nuevos, relacionados con Big Data, en los próximos tres años, a nivel mundial. En este curso estudiaremos los nuevos enfoques de la gestión del Big Data con el proyecto Hadoop. Tanto en el enfoque del almacenamiento masivo distribuido con HDFS, como con el framework de desarrollo paralelo denominado MapReduce.
Perfil del Facilitador José Sosa Formación LPIC-1 Junior Level Linux Certification. Linux Professional Institute. Novell Certified Linux Administrator (Novell CLA). Licenciado en Computación. Universidad Central de Venezuela. Experiencia Profesional Presidente del Centro Nacional de Tecnologías de Información (CNTI). Director General de Gestión, Acceso y Uso de Tecnologías de Información del Ministerio de Ciencia, Tecnología e Industrias Intermedias (MCTII). Presidente del Centro Nacional de Innovación Tecnológica (CENIT). Director General de TI. Fundación Gran Mariscal de Ayacucho (FUNDAYACUCHO). Experiencia Académica Instructor del Diplomado en Minería de Datos. Diplomados Online- Universidad Central de Venezuela. Instructor del Diplomado en Big Data. Diplomados Online- Universidad Central de Venezuela. Docente a tiempo convencional, en la materia Probabilidad y Estadística. Universidad Central de Venezuela. Pag 5
Objetivos Formar profesionales que sean capaces de concebir, diseñar, gestionar y liderar proyectos en el área de Big Data. Al finalizar el diplomado, los participantes estarán en capacidad de: Liderar o ejecutar proyectos de Big Data mediante la implementación de soluciones informáticas sobre infraestructuras Hadoop. Identificar y aplicar metodologías, técnicas y herramientas que se adecuen al desarrollo de soluciones para el manejo o análisis de grandes volúmenes de datos sobre infraestructuras de Big Data. Conocer el paradigma de programación y los componentes básicos de Hadoop. Conocer y aplicar los fundamentos de la programación MapReduce. Conocer y aplicar sus conocimiento de la gestión de datos sobre sistemas de almacenamiento distribuido con HDFS, así como ser capaz de diseñar el modelo de datos y la infraestructura de una solución Big Data basada en MongoDB o HBASE. Pag 6
Información General Pag 7 Diploma Diplomado en Big Data Dirigido a 160 Horas Profesionales en informática/computación, analistas de información, de instituciones públicas o privadas, que posean un título en el área de las tecnologías de información, administración, contaduría, economía, entre otros. Este curso está diseñado para el desarrollo del perfil de analistas de información con conocimientos básicos de estadística, así como también con conocimientos básicos de soluciones de Inteligencia de Negocios y Minería de Datos. Requisitos Tener experiencia y/o conocimientos en análisis de Datos. Tener conocimientos básicos estadística, Minería de Datos y procesos de Inteligencia de Negocios. Conocimientos en el Lenguaje R como herramienta para el análisis de datos, inferencia estadística y modelado de aprendizaje automático. Currículum vitae.
Plan de Estudio La malla curricular del diplomado consta de tres (03) módulos y un trabajo o proyecto final, lo que representa un total de 160 horas académicas. Cada módulo tienen un componente teóricopráctico denominado "píldora de conocimiento", con sesiones virtuales y desarrollo de casos con el uso de herramientas orientadas al análisis avanzado de grandes volúmenes de datos sobre el proyecto Hadoop a traves de herramientas de gestión y análisis como Pig, R y RStudio, Gephi entre otras. El objetivo de cada módulo se presenta a continuación: Aula Virtual disponible 24 horas Pag 8
Plan de Estudio Fundamentos de Big Data y el proyecto Hadoop 30 horas Fundamentos de la programación MapReduce 45 horas Fundamentos de las bases de datos NoSQL 45 horas Desarrollo del Trabajo Final 40 horas Pag 9
Plan de estudio detallado Pag 10 Módulo 1: Fundamentos de la gestión de grandes volúmenes de datos o Big Data Proyecto Hadoop. Definiciones básicas Historia del Big Data Areas de aplicación Introducción al Proyecto Hadoop Almacenamento distribuido (HDFS) Procesamento distribuido (MapReduce) Arquitectura Hadoop. El ecosistema Hadoop y las herraminetas de: Coordinación Integración Análisis Almacenamiento Cloud Computing Módulo 2: Fundamentos de la programación bajo el paradigma MapReduce. Fundamentos de la computación paralela y distribuida El paradigma MapReduce Algunos ejemplos básicos Consultas y cruces de datos usando MapReduce Implementación de algorimos de análisis de datos con MapReduce Agrupamientos o clustering Regresión lineal Clasificación:
Plan de estudio detallado Regresión Logística Vecinos más cercanos Sistemas de recomendación Gerarquización con el método PageRank Fundamentos del Text-Mining y el Web-Mining Fundamentos del análisis de redes sociales Módulo 3: Fundamentos de las bases de datos no relacionales Introducción a las bases de datos NoSQL NoSQL o "no solo SQL" Fundamento de las bases de datos orientadas a columnas Tipos de bases de datos NoSQL Tipo clave-valor Orientadas a documento Bases de datos de grafos Fundamentos de HBASE Fundamentos de MongoDB Escalando bases de datos NoSQL en plataformas Hadoop Formulación, diseño y ejecución de un proyecto de Minería de Datos Módulo 4: Desarrollo del trabajo final Pag 11
+58 412-2817321 +58 212-6615291 contacto@diplomadosonline.com www. diplomadosonline.com Pag 12