CURSO: DESARROLLADOR PARA APACHE HADOOP
|
|
- Catalina Córdoba Martin
- hace 6 años
- Vistas:
Transcripción
1 CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 2: INTRODUCCIÓN A HADOOP
2 Índice 1 Qué es Big Data? 2 Qué es Hadoop? 3 Historia de Hadoop 4 Por qué utilizar Hadoop? 5 Core Hadoop 2
3 ÍNDICE Qué es Big Data?
4 Por Big Data nos referimos exactamente a lo que su propio nombre indica: al tratamiento y análisis de enormes repositorios de datos, tan desproporcionadamente grandes que resulta imposible tratarlos con las herramientas de bases de datos y analíticas convencionales. La tendencia se encuadra en un entorno que no nos suena para nada extraño: la proliferación de páginas web, aplicaciones de imagen y vídeo, redes sociales, dispositivos móviles, sensores, etc. capaces de generar, según IBM, más de 2.5 quintillones de bytes al día, hasta el punto de que el 90% de los datos del mundo han sido creados durante los últimos dos años. Hablamos de un entorno absolutamente relevante para muchos aspectos, desde el análisis de fenómenos naturales como el clima o de datos sismográficos, hasta entornos como salud, seguridad y por supuesto el ámbito empresarial. 4
5 El Big Data nace para solucionar estos problemas: Como almacenar y trabajar con grandes volúmenes de datos. Como poder interpretar y analizar estos datos de naturaleza muy dispar. Si miramos alrededor nuestro vemos que cualquier dispositivo que usamos genera datos. De esta gran cantidad de datos que tenemos a nuestro alcance, sólo el 20% se trata de información estructura y el 80% son datos no estructurados. Estos últimos añaden complejidad a la hora de almacenarlos y analizarlos. Hadoop aparece en el mercado como una solución para estos problemas, dando una forma de almacenar y procesar estos datos. 5
6 ÍNDICE Qué es Hadoop?
7 Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para el almacenamiento su sistema de ficheros propio (Hadoop Distributed File System (HDFS)) y para la realización de cálculos algoritmos de MapReduce. 7
8 ÍNDICE Historia de Hadoop
9 Hadoop se basa en el trabajo realizado por Google a finales de Específicamente en los documentos que describen el sistema de ficheros de Google (GFS) publicado en 2003 y MapReduce publicado en Este trabajo tiene un enfoque nuevo para el problema de la computación distribuida. Cumple con todos los requisitos para la fiabilidad y escalabilidad. Core: Distribuye los datos a medida que se almacenan inicialmente en el sistema. Los nodo pueden trabajar con los datos locales de los mismos. No se requiere la transferencia de datos a través de la red para el procesamiento inicial. 9
10 ÍNDICE Por qué utilizar Hadoop?
11 En la actualidad estamos generando más datos que nunca debido a las diferentes tecnologías que se están utilizando en el mercado. A continuación podemos observar los casos de uso más importantes que están generando esta gran cantidad de datos: -Transacciones financieras -Sensores de red -Servidores de logs -Análisis de datos -Correos y mensajes de texto -Redes sociales Los casos descritos anteriormente están generando continuamente datos (registros de logs, coordenadas GPS, análisis de navegaciones..). Por ejemplo, todos los días: Los usuarios de Facebook generan 2.7 billones de comentarios Twitter procesa 340 millones de mensajes 11
12 La tecnología Hadoop nos ayuda a afrontar los problemas que están surgiendo a la hora de procesar grandes cantidades de datos. Las principales razones de por qué utilizar Hadoop son las siguientes: Los datos empiezan a ser un cuello de botella: La potencia de procesamiento se duplica cada 2 años. La velocidad de procesamiento ya no es problema. Obtener los datos de los procesadores se convierte en el cuello de botella. Cálculo rápido: Velocidad típica de disco en transferencia de datos : 75 MB/sec Tiempo necesario para procesar 100G al procesador : aproximadamente 22 minutos! En la actualidad será peor ya que la mayoría de los servidores tienen menos de 100GB de ram disponibles. 12
13 Para Hadoop son muy importantes los dos factores que afectan al tiempo de leer un archivo en disco: El primer factor es la cantidad de tiempo para pasar la ubicación en disco donde están almacenados los datos solicitados (esto incluye tiempo de giro, el tiempo de búsqueda y latencia rotacional) y el segundo es la cantidad de tiempo que se tarda en leer los datos del disco (es decir, el tiempo de transferencia). El diseño de HDFS intenta minimizar los efectos de este último realizando esa acción la menor de veces posible, que es una razón por la que Hadoop es más eficiente cuando se trabaja con archivos de gran tamaño y también porqué el tamaño de los bloques en HDFS son más grande que en los de sistemas de archivos UNIX. Por último, HDFS supera las limitaciones de rendimiento de las unidades individuales e incluso ordenadores individuales dividiendo los archivos en bloques y escribiéndolos para poder ser leídos desde varias máquinas a la vez. 13
14 Problemas con los supercomputadores : - Gran capacidad de procesamiento para datos de tamaño pequeño - Necesitamos mayor procesamiento: Más RAM - Todo esto tiene dos limitaciones muy importantes: - Alto coste - Limitada escalabilidad Problemas con los sistemas distribuidos actuales (MPI, Condor..): - Envío de datos a través de la red para el procesamiento de los datos (cuello de botella) - Dificultad de desarrollo (sincronización, tolerancia a fallos, distribución paralela..) - Consistencia de datos - Disponibilidad de los datos 14
15 Hadoop soluciona todos los problemas y mejora todo lo visto referente a los sistemas actuales: Recuperación de datos: Si un componente del sistema falla, la carga de trabajo debe ser asumida por unidades que aún funcionen en el sistema. Un error no debe dar lugar a la pérdida de los datos. Con Hadoop, todo esto es posible. Recuperación de un componente: Si un componente del sistema falla, debe ser capaz de volver a unirse al sistema. En un sistema Hadoop, esto se realiza automáticamente sin la necesidad de reiniciar todo el sistema. Consistencia: Si se produce algún fallo de los componentes del sistema durante la ejecución de un trabajo, el resultado del mismo no se debe de ver afectado. Así como no podemos aceptar la pérdida de datos, tampoco podemos aceptar la corrupción de datos. Independientemente de si las máquinas fallan durante nuestro trabajo, el resultado del mismo seguirá siendo válido y preciso gracias a la utilización de un sistema Hadoop. 15
16 Escalabilidad: Una de las principales características de un sistema Hadoop es la escalabilidad. Añadir carga al sistema debe dar lugar a una disminución de rendimiento en los trabajos, pero nunca dar lugar a un fallo del sistema. Si aumentamos los recursos del sistema, obtenemos un aumento proporcional en la capacidad de carga de datos. Tolerancia a fallos en un sistema Hadoop: - Cuando se produce un error en uno de los nodos el maestro lo detecta y automáticamente reasigna el trabajo a un nodo diferente del sistema. - Reiniciar una tarea no requiere de la comunicación con los nodos que están ejecutando otras partes del trabajo. - Si se reinicia un nodo que ha fallado se añade automáticamente al sistema y se le a signa nuevas tareas. - Si un nodo parece estar funcionando lentamente el maestro puede ejecutar de forma redundante otra instancia de la misma tarea: Se utilizarán los resultados de la tarea que termine primero. A esto se le conoce como ejecución especulativa. HADOOP NOS HARÁ LIBRES! 16
17 ÍNDICE Core Hadoop
18 Hadoop es un sistema escalable para el procesamiento de datos. El core de Hadoop está formado por: - HDFS para el almacenamiento de los datos - MapReduce para el procesamiento de los datos: - MapReduce V1 - MapReduce V2 (YARN para la gestión de las tareas) En los siguientes capítulos, veremos con más detalle el funcionamiento del Core Hadoop y cada uno de sus componentes. 18
19 Hadoop se rodea de una gran variedad de herramientas para poder explotar al máximo su tecnología: - Procesamiento de datos en memoria: Spark - Análisis de datos: Hive, Pig y Impala - Indexación de datos: Solr - Machine learning: Mahout - Adquisición de datos: Sqoop y Flume - Coordinación: Zookeeper - Acceso cliente: Hue - Flujos de datos: Oozie - Base de datos No-SQL: Hbase En los siguientes capítulos, veremos con más detalle muchas de las herramientas descritas. 19
20 Las aplicaciones están escritas con código a nivel de gran altura: Al escribir programas MapReduce simplemente se le presentará con claves y valores. Como desarrollador, usted no tiene que escribir código para leer datos de los archivos, ni escribir datos en archivos. El desarrollador no tiene que preocuparse de escribir código por si se produce un fallo en la máquina. El código Hadoop proporciona toda esta infraestructura para usted, así puede centrarse simplemente en el código de la lógica de negocio. Los nodos se comunican entre sí lo menos posible: El desarrollador no tiene que preocuparse de escribir código para realizar la comunicación entre nodos. La replicación de los datos se realiza antes de la computación: La replicación de los datos está integrada en Hadoop y no necesita hardware caro (como raid). Además de la disponibilidad y la fiabilidad, la replicación de datos también mejora el rendimiento, ya que Hadoop tiene mayor probabilidad de ejecutar una tarea en el mismo nodo en el que se almacenan los datos, lo que produce un ahorro en el ancho de banda de la red. 20
21 El tamaño de bloque en HDFS Es enorme en comparación con el tamaño de un bloque en sistemas de archivos UNIX tradicionales. Esto se debe a que HDFS está optimizado para grandes bloques y para lectura en streaming con el fin de minimizar el impacto en el rendimiento del tiempo de búsqueda. Dado un tamaño de bloque de 64 MB, un archivo de 256MB se divide en 4 bloques. Estos es replicado en varios equipos (el factor de replicación predeterminado HDFS es 3). Hadoop intenta ejecutar la computación en los nodos que tienen los datos para evitar la necesidad de copiar los datos por la red en el momento de la computación. El tamaño del bloque recomendado por Cloudera es de 128MB. 21
22 Contacto TWITTER Twitter.com/formacionhadoop FACEBOOK Facebook.com/formacionhadoop LINKEDIN linkedin.com/company/formación-hadoop 22
CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com
CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido
Más detallesCURSO: CURSO APACHE SPARK
CURSO: CURSO APACHE SPARK Información detallada del curso www.formacionhadoop.com Este curso online está recomendado a desarrolladores que quieran aprender la tecnología de procesamiento de datos in-memory
Más detallesCURSO: APACHE SPARK CAPÍTULO 3: SPARK CONCEPTOS BÁSICOS.
CURSO: APACHE SPARK CAPÍTULO 3: SPARK CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Spark 2 3 Spark Shell 2.1 SparkContext Introducción a RDDs (Resilient Distributed Datasets) 3.1 Creación
Más detalleswww.consultec.es Introducción a Big Data
Introducción a Big Data Quiénes somos? Gorka Armen+a Developer garmen+a@consultec.es @joruus Iñaki Elcoro Developer ielcoro@consultec.es @iceoverflow Índice 1. Introducción 2. Qué no es Big Data? 3. Qué
Más detallesRAID CLASES O TIPOS. RAID 0 unión de discos físicos en paralelo.
RAID Los servidores son ordenadores de rendimiento continuo, por lo tanto de funcionamiento las 24 horas del día, los 365 (366) días al año. Para ello tienen redundancia de discos duros; RAID (Redundant
Más detallesArancha Pintado. Perfiles Big Data. www.madridschoolofmarketing.es
Arancha Pintado Perfiles Big Data www.madridschoolofmarketing.es De dónde venimos? De dónde venimos? Cuál es la diferencia? Si se supiera cómo tratar esa información, cómo "sacarle el jugo", eso proporcionaría
Más detallesCURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA
CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 48 horas. Se trata de un curso de verano en horario de tarde
Más detalles1. Almacenamiento redundante
ALTA DISPONIBILIDAD Los sistemas RAID los hacemos con un conjunto de discos. Por un lado hay RAID que valen para: *VELOCIDAD. Optimizan el rendimiento para conseguir velocidad. *SEGURIDAD. Si falla un
Más detallesAPACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López
APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop
Más detallesCURSO: DESARROLLADOR PARA APACHE HADOOP
CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios
Más detallesUNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA
UNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA Copyright(c) 2.014 Víctor Manuel Cano Arquero Todos los derechos reservados Pág. 1 / 10 Registro de Cambios
Más detallesAsumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio
Asumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio 1 Agenda Big data y NAS de escalamiento horizontal EMC Isilon La promesa
Más detallesHadoop. Cómo vender un cluster Hadoop?
Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las
Más detallesIntel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
Más detallesBIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO
BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca
Más detallesUniversidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Informe final de pasantía
Universidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Informe final de pasantía Desarrollo de Componentes de software para el procesamiento de servicios web
Más detallesMÁSTER: MÁSTER EXPERTO BIG DATA
MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster
Más detallesBIG DATA. Jorge Mercado. Software Quality Engineer
BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino
Más detallesPROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop
PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2.
Más detallesAlessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928
Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International
Más detallesMitos y Realidades del Big Data -Introducción al Big Data-
Jornada: Mitos y Realidades del Big Data -Introducción al Big Data- Urko Zurutuza Dpto. Electrónica e Informática Mondragon Goi Eskola Politeknikoa JMA Mondragon Unibertsitatea Agenda Introducción al Big
Más detallesPROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop
PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS
Más detallesCURSO: DESARROLLADOR PARA APACHE HADOOP
CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 1: INTRODUCCIÓN www.formacionhadoop.com Índice 1 Por qué realizar el curso de desarrollador para Apache Hadoop? 2 Requisitos previos del curso 3 Bloques
Más detallesCURSO PRESENCIAL: DESARROLLADOR BIG DATA
CURSO PRESENCIAL: DESARROLLADOR BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla durante 3 semanas de Lunes a Jueves. Se trata de un curso formato ejecutivo que permite
Más detallesArquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI
Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI- 100105-2014-192 Código: Fecha: 11/12/2014 Persona de Contacto: Carlos Vicente Corral
Más detallesBases de datos distribuidas Fernando Berzal, berzal@acm.org
Bases de datos distribuidas Fernando Berzal, berzal@acm.org Acceso a los datos Bases de datos relacionales: SQL O/R Mapping Bases de datos distribuidas Bases de datos NoSQL Bases de datos multidimensionales:
Más detallesSMV. Superintendencia del Mercado de Valores
DECENIO DE LAS PERSONAS CON DIAPACIDAD EN EL PERÚ - AÑO DE LA PROMOCIÓN DE LA INDUSTRIA RESPONSABLE Y DEL COMPROMISO CLIMÁTICO INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 009-2014-/09 SOFTWARE PARA
Más detallesEl ordenador. Llamamos ordenador a una máquina capaz de procesar información, es decir, de recibir datos, almacenarlos, hacer
El ordenador 1. Introducción al ordenador 1.1. El ordenador Llamamos ordenador a una máquina capaz de procesar información, es decir, de recibir datos, almacenarlos, hacer La ciencia que estudia el tratamiento
Más detallesBig Data con nombres propios
Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán
Más detallesBig data A través de una implementación
Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina
Más detallesCURSO PRESENCIAL: ADMINISTRADOR HADOOP
CURSO PRESENCIAL: ADMINISTRADOR HADOOP Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 4 semanas seguidas. Se trata de un curso formato ejecutivo que permite
Más detallesPROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO. DE GALLETA: se utilizaban en las board en los años 80 y 90.
PROCESADORES TIPOS DE PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO DE GALLETA: se utilizaban en las board en los años 80 y 90. DE PINES: reemplazaron los procesadores
Más detallesUnidad I Marco teórico sobre redes de computadoras
Unidad I Marco teórico sobre redes de computadoras Qué son las redes de computadoras? Una RED de computadoras es cualquier sistema de computación que enlaza dos o más computadoras. Conjunto de dispositivos
Más detallesThe H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql
The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en
Más detallesObjetivos. Objetivos. Arquitectura de Computadores. R.Mitnik
Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo
Más detallesWeb GIS y Big Data en los análisis de tendencias y comportamientos
Con mapas se dice mejor Web GIS y Big Data en los análisis de tendencias y comportamientos Edwin Roa Reinaldo Cartagena #esriccu Introducción Web GIS & Big Data Big Data para apoyar un nivel de toma de
Más detallesHerramientas Informáticas I Software: Sistemas Operativos
Herramientas Informáticas I Software: Sistemas Operativos Facultad de Ciencias Económicas y Jurídicas Universidad Nacional de La Pampa Sistemas Operativos. Es el software base que permite trabajar como
Más detallesSistema de archivos de Google. Mario Alonso Carmona Dinarte A71437
Sistema de archivos de Google Mario Alonso Carmona Dinarte A71437 Agenda - Introducción - Definición GFS - Supuestos - Diseño & Caracteristícas - Ejemplo funcionamiento (paso a paso) - Caracteristicas
Más detallesLusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Más detallesPROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop
PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS Y TELEMÁTICA
Más detallesISValue Portal c/pujades, Barcelona (Barcelona)
En NETGEAR, transformamos ideas en productos de red innovadores que conectan a las personas, impulsan los negocios y se anticipan al modo en que vivimos. Fácil de usar. Potente. Inteligente. Para uso empresarial
Más detallesFUNCIONAMIENTO DEL ORDENADOR
FUNCIONAMIENTO DEL ORDENADOR COMPUTACIÓN E INFORMÁTICA Datos de entrada Dispositivos de Entrada ORDENADOR PROGRAMA Datos de salida Dispositivos de Salida LOS ORDENADORES FUNCIONAN CON PROGRAMAS Los ordenadores
Más detallesBig Data & Machine Learning. MSc. Ing. Máximo Gurméndez Universidad de Montevideo
Big Data & Machine Learning MSc. Ing. Máximo Gurméndez Universidad de Montevideo Qué es Big Data? Qué es Machine Learning? Qué es Data Science? Ejemplo: Predecir origen de artículos QUÉ DIARIO LO ESCRIBIÓ?
Más detallesQué significa Hadoop en el mundo del Big Data?
Qué significa Hadoop en el mundo del Big Data? Un contenido para perfiles técnicos 2 ÍNDICE Qué significa Hadoop en el Universo Big Data?.... 3 El planteamiento: big data y data science.... 3 Los desafíos
Más detallesBig Data. Analisís de grandes cantidades de datos. Sergio Marchena Quirós
Big Data Analisís de grandes cantidades de datos Sergio Marchena Quirós Índice 1.0 Introducción...3 1.1 Objetivos del proyecto...3 1.1.1 Estudio Teórico...3 2.0 Big Data...3 2.1 las 5 V...3 2.2 Tipos de
Más detallesNuestro objetivo es ofrecer acceso remoto y control de cámara las 24 horas del día, 7 días a la semana. Dynamic Transcoding
Nuestro objetivo es ofrecer acceso remoto y control de cámara las 24 horas del día, 7 días a la semana Dynamic Transcoding 2 Dynamic Transcoding Acceso y control remoto 24 horas al día, 7 días a la semana,
Más detallesPREVIEW BIDOOP 2.0. Big Data Brunch
PREVIEW BIDOOP 2.0 Big Data Brunch 08 de Julio 2014 Quién soy? Trabajando con Hadoop desde 2010 sluangsay@pragsis.com @sourygna CTO de Pragsis Responsable departamento sistemas Preventa Instructor de Hadoop
Más detallesGeneración 1. Características. Estaban construidos con electrónica de válvulas. Se programaban en lenguaje de máquina.
Generación 1 La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era base de bulbos, o tubos de vació, y la comunicación era en términos
Más detallesAnálisis de sentimientos de tweets.
Análisis de sentimientos de tweets. JIT-CITA 2013 Resumen Un sensor de sentimientos de tweets para identificar los mensajes positivos, negativos y neutros sobre cualquier trend que se tome sobre esta red
Más detallesBig Data Analytics: propuesta de una arquitectura
Big Data Analytics: propuesta de una arquitectura Jonathan Solano Rodriguez y Estefany Leiva Valverde Escuela de Ingeniería, Universidad Latinoamericana de Ciencia y Tecnología, ULACIT, Urbanización Tournón,
Más detallesÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1
ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones
Más detallesBig Data y Seguridad
Big Data y Seguridad Introducción Análisis de datos y su proceso de madurez Se han analizado datos desde hace mucho tiempo, ahora la calidad y cantidad están aumentando. 2500 petabytes generados por día.
Más detallesAlta Disponibilidad en SQL Server: AlwaysOn
Alta Disponibilidad en SQL Server: AlwaysOn Ponente: Pablo F. Dueñas Campo Servicios Profesionales sp@danysoft.com 13 Encuentro Danysoft en Microsoft Abril 2016 Sala 3 Infraes - tructur Agenda Sala 3 Gestión
Más detallesTema 2 Introducción a la Programación en C.
Tema 2 Introducción a la Programación en C. Contenidos 1. Conceptos Básicos 1.1 Definiciones. 1.2 El Proceso de Desarrollo de Software. 2. Lenguajes de Programación. 2.1 Definición y Tipos de Lenguajes
Más detallesCAPITULO 1 INTRODUCCION AL PROYECTO
CAPITULO 1 INTRODUCCION AL PROYECTO 1 INTRODUCCION AL PROYECTO 1.1 Marco Teórico Los procesadores digitales de señales ganaron popularidad en los años sesentas con la introducción de la tecnología de estado
Más detallesCreación de un lago de datos multiprotocolo y con capacidad de analítica mediante Isilon
Creación de un lago de datos multiprotocolo y con capacidad de analítica mediante Isilon 1 Crecimiento de los datos no estructurados 67 % 74 % 80 % 2013 2015 2017 37 EB 71 EB 133 EB Capacidad total enviada
Más detallesConectores Pentaho Big Data Community VS Enterprise
Conectores Pentaho Big Data Community VS Enterprise Agosto 2014 Stratebi Business Solutions www.stratebi.com info@stratebi.com Índice 1. Resumen... 3 2. Introducción... 4 3. Objetivo... 4 4. Pentaho Community
Más detallesBig Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio?
Qué es Doopex? Big Data en la nube. Use los datos. Obtenga información. Seguramente, la pregunta clave no es Qué es Doopex?. La pregunta clave es: Qué puede hacer Doopex por mi negocio? El objetivo de
Más detallesFaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS
FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS Introducción Los algoritmos utilizados para el procesamiento de imágenes son de complejidad computacional alta. Por esto
Más detallesARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla
ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla Índice de contenido 1.- Qué es un ordenador?...3 2.-Hardware básico de un ordenador:...3 3.-Software...4 3.1.-Software
Más detalleshttp://www.flickr.com/photos/simon_and_you/1062318106 Objetivos! Introducción a tecnologías de almacenamiento y conceptos relacionados.! Revisar las diferentes soluciones disponibles en Open Storage! Demo
Más detallesComo Medir la velocidad del internet. Como Medir la velocidad del internet
Como Medir la velocidad del Como Medir la velocidad del En la actualidad el es una de las herramientas que utilizamos con mayor frecuencia cuando estamos en casa, en el trabajo a través de los dispositivos
Más detallesBig Data: retos a nivel de desarrollo. Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co
Big Data: retos a nivel de desarrollo Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co Cámara de Comercio de Bogotá Centro Empresarial Chapinero Agenda Introducción Bases de datos NoSQL Procesamiento
Más detallesUNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. ANEXO 16 REQUERIMIENTOS TÉCNICOS DE SERVICIO DE REINSTALACIÓN
UNIVERDAD MILITAR NUEVA GRANADA 1 REQUERIMIENTOS TÉCNICOS DE SERVICIO DE Uno de los requerimientos esenciales del proyecto en la migración y puesta en marcha de todos los servicios que actualmente soporta
Más detallesSoluciones a los problemas impares. Tema 5. Memorias. Estructura de Computadores. I. T. Informática de Gestión / Sistemas
Tema 5. Soluciones a los problemas impares Estructura de Computadores I. T. Informática de Gestión / Sistemas Curso 28-29 Tema 5 Hoja: 2 / 36 Tema 5 Hoja: 3 / 36 Base teórica La memoria es el lugar en
Más detallesLa memoria del ordenador
La memoria del ordenador Alberto Molina Coballes David Sánchez López Fundamentos de Hardware Diciembre 2011 La memoria Desde el punto de vista informático, memoria es todo dispositivo que es capaz de:
Más detallesIntroducción a los Sistemas Operativos
Introducción a los Sistemas Operativos Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria corcuerp@unican.es 1 Índice General Conceptos sobre ordenadores Concepto
Más detallesSISTEMAS OPERATIVOS Arquitectura de computadores
SISTEMAS OPERATIVOS Arquitectura de computadores Erwin Meza Vega emezav@unicauca.edu.co Esta presentación tiene por objetivo mostrar los conceptos generales de la arquitectura de los computadores, necesarios
Más detallesSoftware Libre para Aplicaciones de Big Data
Software Libre para Aplicaciones de Big Data Club de Investigación Tecnológica San José, Costa Rica 2014.07.16 Theodore Hope! hope@aceptus.com Big Data: Qué es?! Conjuntos de datos de: " Alto volumen (TBs
Más detallesNUBE PERSONAL DISCO DURO NO INCLUIDO. ascendeo Iberia - C. Les Planes 2-4 Polígono Fontsanta Sant Joan Despí Barcelona
ascendeo Iberia - C. Les Planes 2-4 Polígono Fontsanta 08970 Sant Joan Despí Barcelona NUBE PERSONAL DISCO DURO NO INCLUIDO TU NUBE PERSONAL TODOS SUS CONTENIDOS PROTEGIDOS, SINCRONIZADOS Y EN TODOS SUS
Más detallesPráctica : Instalación de Windows 2000 Server
Instalación de Windows 2000 Server 1 Práctica : Instalación de Windows 2000 Server Objetivos En este laboratorio, aprenderemos a: Instalar Windows 2000 como servidor miembro de un grupo de trabajo cuyo
Más detallesACERCA DE ODOO ERP. Resumen ejecutivo
Gestión de Ventas ACERCA DE ODOO ERP Odoo ERP ayuda a compañías de todos los tamaños y sectores a funcionar mejor. Ya sea desde la oficina de apoyo administrativo o la sala de reuniones del directorio,
Más detallesTema 1: Arquitectura de ordenadores, hardware y software
Fundamentos de Informática Tema 1: Arquitectura de ordenadores, hardware y software 2010-11 Índice 1. Informática 2. Modelo de von Neumann 3. Sistemas operativos 2 1. Informática INFORMación automática
Más detallesSeagate Dashboard Manual de usuario
Seagate Dashboard Manual de usuario Modelo: Haga clic aquí para acceder a una versión en línea actualizada de este documento. También encontrará el contenido más reciente, así como ilustraciones expandibles,
Más detallesEstructura del Computador
Estructura del Computador 1 definiciones preliminares Estructura: es la forma en que los componentes están interrelacionados Función: la operación de cada componente individual como parte de la estructura.
Más detallesMANUAL INSTALACIÓN Windows XP
MANUAL INSTALACIÓN Windows XP Scafandra Software Factory S.A. de C.V. Page 1 of 16 ÍNDICE INTRODUCCIÓN... 3 Manual de Instalación en Windows XP... 3 Instalación de Base de Datos... 4 Instalación Aplicación...14
Más detallesObjetos de aprendizaje: Computadora
MOMENTO I. BLOQUE 1. Opera las funciones básicas del sistema operativo y garantiza la seguridad de la información Objetos de aprendizaje: Computadora Lectura 1: La Computadora La computadora es una máquina
Más detallesIntroducción a las Bases de Datos
Introducción a las Bases de Datos Organización lógica de los datos Sistemas basados en archivos Concepto intuitivo de base de datos Sistemas gestores de bases de datos Definición Características y ventajas
Más detallesTecnologías Big Data. y su impacto en la organización
Tecnologías Big Data y su impacto en la organización Francisco Javier Antón Vique Presidente de la Fundación Big Data Madrid, 24 de abril de 2014 Modelos de crecimiento y tecnologías Entorno económico
Más detallesBig Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE)
Big Data y Supercómputo Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data 2 Hasta qué cantidad de datos podemos procesar en nuestra
Más detallesTEMA 1: Concepto de ordenador
TEMA 1: Concepto de ordenador 1.1 Introducción Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es completamente inútil. Para escribir estos programas necesitamos
Más detallesÍNDICE. 1. Requisitos de Hardware Arranque del front-end Arranque de los nodos Utilización de lam, OpenMPI y Ganglia...
ÍNDICE 1. Requisitos de Hardware...2 2. Arranque del front-end 2 3. Arranque de los nodos.4 4. Utilización de lam, OpenMPI y Ganglia....5 5. Cambio de configuración de red..7 1. REQUISITOS DE HARDWARE
Más detallesFUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II
FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom
Más detallesINTRODUCCIÓN. AnyDesk está disponible en 28 idiomas y es compatible con Windows, Mac y Linux.
INTRODUCCIÓN AnyDesk es la aplicación de escritorio remoto para usuarios particulares y empresas más rápida del mercado. Creada en Stuttgart (Alemania) por extrabajadores de TeamViewer), AnyDesk permite
Más detallesTema: Microprocesadores
Universidad Nacional de Ingeniería Arquitectura de Maquinas I Unidad I: Introducción a los Microprocesadores y Microcontroladores. Tema: Microprocesadores Arq. de Computadora I Ing. Carlos Ortega H. 1
Más detallesSISTEMA GPS CON KRONOS
SISTEMA GPS CON KRONOS "La evolución elimina las complicaciones que son compatibles con la eficiencia" Además del monitoreo de cualquier tipo de alarma usando cualquier medio de comunicación, Kronos tiene
Más detallesPROGRAMA FORMATIVO: BIG DATA DEVELOPER CON CLOUDERA APACHE HADOOP
PROGRAMA FORMATIVO: BIG DATA DEVELOPER CON CLOUDERA APACHE HADOOP Noviembre 2015 DATOS GENERALES DEL CURSO 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2. Denominación:
Más detallesPara tener en cuenta
Para tener en cuenta Puede ingresar por medio de un Computador Desktop (de escritorio); o un computador personal (portátil) sin importar el sistema operativo que este ejecutando, simplemente debe tener
Más detallesGlobal File System (GFS)...
Global File System (GFS)... Diferente a los sistemas de ficheros en red que hemos visto, ya que permite que todos los nodos tengan acceso concurrente a los bloques de almacenamiento compartido (a través
Más detallesAdjunto al presente le enviamos las fichas técnicas correspondientes a estos cursos. Jorge Cuevas Gerente de Formación
México, D.F., a 17 de Septiembre de 2012 Estimados, Lic. Raúl González Lic. Andrés Simón Bujaidar Mexico FIRST El objeto de la presente, es para informarle que respondiendo a las necesidades del mercado,
Más detallesIntroducción al Cloud Computing
Introducción al Cloud Computing Alberto Molina Coballes Jesús Moreno León José Domingo Muñoz Rodríguez IES Gonzalo Nazareno Dos Hermanas (Sevilla) Jornadas Cloud Computing con OpenStack como herramienta
Más detallesESTRUCTURA BÁSICA DE UN ORDENADOR
ESTRUCTURA BÁSICA DE UN ORDENADOR QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... Qué son los
Más detallesDeploying. Veremos a continuación los detalles de la Puesta en Producción y Publicación de aplicaciones para Smart Devices.
Deploying Veremos a continuación los detalles de la Puesta en Producción y Publicación de aplicaciones para Smart Devices. Hasta ahora hemos mencionado la aplicación que desarrollamos para una inmobiliaria,
Más detallesIntroducción a los Sistemas Operativos
Introducción a los Sistemas Operativos (primera parte) USB Agosto 2012 Introduccion Un ordenador moderno consiste de uno o más procesadores, alguna memoria principal, discos, impresoras, un teclado, una
Más detallesOPTEX EXCEL GRAPHIC USER INTERFACE (OPTEX-EXCEL-GUI) MANUAL DEL USUARIO
OPTEX EXCEL GRAPHIC USER INTERFACE (OPTEX-EXCEL-GUI) MANUAL DEL USUARIO ESTE DOCUMENTO CONTIENE INFORMACIÓN CONFIDENCIAL, PROPIEDAD INTELECTUAL DE DO ANALYTICS LLC. Y SE ENTREGA CON EL ENTENDIMIENTO DE
Más detallesInstituto Schneider Electric de Formación
Unity Pro & M340 Capítulo 1: Introducción a Unity Pro con Modicon M340 Introducción a Unity Pro A - Presentación de Unity Pro p. 3 B - Unity Pro p. 8 C - Consejos generales para desarrollar una aplicación
Más detallesSERIE DE C4000. Terminal de datos portátil al uso industrial. Reducción de costos laborales
SERIE DE C4000 Terminal de datos portátil al uso industrial Reducción de costos laborales www.chainway.net Liderar el futuro del lot ANDROID SYSTEM HANDHELD COMPUTER Sistema de Android Chainway C4000 emplea
Más detallesResolución de Nombres de Dominio, creación de los mismos y Empresas proveedoras de servicios de internet.
Resolución de Nombres de Dominio, creación de los mismos y Empresas proveedoras de servicios de internet. En redes de datos, los dispositivos son rotulados con direcciones IP numéricas para que puedan
Más detallesProceso de Informática y Sistemas Código IN-IS-05. Instructivo de Backup Servidor de Correo Electrónico Versión 2. Resolución de Aprobación N 205
Resolución de Aprobación N 205 del 28 de noviembre de 2008 Fecha Control de Cambios Descripción 28-11-2008 Adopción por resolución 205 de 2008 01-08-2011 modificación por resolución 319 de 2011 Autorizaciones
Más detallesGUÍA DE INSTALACIÓN Noviembre 3 de 2010
GUÍA DE INSTALACIÓN Noviembre 3 de 2010 Este manual de instrucciones es válido para el software Allievi Para obtener más información, vaya a www.allievi.es 2 GUÍA DE INSTALACIÓN ALLIEVI - Todos los derechos
Más detalles