CURSO: DESARROLLADOR PARA APACHE HADOOP

Tamaño: px
Comenzar la demostración a partir de la página:

Download "CURSO: DESARROLLADOR PARA APACHE HADOOP"

Transcripción

1 CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 2: INTRODUCCIÓN A HADOOP

2 Índice 1 Qué es Big Data? 2 Qué es Hadoop? 3 Historia de Hadoop 4 Por qué utilizar Hadoop? 5 Core Hadoop 2

3 ÍNDICE Qué es Big Data?

4 Por Big Data nos referimos exactamente a lo que su propio nombre indica: al tratamiento y análisis de enormes repositorios de datos, tan desproporcionadamente grandes que resulta imposible tratarlos con las herramientas de bases de datos y analíticas convencionales. La tendencia se encuadra en un entorno que no nos suena para nada extraño: la proliferación de páginas web, aplicaciones de imagen y vídeo, redes sociales, dispositivos móviles, sensores, etc. capaces de generar, según IBM, más de 2.5 quintillones de bytes al día, hasta el punto de que el 90% de los datos del mundo han sido creados durante los últimos dos años. Hablamos de un entorno absolutamente relevante para muchos aspectos, desde el análisis de fenómenos naturales como el clima o de datos sismográficos, hasta entornos como salud, seguridad y por supuesto el ámbito empresarial. 4

5 El Big Data nace para solucionar estos problemas: Como almacenar y trabajar con grandes volúmenes de datos. Como poder interpretar y analizar estos datos de naturaleza muy dispar. Si miramos alrededor nuestro vemos que cualquier dispositivo que usamos genera datos. De esta gran cantidad de datos que tenemos a nuestro alcance, sólo el 20% se trata de información estructura y el 80% son datos no estructurados. Estos últimos añaden complejidad a la hora de almacenarlos y analizarlos. Hadoop aparece en el mercado como una solución para estos problemas, dando una forma de almacenar y procesar estos datos. 5

6 ÍNDICE Qué es Hadoop?

7 Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para el almacenamiento su sistema de ficheros propio (Hadoop Distributed File System (HDFS)) y para la realización de cálculos algoritmos de MapReduce. 7

8 ÍNDICE Historia de Hadoop

9 Hadoop se basa en el trabajo realizado por Google a finales de Específicamente en los documentos que describen el sistema de ficheros de Google (GFS) publicado en 2003 y MapReduce publicado en Este trabajo tiene un enfoque nuevo para el problema de la computación distribuida. Cumple con todos los requisitos para la fiabilidad y escalabilidad. Core: Distribuye los datos a medida que se almacenan inicialmente en el sistema. Los nodo pueden trabajar con los datos locales de los mismos. No se requiere la transferencia de datos a través de la red para el procesamiento inicial. 9

10 ÍNDICE Por qué utilizar Hadoop?

11 En la actualidad estamos generando más datos que nunca debido a las diferentes tecnologías que se están utilizando en el mercado. A continuación podemos observar los casos de uso más importantes que están generando esta gran cantidad de datos: -Transacciones financieras -Sensores de red -Servidores de logs -Análisis de datos -Correos y mensajes de texto -Redes sociales Los casos descritos anteriormente están generando continuamente datos (registros de logs, coordenadas GPS, análisis de navegaciones..). Por ejemplo, todos los días: Los usuarios de Facebook generan 2.7 billones de comentarios Twitter procesa 340 millones de mensajes 11

12 La tecnología Hadoop nos ayuda a afrontar los problemas que están surgiendo a la hora de procesar grandes cantidades de datos. Las principales razones de por qué utilizar Hadoop son las siguientes: Los datos empiezan a ser un cuello de botella: La potencia de procesamiento se duplica cada 2 años. La velocidad de procesamiento ya no es problema. Obtener los datos de los procesadores se convierte en el cuello de botella. Cálculo rápido: Velocidad típica de disco en transferencia de datos : 75 MB/sec Tiempo necesario para procesar 100G al procesador : aproximadamente 22 minutos! En la actualidad será peor ya que la mayoría de los servidores tienen menos de 100GB de ram disponibles. 12

13 Para Hadoop son muy importantes los dos factores que afectan al tiempo de leer un archivo en disco: El primer factor es la cantidad de tiempo para pasar la ubicación en disco donde están almacenados los datos solicitados (esto incluye tiempo de giro, el tiempo de búsqueda y latencia rotacional) y el segundo es la cantidad de tiempo que se tarda en leer los datos del disco (es decir, el tiempo de transferencia). El diseño de HDFS intenta minimizar los efectos de este último realizando esa acción la menor de veces posible, que es una razón por la que Hadoop es más eficiente cuando se trabaja con archivos de gran tamaño y también porqué el tamaño de los bloques en HDFS son más grande que en los de sistemas de archivos UNIX. Por último, HDFS supera las limitaciones de rendimiento de las unidades individuales e incluso ordenadores individuales dividiendo los archivos en bloques y escribiéndolos para poder ser leídos desde varias máquinas a la vez. 13

14 Problemas con los supercomputadores : - Gran capacidad de procesamiento para datos de tamaño pequeño - Necesitamos mayor procesamiento: Más RAM - Todo esto tiene dos limitaciones muy importantes: - Alto coste - Limitada escalabilidad Problemas con los sistemas distribuidos actuales (MPI, Condor..): - Envío de datos a través de la red para el procesamiento de los datos (cuello de botella) - Dificultad de desarrollo (sincronización, tolerancia a fallos, distribución paralela..) - Consistencia de datos - Disponibilidad de los datos 14

15 Hadoop soluciona todos los problemas y mejora todo lo visto referente a los sistemas actuales: Recuperación de datos: Si un componente del sistema falla, la carga de trabajo debe ser asumida por unidades que aún funcionen en el sistema. Un error no debe dar lugar a la pérdida de los datos. Con Hadoop, todo esto es posible. Recuperación de un componente: Si un componente del sistema falla, debe ser capaz de volver a unirse al sistema. En un sistema Hadoop, esto se realiza automáticamente sin la necesidad de reiniciar todo el sistema. Consistencia: Si se produce algún fallo de los componentes del sistema durante la ejecución de un trabajo, el resultado del mismo no se debe de ver afectado. Así como no podemos aceptar la pérdida de datos, tampoco podemos aceptar la corrupción de datos. Independientemente de si las máquinas fallan durante nuestro trabajo, el resultado del mismo seguirá siendo válido y preciso gracias a la utilización de un sistema Hadoop. 15

16 Escalabilidad: Una de las principales características de un sistema Hadoop es la escalabilidad. Añadir carga al sistema debe dar lugar a una disminución de rendimiento en los trabajos, pero nunca dar lugar a un fallo del sistema. Si aumentamos los recursos del sistema, obtenemos un aumento proporcional en la capacidad de carga de datos. Tolerancia a fallos en un sistema Hadoop: - Cuando se produce un error en uno de los nodos el maestro lo detecta y automáticamente reasigna el trabajo a un nodo diferente del sistema. - Reiniciar una tarea no requiere de la comunicación con los nodos que están ejecutando otras partes del trabajo. - Si se reinicia un nodo que ha fallado se añade automáticamente al sistema y se le a signa nuevas tareas. - Si un nodo parece estar funcionando lentamente el maestro puede ejecutar de forma redundante otra instancia de la misma tarea: Se utilizarán los resultados de la tarea que termine primero. A esto se le conoce como ejecución especulativa. HADOOP NOS HARÁ LIBRES! 16

17 ÍNDICE Core Hadoop

18 Hadoop es un sistema escalable para el procesamiento de datos. El core de Hadoop está formado por: - HDFS para el almacenamiento de los datos - MapReduce para el procesamiento de los datos: - MapReduce V1 - MapReduce V2 (YARN para la gestión de las tareas) En los siguientes capítulos, veremos con más detalle el funcionamiento del Core Hadoop y cada uno de sus componentes. 18

19 Hadoop se rodea de una gran variedad de herramientas para poder explotar al máximo su tecnología: - Procesamiento de datos en memoria: Spark - Análisis de datos: Hive, Pig y Impala - Indexación de datos: Solr - Machine learning: Mahout - Adquisición de datos: Sqoop y Flume - Coordinación: Zookeeper - Acceso cliente: Hue - Flujos de datos: Oozie - Base de datos No-SQL: Hbase En los siguientes capítulos, veremos con más detalle muchas de las herramientas descritas. 19

20 Las aplicaciones están escritas con código a nivel de gran altura: Al escribir programas MapReduce simplemente se le presentará con claves y valores. Como desarrollador, usted no tiene que escribir código para leer datos de los archivos, ni escribir datos en archivos. El desarrollador no tiene que preocuparse de escribir código por si se produce un fallo en la máquina. El código Hadoop proporciona toda esta infraestructura para usted, así puede centrarse simplemente en el código de la lógica de negocio. Los nodos se comunican entre sí lo menos posible: El desarrollador no tiene que preocuparse de escribir código para realizar la comunicación entre nodos. La replicación de los datos se realiza antes de la computación: La replicación de los datos está integrada en Hadoop y no necesita hardware caro (como raid). Además de la disponibilidad y la fiabilidad, la replicación de datos también mejora el rendimiento, ya que Hadoop tiene mayor probabilidad de ejecutar una tarea en el mismo nodo en el que se almacenan los datos, lo que produce un ahorro en el ancho de banda de la red. 20

21 El tamaño de bloque en HDFS Es enorme en comparación con el tamaño de un bloque en sistemas de archivos UNIX tradicionales. Esto se debe a que HDFS está optimizado para grandes bloques y para lectura en streaming con el fin de minimizar el impacto en el rendimiento del tiempo de búsqueda. Dado un tamaño de bloque de 64 MB, un archivo de 256MB se divide en 4 bloques. Estos es replicado en varios equipos (el factor de replicación predeterminado HDFS es 3). Hadoop intenta ejecutar la computación en los nodos que tienen los datos para evitar la necesidad de copiar los datos por la red en el momento de la computación. El tamaño del bloque recomendado por Cloudera es de 128MB. 21

22 Contacto TWITTER Twitter.com/formacionhadoop FACEBOOK Facebook.com/formacionhadoop LINKEDIN linkedin.com/company/formación-hadoop 22

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido

Más detalles

CURSO: CURSO APACHE SPARK

CURSO: CURSO APACHE SPARK CURSO: CURSO APACHE SPARK Información detallada del curso www.formacionhadoop.com Este curso online está recomendado a desarrolladores que quieran aprender la tecnología de procesamiento de datos in-memory

Más detalles

CURSO: APACHE SPARK CAPÍTULO 3: SPARK CONCEPTOS BÁSICOS.

CURSO: APACHE SPARK CAPÍTULO 3: SPARK CONCEPTOS BÁSICOS. CURSO: APACHE SPARK CAPÍTULO 3: SPARK CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Spark 2 3 Spark Shell 2.1 SparkContext Introducción a RDDs (Resilient Distributed Datasets) 3.1 Creación

Más detalles

www.consultec.es Introducción a Big Data

www.consultec.es Introducción a Big Data Introducción a Big Data Quiénes somos? Gorka Armen+a Developer garmen+a@consultec.es @joruus Iñaki Elcoro Developer ielcoro@consultec.es @iceoverflow Índice 1. Introducción 2. Qué no es Big Data? 3. Qué

Más detalles

RAID CLASES O TIPOS. RAID 0 unión de discos físicos en paralelo.

RAID CLASES O TIPOS. RAID 0 unión de discos físicos en paralelo. RAID Los servidores son ordenadores de rendimiento continuo, por lo tanto de funcionamiento las 24 horas del día, los 365 (366) días al año. Para ello tienen redundancia de discos duros; RAID (Redundant

Más detalles

Arancha Pintado. Perfiles Big Data. www.madridschoolofmarketing.es

Arancha Pintado. Perfiles Big Data. www.madridschoolofmarketing.es Arancha Pintado Perfiles Big Data www.madridschoolofmarketing.es De dónde venimos? De dónde venimos? Cuál es la diferencia? Si se supiera cómo tratar esa información, cómo "sacarle el jugo", eso proporcionaría

Más detalles

CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA

CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA CURSO PRESENCIAL EN MADRID: ARQUITECTURAS BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 48 horas. Se trata de un curso de verano en horario de tarde

Más detalles

1. Almacenamiento redundante

1. Almacenamiento redundante ALTA DISPONIBILIDAD Los sistemas RAID los hacemos con un conjunto de discos. Por un lado hay RAID que valen para: *VELOCIDAD. Optimizan el rendimiento para conseguir velocidad. *SEGURIDAD. Si falla un

Más detalles

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios

Más detalles

UNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA

UNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA UNIDAD 1 ESTUDIO DE UNA APLICACIÓN DISTRIBUIDA: HADOOP HDFS PARA EL ALMACENAMIENTO DE BIG DATA Copyright(c) 2.014 Víctor Manuel Cano Arquero Todos los derechos reservados Pág. 1 / 10 Registro de Cambios

Más detalles

Asumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio

Asumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio Asumir el control de big data: soluciones de análisis y almacenamiento para obtener información de gran impacto sobre el negocio 1 Agenda Big data y NAS de escalamiento horizontal EMC Isilon La promesa

Más detalles

Hadoop. Cómo vender un cluster Hadoop?

Hadoop. Cómo vender un cluster Hadoop? Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca

Más detalles

Universidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Informe final de pasantía

Universidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Informe final de pasantía Universidad de Carabobo Facultad Experimental de Ciencias y Tecnología Departamento de Computación Informe final de pasantía Desarrollo de Componentes de software para el procesamiento de servicios web

Más detalles

MÁSTER: MÁSTER EXPERTO BIG DATA

MÁSTER: MÁSTER EXPERTO BIG DATA MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster

Más detalles

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2.

Más detalles

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928 Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International

Más detalles

Mitos y Realidades del Big Data -Introducción al Big Data-

Mitos y Realidades del Big Data -Introducción al Big Data- Jornada: Mitos y Realidades del Big Data -Introducción al Big Data- Urko Zurutuza Dpto. Electrónica e Informática Mondragon Goi Eskola Politeknikoa JMA Mondragon Unibertsitatea Agenda Introducción al Big

Más detalles

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 1: INTRODUCCIÓN www.formacionhadoop.com Índice 1 Por qué realizar el curso de desarrollador para Apache Hadoop? 2 Requisitos previos del curso 3 Bloques

Más detalles

CURSO PRESENCIAL: DESARROLLADOR BIG DATA

CURSO PRESENCIAL: DESARROLLADOR BIG DATA CURSO PRESENCIAL: DESARROLLADOR BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla durante 3 semanas de Lunes a Jueves. Se trata de un curso formato ejecutivo que permite

Más detalles

Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI

Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI Arquitectura de sistemas: Título: AnalyticsMOOC- Solución TIC Big Data para entornos MOOC Número de expediente: TSI- 100105-2014-192 Código: Fecha: 11/12/2014 Persona de Contacto: Carlos Vicente Corral

Más detalles

Bases de datos distribuidas Fernando Berzal, berzal@acm.org

Bases de datos distribuidas Fernando Berzal, berzal@acm.org Bases de datos distribuidas Fernando Berzal, berzal@acm.org Acceso a los datos Bases de datos relacionales: SQL O/R Mapping Bases de datos distribuidas Bases de datos NoSQL Bases de datos multidimensionales:

Más detalles

SMV. Superintendencia del Mercado de Valores

SMV. Superintendencia del Mercado de Valores DECENIO DE LAS PERSONAS CON DIAPACIDAD EN EL PERÚ - AÑO DE LA PROMOCIÓN DE LA INDUSTRIA RESPONSABLE Y DEL COMPROMISO CLIMÁTICO INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 009-2014-/09 SOFTWARE PARA

Más detalles

El ordenador. Llamamos ordenador a una máquina capaz de procesar información, es decir, de recibir datos, almacenarlos, hacer

El ordenador. Llamamos ordenador a una máquina capaz de procesar información, es decir, de recibir datos, almacenarlos, hacer El ordenador 1. Introducción al ordenador 1.1. El ordenador Llamamos ordenador a una máquina capaz de procesar información, es decir, de recibir datos, almacenarlos, hacer La ciencia que estudia el tratamiento

Más detalles

Big Data con nombres propios

Big Data con nombres propios Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán

Más detalles

Big data A través de una implementación

Big data A través de una implementación Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina

Más detalles

CURSO PRESENCIAL: ADMINISTRADOR HADOOP

CURSO PRESENCIAL: ADMINISTRADOR HADOOP CURSO PRESENCIAL: ADMINISTRADOR HADOOP Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 4 semanas seguidas. Se trata de un curso formato ejecutivo que permite

Más detalles

PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO. DE GALLETA: se utilizaban en las board en los años 80 y 90.

PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO. DE GALLETA: se utilizaban en las board en los años 80 y 90. PROCESADORES TIPOS DE PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO DE GALLETA: se utilizaban en las board en los años 80 y 90. DE PINES: reemplazaron los procesadores

Más detalles

Unidad I Marco teórico sobre redes de computadoras

Unidad I Marco teórico sobre redes de computadoras Unidad I Marco teórico sobre redes de computadoras Qué son las redes de computadoras? Una RED de computadoras es cualquier sistema de computación que enlaza dos o más computadoras. Conjunto de dispositivos

Más detalles

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en

Más detalles

Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik

Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo

Más detalles

Web GIS y Big Data en los análisis de tendencias y comportamientos

Web GIS y Big Data en los análisis de tendencias y comportamientos Con mapas se dice mejor Web GIS y Big Data en los análisis de tendencias y comportamientos Edwin Roa Reinaldo Cartagena #esriccu Introducción Web GIS & Big Data Big Data para apoyar un nivel de toma de

Más detalles

Herramientas Informáticas I Software: Sistemas Operativos

Herramientas Informáticas I Software: Sistemas Operativos Herramientas Informáticas I Software: Sistemas Operativos Facultad de Ciencias Económicas y Jurídicas Universidad Nacional de La Pampa Sistemas Operativos. Es el software base que permite trabajar como

Más detalles

Sistema de archivos de Google. Mario Alonso Carmona Dinarte A71437

Sistema de archivos de Google. Mario Alonso Carmona Dinarte A71437 Sistema de archivos de Google Mario Alonso Carmona Dinarte A71437 Agenda - Introducción - Definición GFS - Supuestos - Diseño & Caracteristícas - Ejemplo funcionamiento (paso a paso) - Caracteristicas

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS Y TELEMÁTICA

Más detalles

ISValue Portal c/pujades, Barcelona (Barcelona)

ISValue Portal c/pujades, Barcelona (Barcelona) En NETGEAR, transformamos ideas en productos de red innovadores que conectan a las personas, impulsan los negocios y se anticipan al modo en que vivimos. Fácil de usar. Potente. Inteligente. Para uso empresarial

Más detalles

FUNCIONAMIENTO DEL ORDENADOR

FUNCIONAMIENTO DEL ORDENADOR FUNCIONAMIENTO DEL ORDENADOR COMPUTACIÓN E INFORMÁTICA Datos de entrada Dispositivos de Entrada ORDENADOR PROGRAMA Datos de salida Dispositivos de Salida LOS ORDENADORES FUNCIONAN CON PROGRAMAS Los ordenadores

Más detalles

Big Data & Machine Learning. MSc. Ing. Máximo Gurméndez Universidad de Montevideo

Big Data & Machine Learning. MSc. Ing. Máximo Gurméndez Universidad de Montevideo Big Data & Machine Learning MSc. Ing. Máximo Gurméndez Universidad de Montevideo Qué es Big Data? Qué es Machine Learning? Qué es Data Science? Ejemplo: Predecir origen de artículos QUÉ DIARIO LO ESCRIBIÓ?

Más detalles

Qué significa Hadoop en el mundo del Big Data?

Qué significa Hadoop en el mundo del Big Data? Qué significa Hadoop en el mundo del Big Data? Un contenido para perfiles técnicos 2 ÍNDICE Qué significa Hadoop en el Universo Big Data?.... 3 El planteamiento: big data y data science.... 3 Los desafíos

Más detalles

Big Data. Analisís de grandes cantidades de datos. Sergio Marchena Quirós

Big Data. Analisís de grandes cantidades de datos. Sergio Marchena Quirós Big Data Analisís de grandes cantidades de datos Sergio Marchena Quirós Índice 1.0 Introducción...3 1.1 Objetivos del proyecto...3 1.1.1 Estudio Teórico...3 2.0 Big Data...3 2.1 las 5 V...3 2.2 Tipos de

Más detalles

Nuestro objetivo es ofrecer acceso remoto y control de cámara las 24 horas del día, 7 días a la semana. Dynamic Transcoding

Nuestro objetivo es ofrecer acceso remoto y control de cámara las 24 horas del día, 7 días a la semana. Dynamic Transcoding Nuestro objetivo es ofrecer acceso remoto y control de cámara las 24 horas del día, 7 días a la semana Dynamic Transcoding 2 Dynamic Transcoding Acceso y control remoto 24 horas al día, 7 días a la semana,

Más detalles

PREVIEW BIDOOP 2.0. Big Data Brunch

PREVIEW BIDOOP 2.0. Big Data Brunch PREVIEW BIDOOP 2.0 Big Data Brunch 08 de Julio 2014 Quién soy? Trabajando con Hadoop desde 2010 sluangsay@pragsis.com @sourygna CTO de Pragsis Responsable departamento sistemas Preventa Instructor de Hadoop

Más detalles

Generación 1. Características. Estaban construidos con electrónica de válvulas. Se programaban en lenguaje de máquina.

Generación 1. Características. Estaban construidos con electrónica de válvulas. Se programaban en lenguaje de máquina. Generación 1 La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era base de bulbos, o tubos de vació, y la comunicación era en términos

Más detalles

Análisis de sentimientos de tweets.

Análisis de sentimientos de tweets. Análisis de sentimientos de tweets. JIT-CITA 2013 Resumen Un sensor de sentimientos de tweets para identificar los mensajes positivos, negativos y neutros sobre cualquier trend que se tome sobre esta red

Más detalles

Big Data Analytics: propuesta de una arquitectura

Big Data Analytics: propuesta de una arquitectura Big Data Analytics: propuesta de una arquitectura Jonathan Solano Rodriguez y Estefany Leiva Valverde Escuela de Ingeniería, Universidad Latinoamericana de Ciencia y Tecnología, ULACIT, Urbanización Tournón,

Más detalles

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1 ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones

Más detalles

Big Data y Seguridad

Big Data y Seguridad Big Data y Seguridad Introducción Análisis de datos y su proceso de madurez Se han analizado datos desde hace mucho tiempo, ahora la calidad y cantidad están aumentando. 2500 petabytes generados por día.

Más detalles

Alta Disponibilidad en SQL Server: AlwaysOn

Alta Disponibilidad en SQL Server: AlwaysOn Alta Disponibilidad en SQL Server: AlwaysOn Ponente: Pablo F. Dueñas Campo Servicios Profesionales sp@danysoft.com 13 Encuentro Danysoft en Microsoft Abril 2016 Sala 3 Infraes - tructur Agenda Sala 3 Gestión

Más detalles

Tema 2 Introducción a la Programación en C.

Tema 2 Introducción a la Programación en C. Tema 2 Introducción a la Programación en C. Contenidos 1. Conceptos Básicos 1.1 Definiciones. 1.2 El Proceso de Desarrollo de Software. 2. Lenguajes de Programación. 2.1 Definición y Tipos de Lenguajes

Más detalles

CAPITULO 1 INTRODUCCION AL PROYECTO

CAPITULO 1 INTRODUCCION AL PROYECTO CAPITULO 1 INTRODUCCION AL PROYECTO 1 INTRODUCCION AL PROYECTO 1.1 Marco Teórico Los procesadores digitales de señales ganaron popularidad en los años sesentas con la introducción de la tecnología de estado

Más detalles

Creación de un lago de datos multiprotocolo y con capacidad de analítica mediante Isilon

Creación de un lago de datos multiprotocolo y con capacidad de analítica mediante Isilon Creación de un lago de datos multiprotocolo y con capacidad de analítica mediante Isilon 1 Crecimiento de los datos no estructurados 67 % 74 % 80 % 2013 2015 2017 37 EB 71 EB 133 EB Capacidad total enviada

Más detalles

Conectores Pentaho Big Data Community VS Enterprise

Conectores Pentaho Big Data Community VS Enterprise Conectores Pentaho Big Data Community VS Enterprise Agosto 2014 Stratebi Business Solutions www.stratebi.com info@stratebi.com Índice 1. Resumen... 3 2. Introducción... 4 3. Objetivo... 4 4. Pentaho Community

Más detalles

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio?

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio? Qué es Doopex? Big Data en la nube. Use los datos. Obtenga información. Seguramente, la pregunta clave no es Qué es Doopex?. La pregunta clave es: Qué puede hacer Doopex por mi negocio? El objetivo de

Más detalles

FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS

FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS Introducción Los algoritmos utilizados para el procesamiento de imágenes son de complejidad computacional alta. Por esto

Más detalles

ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla

ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla Índice de contenido 1.- Qué es un ordenador?...3 2.-Hardware básico de un ordenador:...3 3.-Software...4 3.1.-Software

Más detalles

http://www.flickr.com/photos/simon_and_you/1062318106 Objetivos! Introducción a tecnologías de almacenamiento y conceptos relacionados.! Revisar las diferentes soluciones disponibles en Open Storage! Demo

Más detalles

Como Medir la velocidad del internet. Como Medir la velocidad del internet

Como Medir la velocidad del internet. Como Medir la velocidad del internet Como Medir la velocidad del Como Medir la velocidad del En la actualidad el es una de las herramientas que utilizamos con mayor frecuencia cuando estamos en casa, en el trabajo a través de los dispositivos

Más detalles

Big Data: retos a nivel de desarrollo. Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co

Big Data: retos a nivel de desarrollo. Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co Big Data: retos a nivel de desarrollo Ing. Jorge Camargo, MSc, PhD (c) jcamargo@bigdatasolubons.co Cámara de Comercio de Bogotá Centro Empresarial Chapinero Agenda Introducción Bases de datos NoSQL Procesamiento

Más detalles

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. ANEXO 16 REQUERIMIENTOS TÉCNICOS DE SERVICIO DE REINSTALACIÓN

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. ANEXO 16 REQUERIMIENTOS TÉCNICOS DE SERVICIO DE REINSTALACIÓN UNIVERDAD MILITAR NUEVA GRANADA 1 REQUERIMIENTOS TÉCNICOS DE SERVICIO DE Uno de los requerimientos esenciales del proyecto en la migración y puesta en marcha de todos los servicios que actualmente soporta

Más detalles

Soluciones a los problemas impares. Tema 5. Memorias. Estructura de Computadores. I. T. Informática de Gestión / Sistemas

Soluciones a los problemas impares. Tema 5. Memorias. Estructura de Computadores. I. T. Informática de Gestión / Sistemas Tema 5. Soluciones a los problemas impares Estructura de Computadores I. T. Informática de Gestión / Sistemas Curso 28-29 Tema 5 Hoja: 2 / 36 Tema 5 Hoja: 3 / 36 Base teórica La memoria es el lugar en

Más detalles

La memoria del ordenador

La memoria del ordenador La memoria del ordenador Alberto Molina Coballes David Sánchez López Fundamentos de Hardware Diciembre 2011 La memoria Desde el punto de vista informático, memoria es todo dispositivo que es capaz de:

Más detalles

Introducción a los Sistemas Operativos

Introducción a los Sistemas Operativos Introducción a los Sistemas Operativos Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria corcuerp@unican.es 1 Índice General Conceptos sobre ordenadores Concepto

Más detalles

SISTEMAS OPERATIVOS Arquitectura de computadores

SISTEMAS OPERATIVOS Arquitectura de computadores SISTEMAS OPERATIVOS Arquitectura de computadores Erwin Meza Vega emezav@unicauca.edu.co Esta presentación tiene por objetivo mostrar los conceptos generales de la arquitectura de los computadores, necesarios

Más detalles

Software Libre para Aplicaciones de Big Data

Software Libre para Aplicaciones de Big Data Software Libre para Aplicaciones de Big Data Club de Investigación Tecnológica San José, Costa Rica 2014.07.16 Theodore Hope! hope@aceptus.com Big Data: Qué es?! Conjuntos de datos de: " Alto volumen (TBs

Más detalles

NUBE PERSONAL DISCO DURO NO INCLUIDO. ascendeo Iberia - C. Les Planes 2-4 Polígono Fontsanta Sant Joan Despí Barcelona

NUBE PERSONAL DISCO DURO NO INCLUIDO. ascendeo Iberia - C. Les Planes 2-4 Polígono Fontsanta Sant Joan Despí Barcelona ascendeo Iberia - C. Les Planes 2-4 Polígono Fontsanta 08970 Sant Joan Despí Barcelona NUBE PERSONAL DISCO DURO NO INCLUIDO TU NUBE PERSONAL TODOS SUS CONTENIDOS PROTEGIDOS, SINCRONIZADOS Y EN TODOS SUS

Más detalles

Práctica : Instalación de Windows 2000 Server

Práctica : Instalación de Windows 2000 Server Instalación de Windows 2000 Server 1 Práctica : Instalación de Windows 2000 Server Objetivos En este laboratorio, aprenderemos a: Instalar Windows 2000 como servidor miembro de un grupo de trabajo cuyo

Más detalles

ACERCA DE ODOO ERP. Resumen ejecutivo

ACERCA DE ODOO ERP. Resumen ejecutivo Gestión de Ventas ACERCA DE ODOO ERP Odoo ERP ayuda a compañías de todos los tamaños y sectores a funcionar mejor. Ya sea desde la oficina de apoyo administrativo o la sala de reuniones del directorio,

Más detalles

Tema 1: Arquitectura de ordenadores, hardware y software

Tema 1: Arquitectura de ordenadores, hardware y software Fundamentos de Informática Tema 1: Arquitectura de ordenadores, hardware y software 2010-11 Índice 1. Informática 2. Modelo de von Neumann 3. Sistemas operativos 2 1. Informática INFORMación automática

Más detalles

Seagate Dashboard Manual de usuario

Seagate Dashboard Manual de usuario Seagate Dashboard Manual de usuario Modelo: Haga clic aquí para acceder a una versión en línea actualizada de este documento. También encontrará el contenido más reciente, así como ilustraciones expandibles,

Más detalles

Estructura del Computador

Estructura del Computador Estructura del Computador 1 definiciones preliminares Estructura: es la forma en que los componentes están interrelacionados Función: la operación de cada componente individual como parte de la estructura.

Más detalles

MANUAL INSTALACIÓN Windows XP

MANUAL INSTALACIÓN Windows XP MANUAL INSTALACIÓN Windows XP Scafandra Software Factory S.A. de C.V. Page 1 of 16 ÍNDICE INTRODUCCIÓN... 3 Manual de Instalación en Windows XP... 3 Instalación de Base de Datos... 4 Instalación Aplicación...14

Más detalles

Objetos de aprendizaje: Computadora

Objetos de aprendizaje: Computadora MOMENTO I. BLOQUE 1. Opera las funciones básicas del sistema operativo y garantiza la seguridad de la información Objetos de aprendizaje: Computadora Lectura 1: La Computadora La computadora es una máquina

Más detalles

Introducción a las Bases de Datos

Introducción a las Bases de Datos Introducción a las Bases de Datos Organización lógica de los datos Sistemas basados en archivos Concepto intuitivo de base de datos Sistemas gestores de bases de datos Definición Características y ventajas

Más detalles

Tecnologías Big Data. y su impacto en la organización

Tecnologías Big Data. y su impacto en la organización Tecnologías Big Data y su impacto en la organización Francisco Javier Antón Vique Presidente de la Fundación Big Data Madrid, 24 de abril de 2014 Modelos de crecimiento y tecnologías Entorno económico

Más detalles

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE)

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data y Supercómputo Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data 2 Hasta qué cantidad de datos podemos procesar en nuestra

Más detalles

TEMA 1: Concepto de ordenador

TEMA 1: Concepto de ordenador TEMA 1: Concepto de ordenador 1.1 Introducción Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es completamente inútil. Para escribir estos programas necesitamos

Más detalles

ÍNDICE. 1. Requisitos de Hardware Arranque del front-end Arranque de los nodos Utilización de lam, OpenMPI y Ganglia...

ÍNDICE. 1. Requisitos de Hardware Arranque del front-end Arranque de los nodos Utilización de lam, OpenMPI y Ganglia... ÍNDICE 1. Requisitos de Hardware...2 2. Arranque del front-end 2 3. Arranque de los nodos.4 4. Utilización de lam, OpenMPI y Ganglia....5 5. Cambio de configuración de red..7 1. REQUISITOS DE HARDWARE

Más detalles

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom

Más detalles

INTRODUCCIÓN. AnyDesk está disponible en 28 idiomas y es compatible con Windows, Mac y Linux.

INTRODUCCIÓN. AnyDesk está disponible en 28 idiomas y es compatible con Windows, Mac y Linux. INTRODUCCIÓN AnyDesk es la aplicación de escritorio remoto para usuarios particulares y empresas más rápida del mercado. Creada en Stuttgart (Alemania) por extrabajadores de TeamViewer), AnyDesk permite

Más detalles

Tema: Microprocesadores

Tema: Microprocesadores Universidad Nacional de Ingeniería Arquitectura de Maquinas I Unidad I: Introducción a los Microprocesadores y Microcontroladores. Tema: Microprocesadores Arq. de Computadora I Ing. Carlos Ortega H. 1

Más detalles

SISTEMA GPS CON KRONOS

SISTEMA GPS CON KRONOS SISTEMA GPS CON KRONOS "La evolución elimina las complicaciones que son compatibles con la eficiencia" Además del monitoreo de cualquier tipo de alarma usando cualquier medio de comunicación, Kronos tiene

Más detalles

PROGRAMA FORMATIVO: BIG DATA DEVELOPER CON CLOUDERA APACHE HADOOP

PROGRAMA FORMATIVO: BIG DATA DEVELOPER CON CLOUDERA APACHE HADOOP PROGRAMA FORMATIVO: BIG DATA DEVELOPER CON CLOUDERA APACHE HADOOP Noviembre 2015 DATOS GENERALES DEL CURSO 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2. Denominación:

Más detalles

Para tener en cuenta

Para tener en cuenta Para tener en cuenta Puede ingresar por medio de un Computador Desktop (de escritorio); o un computador personal (portátil) sin importar el sistema operativo que este ejecutando, simplemente debe tener

Más detalles

Global File System (GFS)...

Global File System (GFS)... Global File System (GFS)... Diferente a los sistemas de ficheros en red que hemos visto, ya que permite que todos los nodos tengan acceso concurrente a los bloques de almacenamiento compartido (a través

Más detalles

Adjunto al presente le enviamos las fichas técnicas correspondientes a estos cursos. Jorge Cuevas Gerente de Formación

Adjunto al presente le enviamos las fichas técnicas correspondientes a estos cursos. Jorge Cuevas Gerente de Formación México, D.F., a 17 de Septiembre de 2012 Estimados, Lic. Raúl González Lic. Andrés Simón Bujaidar Mexico FIRST El objeto de la presente, es para informarle que respondiendo a las necesidades del mercado,

Más detalles

Introducción al Cloud Computing

Introducción al Cloud Computing Introducción al Cloud Computing Alberto Molina Coballes Jesús Moreno León José Domingo Muñoz Rodríguez IES Gonzalo Nazareno Dos Hermanas (Sevilla) Jornadas Cloud Computing con OpenStack como herramienta

Más detalles

ESTRUCTURA BÁSICA DE UN ORDENADOR

ESTRUCTURA BÁSICA DE UN ORDENADOR ESTRUCTURA BÁSICA DE UN ORDENADOR QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... Qué son los

Más detalles

Deploying. Veremos a continuación los detalles de la Puesta en Producción y Publicación de aplicaciones para Smart Devices.

Deploying. Veremos a continuación los detalles de la Puesta en Producción y Publicación de aplicaciones para Smart Devices. Deploying Veremos a continuación los detalles de la Puesta en Producción y Publicación de aplicaciones para Smart Devices. Hasta ahora hemos mencionado la aplicación que desarrollamos para una inmobiliaria,

Más detalles

Introducción a los Sistemas Operativos

Introducción a los Sistemas Operativos Introducción a los Sistemas Operativos (primera parte) USB Agosto 2012 Introduccion Un ordenador moderno consiste de uno o más procesadores, alguna memoria principal, discos, impresoras, un teclado, una

Más detalles

OPTEX EXCEL GRAPHIC USER INTERFACE (OPTEX-EXCEL-GUI) MANUAL DEL USUARIO

OPTEX EXCEL GRAPHIC USER INTERFACE (OPTEX-EXCEL-GUI) MANUAL DEL USUARIO OPTEX EXCEL GRAPHIC USER INTERFACE (OPTEX-EXCEL-GUI) MANUAL DEL USUARIO ESTE DOCUMENTO CONTIENE INFORMACIÓN CONFIDENCIAL, PROPIEDAD INTELECTUAL DE DO ANALYTICS LLC. Y SE ENTREGA CON EL ENTENDIMIENTO DE

Más detalles

Instituto Schneider Electric de Formación

Instituto Schneider Electric de Formación Unity Pro & M340 Capítulo 1: Introducción a Unity Pro con Modicon M340 Introducción a Unity Pro A - Presentación de Unity Pro p. 3 B - Unity Pro p. 8 C - Consejos generales para desarrollar una aplicación

Más detalles

SERIE DE C4000. Terminal de datos portátil al uso industrial. Reducción de costos laborales

SERIE DE C4000. Terminal de datos portátil al uso industrial. Reducción de costos laborales SERIE DE C4000 Terminal de datos portátil al uso industrial Reducción de costos laborales www.chainway.net Liderar el futuro del lot ANDROID SYSTEM HANDHELD COMPUTER Sistema de Android Chainway C4000 emplea

Más detalles

Resolución de Nombres de Dominio, creación de los mismos y Empresas proveedoras de servicios de internet.

Resolución de Nombres de Dominio, creación de los mismos y Empresas proveedoras de servicios de internet. Resolución de Nombres de Dominio, creación de los mismos y Empresas proveedoras de servicios de internet. En redes de datos, los dispositivos son rotulados con direcciones IP numéricas para que puedan

Más detalles

Proceso de Informática y Sistemas Código IN-IS-05. Instructivo de Backup Servidor de Correo Electrónico Versión 2. Resolución de Aprobación N 205

Proceso de Informática y Sistemas Código IN-IS-05. Instructivo de Backup Servidor de Correo Electrónico Versión 2. Resolución de Aprobación N 205 Resolución de Aprobación N 205 del 28 de noviembre de 2008 Fecha Control de Cambios Descripción 28-11-2008 Adopción por resolución 205 de 2008 01-08-2011 modificación por resolución 319 de 2011 Autorizaciones

Más detalles

GUÍA DE INSTALACIÓN Noviembre 3 de 2010

GUÍA DE INSTALACIÓN Noviembre 3 de 2010 GUÍA DE INSTALACIÓN Noviembre 3 de 2010 Este manual de instrucciones es válido para el software Allievi Para obtener más información, vaya a www.allievi.es 2 GUÍA DE INSTALACIÓN ALLIEVI - Todos los derechos

Más detalles