Tecnologías de Big Data para resultados en tiempo casi real

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tecnologías de Big Data para resultados en tiempo casi real"

Transcripción

1 DOCUMENTO TÉCNICO Procesadores Intel Xeon Unidades de disco de estado sólido Intel (Intel SSDs) Adaptadores de Red Convergente Intel Ethernet Distribución de Intel para el software Hadoop* Tecnologías de Big Data para resultados en tiempo casi real La infraestructura balanceada que redujo el tiempo de procesamiento de la carga de trabajo de cuatro horas a siete minutos 1 Las mejoras en los componentes de computación, almacenamiento, y redes ampliamente disponibles están mejorando con rapidez la capacidad de las organizaciones comerciales, académicas y gubernamentales para manejar Big Data efectivamente. Intel ha demostrado resultados sorprendentes a partir de los clusters optimizados y balanceados Hadoop* que incluyen los últimos procesadores Intel Xeon, el almacenamiento local de estado sólido, y los Adaptadores de Red Convergente Intel Ethernet de 10 gigabits. De hecho, las pruebas realizadas por Intel, actualizando estos componentes y usando la Distribución de Intel para el software Hadoop* (Distribución Intel ) redujo el tiempo requerido para clasificar un terabyte de datos usando la carga de trabajo del benchmark TeraSort de aproximadamente cuatro horas a alrededor de siete minutos. 1, 2 Estos resultados representan un progreso significativo en el análisis de datos en tiempo casi real a un costo significativamente inferior a lo que era posible en el pasado con implementaciones de hardware y software propietarios. Los ahorros drásticos en costos y la eficiencia mejorada son aspectos vitales que facilitan el potencial completo de las tecnologías de Big Data. Este artículo demuestra cómo se lograron los resultados, a modo de guía para los tomadores de decisiones de TI y otros que consideren dónde invertir para lograr resultados óptimos de los ambientes Hadoop*. También introduce algunos de los beneficios disponibles de la Distribución de Intel para el software Hadoop preoptimizado llave en mano. Usando las recomendaciones que presentamos aquí, las organizaciones pueden trabajar hacia el desempeño óptimo dentro de los requerimientos presupuestarios para cargas de trabajo y circunstancias específicas. Balancear los recursos de computación, almacenamiento y de red en el cluster Hadoop* permitió materializar el beneficio completo de los últimos procesadores Intel, las unida des de estado sólido, los Adaptadores de Red Convergente Intel Ethernet de 10 gigabits, y la Distribución de Intel para el software Hadoop*. Construir una infraestructura balanceada con base en estos componentes permitió reducir el tiempo que necesita Intel para completar la carga de trabajo de la prueba del benchmark TeraSort de aproximadamente cuatro horas a alrededor de siete minutos, una reducción de cerca del 97 por ciento. 1 Resultados como éste de las tecnologías Big Data allanan el camino para análisis de datos de bajo costo en tiempo casi real que ayudará a las empresas a responder casi instantáneamente a las cambiantes condiciones de mercado y a aprovechar más sus activos. 1

2 Índice 1 Herramientas en evolución para administrar Big Data Presentando a Hadoop*: Un marco de código robusto para generar valor con Big Data El ecosistema de la industria de las tecnologías de Big Data Estableciendo el balance entre componentes críticos Avances en los recursos de computación Avances en tecnología de almacenamiento Avances en redes Una distribución optimizada de Hadoop de Intel El rol de la 10GbE y otros factores que aceleran los flujos de trabajo de Hadoop Optimiziando la etapa de importación Optimizando la etapa de procesamiento: El camino de cuatro horas a siete minutos Optimizando la etapa de exportación Descripción del ambiente de investigación Consideraciones sobre el ajuste y la optimización Optimizaciones de las funciones de red, sistemas operativos y controladores Parámetros de configuración de Hadoop Mejoras futuras Conclusión Herramientas en evolución para administrar Big Data Los enormes almacenes de datos son ya parte de la realidad para las organizaciones de todo tipo y tamaño. La capacidad de manipular, transformar, y aprovechar estos datos que, a menudo, son Big Data no estructurados- se está convirtiendo rápidamente en la norma, y las herramientas y técnicas para lograrlo son cada vez más comunes. El uso de marcos como Hadoop es generalizado, y las organizaciones de TI están cada vez más construyendo ambientes de computación que manejen Big Data. 1.1 Presentando a Hadoop*: Un marco de código robusto para generar valor con Big Data Hadoop es un marco de software de código abierto escrito en Java* y basado en MapReduce* de Google y en trabajo de sistema de archivo distribuido. Está construido para soportar aplicaciones distribuidas analizando grandes volúmenes de datos utilizando clusters de servidores, transformándolos para que sean más usables por estas aplicaciones. Hadoop está diseñado para implementarse en infraestructuras comúnmente disponibles de propósito general. Las tareas para las cuales este marco es especialmente apropiado incluyen la indexación y clasificación de grandes conjuntos de datos, minería de datos, análisis de logaritmos, y manipulación de imágenes. Las partes clave del marco Hadoop incluyen lo siguiente: Hadoop Distributed File System (HDFS*) logra tolerancia a las fallas y alto desempeño distribuyendo los datos en bloques y diseminándolos en grandes números de nodos trabajadores. MapReduce Engine de Hadoop s acepta trabajos de aplicaciones y divide estos trabajos en tareas que asigna a diferentes nodos trabajadores. 1.2 El ecosistema de la industria de las tecnologías de Big Data Un gran ecosistema de soluciones de las cuales Hadoop es sólo una parte- ha sido diseñado para derivar el máximo valor de Big Data. Otro componente clave son las bases de datos NoSQL ( No sólo SQL ), que existen como alternativa (o complemento) a los sistemas de administración de bases de datos relacionales basadas en tablas (RDBMSs). A diferencia de las RDBMSs, las bases de datos NoSQL no están basadas principalmente en tablas. Esa característica las torna menos eficientes que las RDBMSs por la funcionalidad que depende de las relaciones entre elementos de datos, pero más agilizadas para manejar grandes cantidad de datos donde esas relaciones no tengan una importancia central. Mientras que los datos estructurados pueden almacenarse en bases de datos NoSQL, estos sistemas son especialmente aptos para manejar datos no estructurados y, en particular, para proporcionar alta escalabilidad y desempeño para recuperar y anexar esos datos en grandes cantidades. A medida que ha cobrado importancia el rol de las tecnologías de Big Data en el centro de datos, las soluciones de código abierto como Hadoop son cada vez más importantes y están cada vez mejor desarrolladas, gracias al trabajo realizado por una combinación de entidades comerciales y no comerciales. Las bases de datos de alto perfil NoSQL en el ecosistema Hadoop incluyen Cassandra*, HBase*, y MongoDB*. Además de Hadoop, otros ejemplos de tecnologías de Big Data comprenden desde Disco Project*, que es fácil de usar y de código abierto para la cual los desarrolladores escriben trabajos usando el scripting Python*, hasta la SAP HANA* realtime data platform, un ambiente de escala empresarial concentrado en la inteligencia de negocios y usos relacionados. Todas estas innovaciones de la industria están siendo desarrolladas y optimizadas para las plataformas basadas en el procesador Intel Xeon. El presente documento se concentra en Hadoop como un ejemplo de construcción

3 de sistemas para procesar Big Data debido a su presencia generalizada y de rápido crecimiento en los ambientes comerciales, de investigación y académicos. 2 Estableciendo el balance entre componentes críticos Mientras que los clusters Hadoop se construyen típicamente de componentes tradicionales generalmente disponibles, eso no reduce los desafíos asociados con la selección y asociación de dichos Rastreador de tareas del nodo de datos Red Intel Ethernet de 10 gigabits componentes para lograr el máximo beneficio. La principal consideración es la creación de un balance en el ambiente entre los recursos de computación, almacenamiento, y red, como ilustra la Figura 1. Antes de abocarse a estrategias específicas para decidir respecto de las combinaciones de los componentes para su cluster, es útil considerar el estado de la tecnología generalmente disponible para cada categoría, como se muestra en la Tabla 1. Después de Computación Familia Intel Xeon E5 Rastreador de trabajos del nodo de nombre Almacenamiento Intel Solid-State Drives Figura 1. Balance entre recursos de computación, red, y almacenamiento para resultados óptimos de Hadoop*. establecer qué tipos de recursos son los deseables, la discusión se concentrará en cómo un cluster Hadoop aprovecha estos recursos, antes de describir el rol de la red Ethernet de 10 gigabits (10GbE) en distribuir los beneficios de cada uno. 2.1 Avances en los recursos de computación La arquitectura de la plataforma introducida con la familia E5 del procesador Intel Xeon aprovecha mejor los recursos a lo largo del grupo de soluciones, en comparación con las plataformas de generaciones anteriores. Por ejemplo, mayor número de núcleos, de seis núcleos (12 subprocesos de hardware) a ocho núcleos (16 subprocesos de hardware) por socket, aumenta la posibilidad de manejar un grado mayor de paralelismo, lo que es especialmente beneficioso para las cargas de trabajo Hadoop intensivas en datos. Intel Data Direct I/O Technology (Intel DDIO) es una nueva característica de la familia E5 de procesadores Intel Xeon que permite a los Controladores Intel Ethernet y a los adaptadores hablar directamente con la caché en lugar de la memoria principal, lo que ayudará a aumentar el ancho de banda y a bajar la latencia, lo que es sumamente beneficioso a la hora de procesar grandes conjuntos de datos. Tabla 1. Actualizaciones en todo el grupo de soluciones Hadoop* para una infraestructura balanceada de alto desempeño. COMPUTACIÓN ALMACENAMIENTO RED Bueno Procesadores Intel Xeon de generaciones anteriores Discos duros giratorios convencionales Adaptadores de servidor Intel Ethernet Gigabit Mejor Familia Intel Xeon E5 Almacenamiento en niveles (convencional más unidades de estado sólido) Adaptadores de red convergente Intel Ethernet de 10 gigabits El mejor Familia Intel Xeon E5 Todas unidades de estado sólido Adaptadores de red convegente Intel Ethernet de 10 gigabits 3

4 2.2 Avances en tecnología de almacenamiento Las unidades de estado sólido solidstate drives (SSDs) representan un cambio importante en el almacenamiento persistente de PCs cliente y servidores tradicionales. Eliminar las partes electromecánicas de las unidades de disco duro convencionales (HDDs), como los discos giratorios y cabezales de lectura/escritura, es un factor clave para proporcionar mejor tiempo de acceso a datos y menor latencia. La unidad Intel Solid-State Drive (Intel SSD) serie 520 utilizada en la prueba descripta en este documento está disponible en una amplia gama de capacidades, ofreciendo características de protección de datos incorporada y mejoras de desempeño excepcionales en comparación con las unidades HDD 3 convencionales. Construidas con memoria Flash NAND Intel de 25 nanómetros y calidad de computación, las unidades Intel SSD serie 520 ofrecen desempeño de lectura aleatoria de hasta operaciones de entrada/salida por segundo (IOPS) 4 y un desempeño de lectura secuencial de hasta 550 megabytes por segundo (MB/s). 5 Como transición entre los discos duros convencionales y los SSD, es cada día más común que las organizaciones aprovisionen servicios con ambos tipos de unidades de disco en la misma máquina. En este escenario, los SSD funcionan como dispositivos de caché de datos de alta velocidad, reduciendo la necesidad de lecturas y escrituras de las unidades HDD convencionales, mejorando el desempeño general. 2.3 Avances en redes Durante años las velocidades de cable de los componentes de red han avanzado continua y regularmente, junto con las tecnologías complementarias que agregan valor como mayor rendimiento, y mejor costo-efectividad y flexibilidad. La principal consideración del presente estudio es la transición de Gigabit Ethernet (1GbE) a 10GbE. Los Controladores Intel Ethernet y los Adaptadores de Red Convergente han permitido reducir el costo de las redes Ethernet de 10 GB. A su vez, la mayor implementación de virtualización y aplicaciones ávidas de ancho de banda como data analytics y video por demanda han conducido a una adopción más generalizada de la Ethernet de 10GB, estableciendo un círculo virtuoso donde los beneficios relacionados con el costo y la adopción más frecuente de la misma continúan retroalimentándose. Los controladores de software Intel Ethernet han sido optimizados para implementaciones de Big Data; por ejemplo, han sido diseñados para minimizar la interferencia de E/S con el procesamiento de datos de Hadoop. El Adaptador de Red Convergente Intel X540 es una solución BASE-T de 10GB de bajo costo y bajo consumo, compatible con versiones anteriores de redes existentes 1000BASE-T usando cables de cobre Categoría 6 y Categoría 6A. El Controlador Intel Ethernet X540 reduce tanto el costo inicial como los Sqoop Intercambio de datos Flume Recopilador de registros Zookeeper Coordinación Provisto por Intel Administrador Intel para el software Hadoop Implementación, Configuración, Monitoreo, Alertas, y Seguridad Oozie Flujo de trabajo Pig Scripting Mahout 0.7 Máquina de aprendizaje Conectores R Estadísticas YARN (MRv2) Marco de procesamiento distribuido HDFS Hadoop Distributed File System Mejoras por Intel incorporadas al código abierto requerimientos energéticos integrando MAC y PHY en una solución de un solo chip. El Adaptador de Red Convergente Intel Ethernet X520 ofrece conectividad SFP+ para 10GbE usando redes de cobre o fibra óptica. 2.4 Una distribución optimizada de Hadoop de Intel La Distribución de Intel ayuda a agilizar y mejorar la implementación de Hadoop en la infraestructura basada en arquitectura Intel. Es la única distribución construida desde el silicón en adelante para permitir la más amplia gama de análisis de datos en Hadoop, y es la primera con desempeño mejorado por hardware y capacidades de seguridad. La solución incluye el marco Hadoop, MapReduce, Hadoop Distributed File System (HDFS), y otros componentes relacionados para soportar tanto el procesamiento en lotes como el análisis en tiempo casi real, incluyendo la infraestructura de almacenamiento de datos Hive*, el lenguaje de flujo de datos Pig*, y la base de datos HBase. Los componentes incluidos en la Distribución de Intel se muestran en la Figura 2. Hive Consulta SQL HBase Almacenamiento en columnas Componentes de código abierto incluidos sin cambio Figura 2. Los componentes en la Distribución de Intel para el software Hadoop*. 4

5 La Distribución Intel proporciona guías de ajuste y optimización basadas en experiencias reales, así como también asistentes de configuración y otras herramientas de implementación automatizada. El Administrador Intel para el software Hadoop* proporciona instalación automatizada y nodos de cluster de Hadoop, así como también capacidades de administración, monitoreo, y diagnóstico en tiempo real usando tableros poderosos e intuitivos, como se muestra en la Figura 3. La Distribución Intel también ofrece a los clientes abundantes recursos de capacitación, además de asistencia en el diseño del sistema, implementación, personalización, y sintonización. También se encuentra disponible el soporte empresarial 24 horas al día, los 7 días de la semana para satisfacer las necesidades de las organizaciones y las personas cuyo éxito depende de altos niveles de actividad del cluster. Figura 3. Tablas de indicadores para simplificar la instalación y la configuración. 3 El rol de la 10GbE y otros factores que aceleran los flujos de trabajo de Hadoop Las mejoras en capacidad de administrar Big Data continúa acercándonos al análisis en tiempo real en ambientes convencionales. Usando hardware y software comunes en el centro de datos, estamos mejorando las soluciones que llevan horas o incluso días para derivar valor de los datos fuente. Mejorar los resultados en este contexto requiere consideración de todo el flujo de trabajo, incluyendo el punto donde los datos ingresan al sistema, los mecanismos para procesarlos, y las tareas asociadas con volver a exportar los datos procesados del sistema. En consecuencia, puede considerarse que el flujo de trabajo de Hadoop consiste en tres etapas: 1. Importación. El primer paso al utilizar Hadoop para derivar una respuesta de un gran conjunto de datos consiste en transmitir los datos de una aplicación a HDFS. Los datos pueden importarse en modo de secuencia o de lote. 2. Procesamiento. Una vez que los datos se importan a HDFS, Hadoop manipula esos datos para extraer valor de los mismos. El motor MapReduce acepta los trabajos de las aplicaciones a través de su nodo JobTracker (Rastreador de Trabajos), que divide el trabajo en tareas más pequeñas que asigna a los nodos TaskTracker (Rastreadores de Tareas). Las operaciones típicas incluyen ordenamiento, búsqueda, o análisis. TeraSort es un benchmark estándar de Hadoop basado en una carga de trabajo ordenadora de datos. 1 En nuestro ambiente de prueba, usamos TeraGen para generar realmente un conjunto de datos. 5

6 3. Exportar. Después de completar las operaciones sobre los datos en la etapa de procesamiento, los resultados se ponen a disposición de las aplicaciones. Este modelo demuestra el valor de 10GbE a lo largo del flujo de trabajo de Hadoop, a pesar de que las demandas relativas de estas tres etapas comparadas entre sí varían significativamente según la naturaleza del trabajo realizado. Para dar un ejemplo sencillo, puede esperarse que una carga de trabajo que incluye la compresión de datos de gran escala tenga una carga de trabajo mayor para importar datos que para volver a exportarlos en formato comprimido. Igualmente, algunas tareas consumen más recursos computacionales que otras, a pesar de que las cantidades de datos sobre los que trabajan podrían ser similares. Las recomendaciones de ajuste y optimización y los servicios de soporte asociados con la Distribución Intel pueden servir para identificar el mejor enfoque para necesidades específicas. a medida que los datos se importan al sistema. Migrar de 1GbE a 10GbE produce una mejora de hasta 4x en el desempeño de las operaciones de importación usando HDDs convencionales con escrituras paralelas y una mejora de hasta 6x usando SSDs. 1 La mayor mejora con SSDs puede atribuirse a escrituras más rápidas en el subsistema de almacenamiento usando la memoria no volátil. 3.2 Optimizando la etapa de procesamiento: El camino de cuatro horas a siete minutos Las pruebas de Intel usaron una carga de trabajo TeraSort de 1 terabyte (TB) distribuida en 10 nodos de datos con un nodo de nombre. A fin medir el beneficio de actualizar diferentes recursos, se compilaron los resultados antes y después de migrar el cluster Intel Xeon serie 5600 a la familia de productos, seguido por una actualización de unidades HDD convencionales a unidades SSD, y finalmente de 1GbE a 10GbE. Estas actualizaciones de hardware dieron como resultado una reducción del tiempo de procesamiento de aproximadamente cuatro horas a alrededor de 12 minutos. Implementando la Distribución Intel se logró reducir el tiempo de procesamiento aún más, a aproximadamente siete minutos. En conjunto, este mejor desempeño refleja una reducción de casi un 97 por ciento en el tiempo requerido para la etapa de procesamiento. El primer cambio de hardware probado fue una actualización Intel Xeon X5690 al procesador Intel Xeon E Como se ilustra en la Figura 4, la actualización redujo el tiempo requerido para ordenar conjuntos de datos de 1 TB a aproximadamente la mitad, de 250 minutos a 125 minutos Optimizando la etapa de importación La etapa de importación dentro de este modelo consiste simplemente en colocar datos en HDFS para procesamiento. Ese proceso siempre ocurrirá al menos una vez, y en algunos casos particularmente donde MapReduce se vende como servicio- muchas importaciones podrían ser necesarias. Esta etapa y el factor de replicación de Hadoop someten al sistema a demandas intensas de desempeño y de red, en términos tanto de funciones de red como de E/S de almacenamiento. Las funciones de red de la 10GbE han permitido satisfacer estas demandas Hadoop* Antes Adaptadores de servidores Intel Ethernet Gigabit Unidades de disco duro convencionales Procesador Intel Xeon Serie Hadoop Después Adaptadores de servidores Intel Ethernet Gigabit Unidades de disco duro convencionales Actualización del procesador: ~50% Reducción del tiempo 125 Figura 4. Actualización a la familia de productos : mejora de velocidad en la etapa de procesamiento de aproximadamente un 50 por ciento. 1 6

7 Trabajando con este masivo conjunto de datos, la capacidad de acceder a datos no secuenciales rápidamente es una consideración de desempeño clave. Por lo tanto, para reducir cualquier cuello de botella de almacenamiento existente, la siguiente actualización probada fue para reemplazar las unidades HDD convencionales por unidades SSD, aprovechando sus tiempos de lectura aleatoria drásticamente superiores. Construyendo sobre la previa mejora de desempeño derivada de la actualización, cambiar de unidades HDD convencionales a las unidades Intel SSD serie 520 redujo el tiempo para completar la carga de trabajo en aproximadamente otro 80 por ciento, de alrededor de 125 minutos a alrededor de 23 minutos, como se muestra en la Figura 5. 7 Para aquellos clientes interesados en combinar unidades HDD convencionales y unidades SSD en el mismo servidor, Intel ofrece Intel Cache Acceleration Software. Este modelo de almacenamiento en niveles proporciona algunos de los beneficios de desempeño de las unidades SSD a un costo de adquisición menor, pero además de las diferencias de desempeño comparadas con una configuración de SSD solamente, este enfoque también sacrifica algunos de los beneficios de confiabilidad disponibles en el caso de las unidades SSD. Sin embargo, este modelo de almacenamiento ofrece a los clientes otra opción a medida que avanzan hacia la adopción completa de las unidades SSD reduce drásticamente el tiempo que se necesita para pasar de datos a información clara. Las pruebas también revelaron que cuando se instalan cinco unidades SSD por nodo de tarea, el marco Hadoop puede ejecutar suficientes tareas Map simultáneas para generar una E/S paralela para cada SSD y utilizar los procesadores al casi 100 por ciento. 8 Este estado permite un desempeño altamente optimizado de las tareas Map. Configurar los indicadores io.sort.mb e io.sort.record.percent flags adecuadamente evitó derrames de salida Map intermedios y lecturas y escrituras excesivas de disco. Cada tarea Map que procesa un bloque de Hadoop* Antes Adaptadores de servidores Intel Ethernet Gigabit Unidades de disco duro convencionales 125 Hadoop Después Intel Ethernet Gigabit Server Adapters Intel Solid-State Drive 520 Series Actualización a SSDs: ~80% Reducción del tiempo 23 Figura 5. Actualización del almacenamiento a unidades de estado sólido; mejora de velocidad en la etapa de procesamiento de aproximadamente un 80 por ciento. 7 datos de 128 MB se completa en menos de 10 segundos y genera 128 MB de salida. Ejecutar 32 tareas Map en paralelo permite a cada nodo de tarea generar más de 5 Gb/s. 8 La naturaleza distribuida y de gran escala de las cargas de trabajo Hadoop convierte la E/S de red en un aspecto vital del desempeño general en cada etapa en el flujo de trabajo, la 10GbE es una solución económica y escalable que ayuda a reducir tiempos de espera para los datos. Tener una red 10GbE con alto ancho de banda no sólo permite que los datos sean importados y exportados del cluster rápidamente, sino que también mejora la fase de orden aleatorio de la carga de trabajo TeraSort que debe acelerarse. Usar vínculos 10GbE entre los nodos Map y Reduce Hadoop* Antes Adaptadores de servidores Intel Ethernet Gigabit Unidad de estado sólido Intel Solid-State serie permite que los nodos Reduce atrapen los datos rápidamente, ayudando a mejorar el tiempo general de ejecución de trabajos y el desempeño del cluster. Actualizar el hardware del cluster de 1GbE a 10GbE para construir sobre las actualizaciones y el almacenamiento redujo el tiempo de procesamiento de la carga de trabajo de prueba en hasta un 50 por ciento adicional, de alrededor de 23 minutos a alrededor de 12 minutos, como se muestra en la Figura 6. 9 Usar in terconexiones 10GbE y unidades SSD permitió ejecutar más de 100 tareas de reductor concurrentes en el cluster de prueba de 10 nodos, exhibiendo buen escalamiento de trabajos y elevada utilización de recursos. 5 Hadoop Después Adaptadores de red convergente Intel Ethernet de 10 Gigabit Unidad de estado sólido Intel serie 520 Actualización a 10GbE: ~50% Reducción del tiempo 12 Figura 6. Actualización de funciones de red a 10 Gigabit Ethernet; mejora de velocidad en la etapa de procesamiento de aproximadamente un 50 por ciento. 9 7

8 Además de las actualizaciones de hardware ya descriptas, la Distribución Intel proporciona una interfaz intuitiva y muchas optimizaciones bajo el capó, incluyendo compresión de datos avanzada, selección dinámica de réplica para HDFS, y aceleración de MapReduce. Esta ingeniería adicional contribuye a proporcionar ganancias de desempeño y, junto al soporte confiable de grado empresarial de Intel, ayuda a los clientes a implementar más rápidamente y mantener con éxito un ambiente Hadoop. Implementar la Distribución Intel además de las actualizaciones de hardware redujo los requerimientos de tiempo de terminación de la carga de trabajo en hasta aproximadamente otro 40 por ciento, de alrededor de 12 minutos a alrededor de 7 minutos, como se muestra en la Figura Optimizando la etapa de exportación De manera similar a la etapa de importación, 10GbE beneficia significativamente el desempeño de extraer los datos del sistema después del procesamiento, en particular en conjunto con la actualización de las unidades HDD convencionales a las unidades SSD. Las pruebas convencionales con las unidades HDD convencionales revelaron un significativo cuello de botella en la etapa de exportación del flujo de trabajo de Hadoop debido a búsquedas aleatorias en el disco. Reemplazar el almacenamiento local con unidades SSD eliminó esta deficiencia, permitiendo resultados que estaban en línea con aquellos que vimos en la etapa de importación. Usando unidades SSD vimos otra vez una mejora en el desempeño de hasta 6 veces en 10GbE en comparación con 1GbE, mejorando drásticamente los requerimientos de tiempo para toda la operación a lo largo de la carga de trabajo. Como se describió anteriormente, usar unidades SSD y 10GbE también mejora el beneficio de altos niveles Hadoop* Antes Adaptadores de red convergente Intel Ethernet de 10 Gigabit Unidad de estado sólido Intel Solid-State serie de recursos de procesador, enfatizando el beneficio de balancear los recursos en el cluster de Hadoop. 4 Descripción del ambiente de investigación El banco de prueba de Hadoop utilizado para generar los resultados informados en este documento incluyó un nodo cabezal (nodo de nombre, rastreador de trabajos), 10 trabajadores (nodos de datos, rastreadores Después Distribución de Intel para el software Hadoop* Adaptadores de red convergente Intel Ethernet de 10 Gigabit Unidad de estado sólido Intel serie 520 Implementar distribución de Intel para el software Hadoop*: ~40% Reducción del tiempo 7 Figura 7. Implementación de Distribución de Intel para el software Hadoop*; mejora de velocidad en la etapa de procesamiento de aproximadamente un 40 por ciento. 10 Tabla 2. Componentes del nodo trabajador comparados en el ambiente de prueba COMPARACIÓN DE PROCESADOR Y SISTEMA BASE COMPARACIÓN DE ALMACENAMIENTO COMPARACIÓN DE ADAPTADOR DE RED COMPARACIÓN DE SOFTWARE Componentes básicos Servidores 1U SuperMicro SYS-1026T-URF con dos procesadores Intel Xeon 3.47 GHz, 48 GB de RAM Unidades de disco duro SATA de 700 GB y 7200 RPM Adaptador de servidor Intel Ethernet I350-T2 (Gigabit Ethernet) Hadoop* Componentes actualizados Servidores 2U Dell PowerEdge* R720 con dos procesadores Intel Xeon 2.90 GHz,128 GB de RAM Unidad de estado sólido Intel Solid-State serie 520 Adaptador de Red Convergente Intel Ethernet X520-DA2 (10 Gigabit Ethernet) Distribución de Intel para el software Hadoop

9 de tareas), y un switch Cisco Nexus* 5020 de 10 gigabits. Los diferentes componentes básicos y actualizados del nodo trabajador que se comparan en la prueba se detallan en la Tabla Consideraciones sobre el ajuste y la optimización Además de actualizar los componentes de red y considerar el uso de la Distribución Intel, las organizaciones que trabajan para maximizar el valor que obtienen de tecnologías de Big Data deben considerar las configuraciones y los ajustes en el conjunto de la red y el ambiente del software Hadoop mismo. Mientras que el alcance potencial de las configuraciones y los ajustes es abrumador, las mejores prácticas sugieren que los ingenieros deben prestar especial atención a las consideraciones enumeradas en esta sección para obtener el valor óptimo. 5.1 Optimizaciones de las funciones de red, sistemas operativos y controladores. En el conjunto del sistema operativo y redes, el número de archivos abiertos, conexiones de red abiertas, y procesos de ejecución en cualquier momento deben ajustarse de acuerdo con las necesidades de la carga de trabajo específica. Los controladores Intel 10GbE Linux* también deben ser optimizados ajustando el número de colas RSS (dos fue el número óptimo en la prueba descripta en este documento), y el número de switches de contexto deben reducirse ajustando el regulador de interrupciones. En el conjunto del sistema operativo, la red y TCP/IP, caben destacarse los siguientes ajustes, optimizaciones, y prácticas: Aumentar el límite de archivos abiertos en el sistema operativo. Hadoop inherentemente abre grandes números de archivos, por lo que aumentar el límite de archivos abiertos concurrentes reduce los errores de trabajos; la prueba de Intel encontró que 32K es suficiente. Aumentar el límite de procesos concurrentes también ayudar a reducir los errores de trabajos. Aumentar el número de conexiones pendientes y solicitudes SYN pendientes. El HDFS de Hadoop y el motor MapReduce abren grandes números de conexiones TCP/IP de corta duración. En las configuraciones de Intel, este ajuste se aumenta a , reduciendo el tiempo de espera para HDFS y las comunicaciones MapReduce. Si no se requiere compartir otros recursos además de la carga de trabajo Hadoop, considere aumentar el tamaño máximo de la ventana TCP/ IP y escalar hasta 16 MB. Donde sea posible, este enfoque ayuda a maximizar el valor de la inversión en 10GbE. Si hubiera suficiente memoria de sistema disponible, aumente los tamaños del búfer de envío y recepción TCP/IP. Este cambio puede mejorar el rendimiento de la red. En el cluster de prueba de Intel, los valores máximos fueron configurados a 16 MB. Desactive el ACK selectivo de TCP/ IP cuando el ancho de banda se encuentre prontamente disponible. Cuando están activados los ACK selectivos, la respuesta a solicitudes del cliente pueden demorarse, degradando el desempeño en términos de ejecución de trabajos y el tiempo de terminación; desactivarlos ayuda a mejorar el tiempo general de respuesta del servidor y el desempeño de trabajos de Hadoop. Use JBOD para almacenamiento. Hadoop tiene incorporado el balance de carga y usa rondas eficientes entre HDFS y Discos JBOD para MapReduce disponibles. Usar RAID con unidades SSD y almacenamiento rápido limita el rendimiento del almacenamiento y el desempeño general de los trabajos. En su lugar, use Discos del tipo JBOD para HDFS y MapReduce, dado que ambos incluyen funcionalidad incorporada para balance de carga entre múltiples discos JBOD. 5.2 Parámetros de configuración de Hadoop Dentro de los más de 200 parámetros de configuración disponibles dentro del conjunto Hadoop, comenzando con el siguiente subconjunto de consideraciones de ajuste pueden ayudar a los equipos de ingeniería a asignar sus esfuerzos eficientemente: Las configuraciones de memoria para las tareas de Java virtual machine (JVM). Cada tarea Map y Reduce se ejecuta en una instancia JVM independiente. Se puede especificar la cantidad de memoria que cada tarea Map y Reduce puede asignar, usando los parámetros de configuración mapred.map.child.java.opts y mapred.reduce.child.java.opts para las tareas Map y Reduce, respectivamente. El cluster de prueba de Intel fija el montón de tareas Map en 512 MB y el montón de tareas Reduce en 1,5 GB. - Los requerimientos de memoria para las tareas Map dependerán de cuánta salida está siendo generada de cada Map. Un tamaño de bloque de 128 MB con aplicaciones de ordenamiento requiere alrededor de 200 MB para almacenar registros intermedios sin ningún derrame. Esta memoria puede administrarse usando parámetros de configuración 9

10 que siguen los ejemplos io.sort. mb=200mb, io.sort.record. percent=.15, e io.sort.spill. percent= El uso de la memoria para tareas Reduce también puede ajustarse. La prueba de Intel sugiere que las configuraciones predeterminadas para la mayoría de los parámetros son óptimos, a pesar de que mapred. job.reduce.input.buffer.percent se puede cambiar a 0,7 de manera que el reductor no necesite vaciar la memoria antes de comenzar la fusión final. Número de tareas Map y Reduce concurrentes. En los procesadores Intel, el número óptimo de tareas Map tiende a ser el número de núcleos lógicos, y el número de reductores debería ser igual al número de núcleos físicos. Estas configuraciones pueden fijarse usando los parámetros mapred.tasktracker. map.tasks.maximum y mapred. tasktracker.reduce.tasks.maximum. Recuento de indicadores de solicitudes NameNode y DataNodes y recuento de subprocesos. Si están disponibles suficientes recursos de computación y memoria en NameNode, el número de indicadores de subprocesos en NameNode puede aumentarse a 100 o más para que sea compatible con números más grandes de solicitudes concurrentes. Aumentar el recuento de indicadores para DataNodes también puede ser útil, especialmente si se están utilizando unidades SSD o almacenamiento rápido. Reducir la latencia de red para las comunicaciones de IPC entre nodos. Configure ipc.server.tcpnodelay e ipc. client.tcpnodelay en verdadero. Frecuencia de latidos entre rastreadores de trabajos y tareas. La frecuencia predeterminada de latidos es de 3 segundos. Para trabajos más pequeños donde cada tarea Map se completa más rápidamente, esta configuración podría demorar las notificaciones de finalización de la tarea y la programación de nuevas tareas. Configurar mapreduce.tasktracker. outofband.heartbeat para que envíe indicaciones inmediatas de finalización de trabajos puede mejorar el desempeño del trabajo. Ajustar la frecuencia de los latidos usando los parámetros mapreduce.tasktracker.outofband. heartbeat.damper también puede aportar beneficios. Ejecuciones de tareas especulativas. Hadoop puede programar las mismas tareas en múltiples nodos como salvaguarda contra falla de nodo o ejecución demorada. Esta práctica es útil cuando se aprovecha los recursos no utilizados, pero no cuando el cluster se está ejecutando a la máxima capacidad. Por lo tanto, desactivar las ejecuciones de tareas especulativas es a veces aconsejable, en particular en presencia de procesamiento, almacenamiento y recursos de red de alto desempeño. Compresión de salida Map intermedia. Activar la compresión de la salida Map intermedia puede ayudar a mejorar el desempeño en un cluster que está limitado por almacenamiento o desempeño de red. Adviértase que al usar 10GbE y unidades SSD, comprimir la salida puede proporcionar muy poca o nada de mejora. Tamaño del bloque HDFS. El tamaño óptimo de los bloques HDFS es específico para la carga de trabajo, pero los tamaños de bloque más grandes a menudo no generan un mejor desempeño, porque pueden causar una carga extra sobre la memoria y tienden a ocasionar derrames intermedios en la fase Map. Al mismo tiempo, los tamaños de bloque más pequeños crean un gasto extra para las tareas más pequeñas y más paralelas. En la prueba de Intel, el tamaño del bloque de 128 MB arrojó el mejor desempeño general para el benchmark TeraSort. 5.3 Mejoras futuras Como se describió en este trabajo Intel ha podido producir enormes ventajas de desempeño usando los últimos procesadores Intel Xeon, unidades SSD, y los Adaptadores de Red Convergente Intel Ethernet de 10 gigabits, así como también la Distribución de Intel para el software Hadoop*. Se espera que las mejoras en curso con todos estos componentes produzcan ulteriores beneficios relacionados con el desempeño en implementaciones de Big Data. Una amplia variedad de mejoras de software está siendo considerada para Hadoop y otras tecnologías de Big Data. Un ejemplo es la posibilidad de acelerar la capa de transporte reemplazando la comunicación entre nodos basada en HTTP por otras opciones más optimizadas, mejorando el rendimiento general sin agregar recursos físicos. Esta mejora de software, entre otras, es un área continua de investigación en Intel. Los clusters de Hadoop virtualizados y preconstruidos para business analytics y otros usos de Big Data representan otra área prometedora de investigación y desarrollo, con una serie de potenciales beneficios, como los siguientes: Reducir la complejidad de implementar ambientes Hadoop Compilar las mejores prácticas para configurar los recursos virtualizados, sin ajuste manual Facilitar ambientes multipropósito construidos sobre tecnologías Big Data 10

11 6 Conclusión La capacidad de almacenar y analizar grandes cantidad de datos no estructurados promete oportunidades continuas para empresas, instituciones académicas, y organizaciones gubernamentales. Intel ha demostrado mediante esta investigación que es posible lograr ganancias significativas en el desempeño gracias a Hadoop mediante una infraestructura balanceada basada en componentes de hardware bien seleccionados y el uso de la Distribución Intel para el software Hadoop*. Los resultados descriptos en este artículo son parte de un cuerpo grande y creciente de investigación realizado en Intel y en otros lugares en la industria a fin de identificar las mejores prácticas para construir y operar clusters Hadoop y otras soluciones de Big Data, así como para desarrollar y ajustar software que se ejecute óptimamente en estos ambientes. Este avance continúa ayudando a guiar la industria de la computación hacia implementaciones simplificadas de bajo costo para impulsar el futuro del análisis generalizado en tiempo real. 11

12 Conozca más visitando las siguientes páginas (en inglés): hadoop.intel.com Benchmarks TeraSort realizados por Intel en diciembre de Configuraciones peronalizadas: mapred.reduce.tasks=100 y mapred.job.reuse.jvm.num.tasks=-1. Para obtener más información: 2 Configuración del cluster: Un nodo cabezal (nodo de nombre, rastreador de trabajos), 10 trabajadores (nodos de datos, rastreadores de tareas), switch Cisco Nexus* Gigabit. Nodo trabajador básico: servidores 1U SuperMicro SYS- 1026T-URF con dos procesadores Intel Xeon 3.47 GHz, 48 GB de RAM, unidades de disco duro SATA de 700 GB y 7200 RPM, Adaptador de servidor Intel Ethernet I350-T2, Hadoop* 1.0.3, Red Hat Enterprise Linux* 6.3, Oracle Java* 1.7.0_05. Procesador y sistema base actualizados en nodo trabajador: servidores 2U Dell PowerEdge* R720 con dos procesadores Intel Xeon 2.90 GHz, 128 GB de RAM. Almacenamiento actualizado en nodo trabajador: Intel Solid-State Drive serie 520. Adaptador de red actualizado en nodo trabajador: Adaptador de Red Convergente Intel Ethernet X520-DA2. Software actualizado en nodo trabajador: Distribución Intel para el software Hadoop* Intel Solid-State Drive serie 520 no se encuentra validada actualmente para uso en centro de datos. 4 El desempeño de la unidad de estado sólido varía por capacidad. 5 Desempeño medido usando Iometer* con Queue Depth 32. Pruebas realizados en diciembre de Nodo trabajador base: servidores 1U SuperMicro SYS-1026T-URF 1U con dos procesadores Intel Xeon 3.47 GHz, 48 GB de RAM, unidades de disco duro SATA de 700 GB y 7200 RPM, Adaptador de servidor Intel Ethernet I350-T2, Hadoop* 1.0.3, Red Hat Enterprise Linux* 6.3, Oracle Java* 1.7.0_05. Procesador y sistema base actualizados en nodo trabajador: servidores 2U Dell PowerEdge* R720 con dos procesadores Intel Xeon 2.90 GHz, 128 GB de RAM, unidades de disco duro SATA de 700 GB y 7200 RPM. 7 Almacenamiento base: unidades de disco duro SATA de 700 GB y 7200 RPM, almacenamiento actualizado: unidades de estado sólido Intel Solid-State Drive serie Fuente: prueba interna de Intel, diciembre de Adaptador de red base: Adaptador de servidor Intel Ethernet I350-T2, adaptador de red actualizado: Adaptador de Red Convergente Intel Ethernet X520-DA2. 10 Software actualizado en nodo trabajador: Distribución Intel para el software Hadoop* El software y las cargas de trabajo utilizadas en las pruebas de desempeño podrían haber sido optimizadas para desempeño únicamente en microprocesadores Intel. Las pruebas de desempeño, como SYSmark y MobileMark, se miden utilizando sistemas de computación, componentes, software, operaciones y funciones específicos. Cualquier cambio en alguno de estos factores puede dar lugar a que los resultados varíen. Debe consultar otra información y pruebas de desempeño que lo ayuden a evaluar en forma completa sus compras contempladas, incluido el desempeño de ese producto cuando se lo combina con otros productos. Para obtener más información, visite: Los resultados están basados en pruebas internas de Intel, usando datos de prueba de benchmarks y software de terceros. Intel no controla ni audita el diseño o la implementación de los datos de benchmarks o sitios Web de terceros a los que se hace referencia en este documento. Intel recomienda a todos sus clientes visitar los sitios Web a los que se hace referencia u otros donde se publiquen datos de benchmarks de desempeño similares, y confirmar si los datos de los benchmarks citados son precisos y reflejan el desempeño de los sistemas disponibles para la compra. Los compiladores de Intel pueden o no optimizarse al mismo nivel para los microprocesadores que no son de Intel para optimizaciones que no son exclusivas para los microprocesadores Intel. Estas optimizaciones incluyen SSE2, SSE3, y conjuntos de instrucciones SSE3 y otras optimizaciones. Intel no garantiza la disponibilidad, funcionalidad o efectividad de cualquier optimización de microprocesadores no fabricados por Intel. Las optimizaciones dependientes del microprocesador en este producto han sido diseñadas para uso en microprocesadores Intel. Ciertas optimizaciones no específicas de la microarquitectura Intel están reservadas para microprocesadores Intel. Consulte las Guías de Usuario y Referencia de producto correspondientes para obtener más información sobre los conjuntos específicos de instrucciones que cubre esta notificación: Revisión de la notificación # LA INFORMACIÓN EN ESTE DOCUMENTO SE SUMINISTRA EN RELACIÓN CON PRODUCTOS INTEL. ESTE DOCUMENTO NO OTORGA NINGUNA LICENCIA, NI EXPRESA NI IMPLÍCITA, NI POR EXCLUSIÓN, NI DE NINGUNA OTRA MANERA, SOBRE NINGÚN DERECHO DE PROPIEDAD INTELECTUAL. A EXCEPCIÓN DE LO ESTABLECIDO EN LOS TÉRMINOS Y CONDICIONES DE VENTA DE INTEL PARA DICHOS PRODUCTOS, EN NINGÚN CASO INTEL SERÁ RESPONSABLE Y CONSECUENTEMENTE RECHAZA CUALQUIER GARANTÍA EXPLÍCITA O IMPLÍCITA CON RESPECTO A LA VENTA Y/O EL USO DE LOS PRODUCTOS INTEL, INCLUIDAS LAS RESPONSABILIDADES O GARANTÍAS RELACIONADAS CON LA IDONEIDAD PARA UN FIN DETERMINADO, LA COMERCIABILIDAD O LA INFRACCIÓN DE CUALQUIER PATENTE, DERECHO DE AUTOR U OTRO DERECHO DE PROPIEDAD INTELECTUAL. SALVO ACUERDO PREVIO POR ESCRITO REALIZADO POR INTEL, LOS PRODUCTOS INTEL NO HAN SIDO DISEÑADOS PARA NINGUNA APLICACIÓN EN LA QUE UNA FALLA DEL PRODUCTO INTEL PUEDA CREAR UNA SITUACIÓN EN LA QUE SE PUEDAN PRODUCIR DAÑOS PERSONALES O LA MUERTE. Es posible que Intel modifique las especificaciones y las descripciones de los productos en cualquier momento y sin previo aviso. Los diseñadores no deben basarse en la ausencia de características de cualquier funcionalidad o instrucciones marcadas como reservadas o sin definir, ni en sus características. Intel las reserva para una definición futura y no se hará responsable de los conflictos o incompatibilidades que surjan de los futuros cambios realizados en las mismas. La información del presente documento está sujeta a cambios sin previo aviso. No concluya un diseño con base en esta información. Los productos descritos en este documento pueden contener defectos de diseño o erratas que pueden hacer que el producto varíe respecto de las especificaciones publicadas. Las erratas detectadas hasta el momento están disponibles a petición del interesado. Póngase en contacto con la oficina de ventas local de Intel o con su distribuidor para obtener las especificaciones más recientes antes de pedir el producto. Puede solicitar copias de los documentos identificados por un número de pedido y a los que se hace referencia en este documento, u otras publicaciones de Intel, llamando al número , o en el sitio Web de Intel: Copyright 2013 Intel Corporation. Todos los derechos reservados. Intel, el logotipo de Intel, y Xeon son marcas comerciales de Intel Corporation en los EE.UU. y en otros países. *Otros nombres y marcas pueden ser reclamados como propiedad de terceros. Impreso en EE.UU. 0313/ME/MESH/PDF Por favor reciclar SP 12

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop

Más detalles

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928 Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International

Más detalles

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center El software descrito en el presente manual

Más detalles

Conectores Pentaho Big Data Community VS Enterprise

Conectores Pentaho Big Data Community VS Enterprise Conectores Pentaho Big Data Community VS Enterprise Agosto 2014 Stratebi Business Solutions www.stratebi.com info@stratebi.com Índice 1. Resumen... 3 2. Introducción... 4 3. Objetivo... 4 4. Pentaho Community

Más detalles

Espere más de su almacenamiento

Espere más de su almacenamiento Espere más de su almacenamiento Sistema de almacenamiento IBM Storwize V3700. Almacenamiento a precio razonable y fácil de usar que ofrece capacidades avanzadas para las pequeñas y medianas empresas. IBM

Más detalles

Almacenamiento de gran capacidad para impulsar la innovación.

Almacenamiento de gran capacidad para impulsar la innovación. Almacenamiento de gran capacidad para impulsar la innovación. WD y el logotipo de WD son marcas comerciales registradas de Western Digital Technologies, lnc. en EE. UU. y otros países; WD Ae, WD Re+, WD

Más detalles

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca

Más detalles

Implementación, aprovisionamiento y actualización de Windows Server con System Center

Implementación, aprovisionamiento y actualización de Windows Server con System Center Implementación automatizada y centralizada, aprovisionamiento y actualización de Windows Server La implementación y el mantenimiento de Windows Server en sistemas operativos de centros de datos y entornos

Más detalles

Big Data con nombres propios

Big Data con nombres propios Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán

Más detalles

Hadoop. Cómo vender un cluster Hadoop?

Hadoop. Cómo vender un cluster Hadoop? Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET LA PLATAFORMA GOOGLE CLOUD PLATFORM. GOOGLE APP ENGINE Pedro A. Castillo Valdivieso Universidad de Granada http://bit.ly/unia2014

Más detalles

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1 ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones

Más detalles

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET La plataforma Google Cloud Platform. Google App Engine Pedro A. Castillo Valdivieso Universidad de Granada La plataforma

Más detalles

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE)

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data y Supercómputo Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data 2 Hasta qué cantidad de datos podemos procesar en nuestra

Más detalles

Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza

Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza IBM Software Information Management White Paper Cómo aprovechar la potencia de la analítica avanzada con IBM Netezza Un enfoque de appliance simplifica el uso de la analítica avanzada Cómo aprovechar la

Más detalles

Comparación del coste total de propiedad de MongoDB y Oracle. Informe de 10gen

Comparación del coste total de propiedad de MongoDB y Oracle. Informe de 10gen Comparación del coste total de propiedad de MongoDB y Oracle Informe de 10gen New York Palo Alto Washington, DC London Dublin Barcelona Sydney US 646.237.8815 INTL 650.440.4474 info@10gen.com Copyright

Más detalles

Identificación rápida de cuellos de botella: Una mejor manera de realizar pruebas de carga. Documento técnico de Oracle Junio de 2009

Identificación rápida de cuellos de botella: Una mejor manera de realizar pruebas de carga. Documento técnico de Oracle Junio de 2009 Identificación rápida de cuellos de botella: Una mejor manera de realizar pruebas de carga Documento técnico de Oracle Junio de 2009 Identificación rápida de cuellos de botella: Una mejor manera de realizar

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD Informe técnico Solución empresarial Hadoop de EMC NAS de escalamiento horizontal Isilon y Greenplum HD Por Julie Lockner, analista ejecutivo, y Terri McClure, analista ejecutivo Febrero de 2012 Este Informe

Más detalles

agility made possible

agility made possible RESUMEN SOBRE LA SOLUCIÓN CA VM:Manager Suite for Linux on System Z cómo puedo reducir el costo y la complejidad de administrar y asegurar mis entornos z/vm y Linux on System z? agility made possible CA

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios

Más detalles

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS

Más detalles

Evolución de las demandas del sistema de almacenamiento

Evolución de las demandas del sistema de almacenamiento Evolución de las demandas del sistema de almacenamiento Dado que las demandas del mercado han cambiado, las características y funcionalidades que se esperan de los sistemas de almacenamiento han cambiado

Más detalles

UPSTREAM for Linux. Descripción general. Valor de negocio

UPSTREAM for Linux. Descripción general. Valor de negocio HOJA DE PRODUCTO UPSTREAM for Linux on System z UPSTREAM for Linux on System z UPSTREAM for Linux on System z está diseñada de modo que proporcione una protección integral de los datos del entorno Linux

Más detalles

EMC SCALEIO SAN de servidor convergente definida por software

EMC SCALEIO SAN de servidor convergente definida por software EMC SCALEIO SAN de servidor convergente definida por software ASPECTOS FUNDAMENTALES Solo para software Arquitectura convergente de capa simple Escalabilidad lineal Rendimiento y capacidad según demanda

Más detalles

Virtualización de Escritorios NComputing

Virtualización de Escritorios NComputing Virtualización de Escritorios NComputing Resumen Introducción Tendencia de los mercados informáticos INFORME EJECUTIVO Todos estamos acostumbrados al modelo de las PCs, que permiten a cada usuario tener

Más detalles

Innovación para su Contact Center. Business Rules. Personalice al máximo la experiencia del cliente, aplicando reglas de negocio

Innovación para su Contact Center. Business Rules. Personalice al máximo la experiencia del cliente, aplicando reglas de negocio Innovación para su Contact Center Business Rules Personalice al máximo la experiencia del cliente, aplicando reglas de negocio ÍNDICE DATA SHEET 1. Introducción... 4 2. Características principales... 4

Más detalles

TRANSFORME SU INFRAESTRUCTURA DE BASE DE DATOS

TRANSFORME SU INFRAESTRUCTURA DE BASE DE DATOS TRANSFORME SU INFRAESTRUCTURA DE BASE DE DATOS Las bases de datos como Oracle y SQL Server exigen una latencia baja constante y un rendimiento de I/O excepcional para responder al instante a las consultas

Más detalles

PRESENTACIÓN TÉCNICA Y REQUISITOS DOCUMENTO EXTERNO

PRESENTACIÓN TÉCNICA Y REQUISITOS DOCUMENTO EXTERNO PRESENTACIÓN TÉCNICA Y REQUISITOS DOCUMENTO EXTERNO PRESENTACIÓN TÉCNICA Y REQUISITOS MANUAL Presentación Técnica y Requisitos www.kronotek.net 1 PRESENTACIÓN TÉCNICA Y REQUISITOS Tabla de contenido 1.

Más detalles

Dimensions CM frente a ClearCase Comparación de rendimiento

Dimensions CM frente a ClearCase Comparación de rendimiento Resumen de la solución FUNCIONES CLAVE Administración de procesos, cambios, configuraciones, versiones y entregas desde una sola arquitectura Apoyo para desarrollo paralelo de avanzada y fusión a nivel

Más detalles

EMC SYMMETRIX VMAX 10K

EMC SYMMETRIX VMAX 10K EMC SYMMETRIX VMAX 10K EMC Symmetrix VMAX 10K con el ambiente operativo Enginuity proporciona una arquitectura de escalamiento horizontal de múltiples controladores y con consolidación que permite aumentar

Más detalles

Descripción General del producto EMC Data Domain

Descripción General del producto EMC Data Domain HOJA DE DATOS Descripción General del producto EMC Data Domain con deduplicación para operaciones de backup y recuperación de última generación Panorama general con deduplicación escalable Deduplicación

Más detalles

Proyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source

Proyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source Proyecto Fin de Carrera OpenNebula y Hadoop: Cloud Computing con herramientas Open Source Francisco Magaz Villaverde Consultor: Víctor Carceler Hontoria Junio 2012 Contenido Introducción Qué es Cloud Compu5ng?

Más detalles

IBM Storwize V7000: Proteja sus datos en los entornos Microsoft

IBM Storwize V7000: Proteja sus datos en los entornos Microsoft IBM Storwize V7000: Proteja sus datos en los entornos Microsoft Backup y restauración eficientes mediante el uso de IBM Tivoli Storage FlashCopy Manager Aspectos Destacados Abordar los requisitos para

Más detalles

Capacidades máximas de almacenamiento necesarias en 2014 para reducir el riesgo y maximizar el rendimiento

Capacidades máximas de almacenamiento necesarias en 2014 para reducir el riesgo y maximizar el rendimiento Un Technology Adoption Profile personalizado encargado por HP Diciembre de 2013 Capacidades máximas de almacenamiento necesarias en 2014 para reducir el riesgo y maximizar el rendimiento 1 Introducción

Más detalles

IBM PureFlex System. El sistema de infraestructura con experiencia integrada

IBM PureFlex System. El sistema de infraestructura con experiencia integrada IBM PureFlex System El sistema de infraestructura con experiencia integrada 2 IBM PureFlex System La TI ocupa un papel cada vez más central en la estrategia de las empresas Durante los últimos 100 años

Más detalles

Symantec Backup Exec 3600 Appliance

Symantec Backup Exec 3600 Appliance El appliance de copia de seguridad y recuperación todo en uno para empresas medianas Hoja de datos: Protección de datos Descripción general es la única solución lista para usar que proporciona el software

Más detalles

Appliance Symantec Backup Exec 3600

Appliance Symantec Backup Exec 3600 Activar, configurar y listo Hoja de datos: Protección de datos Descripción general El appliance Symantec Backup Exec 3600 es la única solución que proporciona el software Symantec Backup Exec en hardware

Más detalles

Reducción de los costos de almacenamiento con la unidad de cinta más rápida y de mayor capacidad del mundo

Reducción de los costos de almacenamiento con la unidad de cinta más rápida y de mayor capacidad del mundo Documento técnico de Oracle Septiembre de 2013 Reducción de los costos de almacenamiento con la unidad de cinta más rápida y de mayor capacidad del mundo Resumen ejecutivo... 1 Introducción... 1 Capacidad

Más detalles

Conceptos de Q-flow Enterprise Edition

Conceptos de Q-flow Enterprise Edition Q-flow 2.2 Código de Manual: Qf22008ESP Versión del Manual: 1.1 Última revisión: 17/3/2006 Se aplica a: Q-flow 2.2 Enterprise Edition Conceptos de Q-flow Enterprise Edition Qf22008ESP v1.1 Q-flow Conceptos

Más detalles

Automatización de la nube

Automatización de la nube Folleto Automatización de la nube Gestión abierta y ampliable para el ciclo de vida de los servicios en nubes privadas e híbridas Índice 3 Introducción 4 Casos de uso para la automatización del servicio

Más detalles

AcuServer Servidor de Archivos Remoto de Alto Rendimiento

AcuServer Servidor de Archivos Remoto de Alto Rendimiento AcuServer Servidor de Archivos Remoto de Alto Rendimiento RESUMEN EJECUTIVO AcuServer es una tecnología de servidor de datos remoto que ofrece un seguro e inmediato acceso a datos indexados, relativos

Más detalles

Symantec Desktop and Laptop Option

Symantec Desktop and Laptop Option Symantec Desktop and Laptop Option Symantec Desktop and Laptop Option es una solución fácil de usar que ofrece copias de seguridad y recuperación de archivos automatizadas y confiables para equipos de

Más detalles

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V Windows Server 2012 Storage Technical Details Module 2: Compatibilidad de SMB con SQL e Hyper-V Manual del módulo Autor: Rose Malcolm, responsable de contenidos Publicado: 4 de septiembre de 2012 La información

Más detalles

Descubrimiento e investigación de amenazas avanzadas. DESCRIPCIÓN GENERAL

Descubrimiento e investigación de amenazas avanzadas. DESCRIPCIÓN GENERAL Descubrimiento e investigación de amenazas avanzadas. DESCRIPCIÓN GENERAL PUNTOS DESTACADOS Presentación de RSA Security Analytics, que proporciona: Monitoreo de seguridad Investigación de incidentes Creación

Más detalles

Dentro de los arreglos de almacenamiento. iscsi de la serie

Dentro de los arreglos de almacenamiento. iscsi de la serie Dentro de los arreglos de almacenamiento iscsi de la serie PS de EqualLogic Basada en una arquitectura patentada de almacenamiento del mismo nivel, la serie PS EqualLogic de arreglos de almacenamiento

Más detalles

CAPÍTULO 3: Resultados

CAPÍTULO 3: Resultados CAPÍTULO 3: CAPÍTULO 3: RESULTADOS La meta de un proyecto de consolidación de servidores físicos o de virtualización, es la creación de las máquinas virtuales que sean capaces de ejecutar las aplicaciones

Más detalles

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel Software Intel para administración de sistemas Guía del usuario del Paquete de administración de servidores modulares Intel Declaraciones legales LA INFORMACIÓN CONTENIDA EN ESTE DOCUMENTO SE PROPORCIONA

Más detalles

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2.

Más detalles

Infraestructura Tecnológica

Infraestructura Tecnológica Infraestructura Tecnológica 1 Sesión No. 12 Nombre: Niveles de confiabilidad Contextualización La confianza es un factor determinante y muy importante, con ésta se pueden dar o rechazar peticiones de negocio,

Más detalles

FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS

FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS FaceFinder MÓDULO DE BÚSQUEDA DE PERSONAS DENTRO DE UNA BASE DE DATOS DE ROSTROS Introducción Los algoritmos utilizados para el procesamiento de imágenes son de complejidad computacional alta. Por esto

Más detalles

Disco de almacenamiento para videovigilancia de WD. Durability. Durability. Escalabilidad. Escalabilidad. Resistencia. Resistencia.

Disco de almacenamiento para videovigilancia de WD. Durability. Durability. Escalabilidad. Escalabilidad. Resistencia. Resistencia. Durability Durability Disco de almacenamiento para videovigilancia de WD El disco adecuado para el trabajo Los discos duros estándar de sobremesa están diseñados para funcionar aproximadamente ocho horas

Más detalles

ACELERACIÓN DEL RENDIMIENTO CON EMC XTREMSF PARA MICROSOFT SQL SERVER 2012

ACELERACIÓN DEL RENDIMIENTO CON EMC XTREMSF PARA MICROSOFT SQL SERVER 2012 Informe técnico ACELERACIÓN DEL RENDIMIENTO CON EMC XTREMSF PARA MICROSOFT SQL SERVER 2012 Aceleración del rendimiento de SQL Server con EMC XtremSF Recuperación de desastres con grupos de disponibilidad

Más detalles

CABLEADO: ELEMENTO CLAVE PARA EL CENTRO DE DATOS DEL FUTURO

CABLEADO: ELEMENTO CLAVE PARA EL CENTRO DE DATOS DEL FUTURO E-Guide CABLEADO: ELEMENTO CLAVE PARA EL CENTRO DE DATOS DEL FUTURO SearchDataCenter E l Centro de Datos del dependerá de cada aspecto de la red, incluyendo aquellas olvidadas bases de cableado, para funcionar

Más detalles

Habilitación de fabulosas experiencias de usuarios con un diseño centrado en el usuario (User-centered design - UCD)

Habilitación de fabulosas experiencias de usuarios con un diseño centrado en el usuario (User-centered design - UCD) Habilitación de fabulosas experiencias de usuarios con un diseño centrado en el usuario (User-centered design - UCD) El diseño centrado en el usuario favorece fabulosas experiencias de usuario al enfocarse

Más detalles

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)?

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)? De qué se compone el Terminal? El dispositivo NComputing tiene un chip propietario, una placa de red, una memoria caché para el vídeo y una memoria flash para el firmware (El setup inicial, se conoce como

Más detalles

Monitoreo de Nubes Privadas

Monitoreo de Nubes Privadas Monitoreo de Nubes Privadas Whitepaper Autores: Dirk Paessler, CEO de Paessler AG Gerald Schoch, Editor Técnico de Paessler AG Publicado: Mayo 2011 Ultima Actualización: Febrero 2015 PÁGINA 1 DE 7 Contenido

Más detalles

CA Nimsoft Monitor Snap

CA Nimsoft Monitor Snap CA Nimsoft Monitor Snap Guía de configuración de Mi monitor de SQL Server Serie de mysql 1.4 Avisos legales Copyright 2013, CA. All rights reserved. Garantía El material incluido en este documento se proporciona

Más detalles

Ampliación de Data Centers con Cisco Fabric Path

Ampliación de Data Centers con Cisco Fabric Path Informe técnico Ampliación de Data Centers con Cisco Fabric Path Qué aprenderá Las arquitecturas de redes tradicionales están diseñadas con el fin de ofrecer alta disponibilidad para las aplicaciones estáticas,

Más detalles

Actualícese al rendimiento de 8 GB/s con el catálogo de switches Fibre Channel serie H de HP

Actualícese al rendimiento de 8 GB/s con el catálogo de switches Fibre Channel serie H de HP Actualícese al rendimiento de 8 GB/s con el catálogo de switches Fibre Channel serie H de HP Rendimiento y capacidad de gestión de E/S para una infraestructura convergente Documentación técnica Contenido

Más detalles

Septiembre 2006. Backup Exec UtilityParte 1

Septiembre 2006. Backup Exec UtilityParte 1 Septiembre 2006 Backup Exec UtilityParte 1 Aviso legal de Symantec Copyright 2006 Symantec Corporation. Todos los derechos reservados. Symantec, Backup Exec y el logotipo de Symantec son marcas comerciales

Más detalles

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Informe elaborado bajo contrato con EMC Corporation Introducción EMC Corporation contrató a Demartek para llevar a cabo una evaluación

Más detalles

HP Medical Archiving Solution Solución de almacenamiento de contenido fijo basada en tecnología GRID para el sector sanitario

HP Medical Archiving Solution Solución de almacenamiento de contenido fijo basada en tecnología GRID para el sector sanitario HP Medical Archiving Solution Solución de almacenamiento de contenido fijo basada en tecnología GRID para el sector sanitario HP Medical Archiving Solution (HP MAS) facilita a las organizaciones de asistencia

Más detalles

Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes.

Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes. Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes Abril de 2014 Contenido Resumen Ejecutivo 3 Introducción 3 IBM recibe altos

Más detalles

Windows Server 2012: Technical Overview. Módulo 1 - Server Virtualization

Windows Server 2012: Technical Overview. Módulo 1 - Server Virtualization Windows Server 2012: Technical Overview Módulo 1 - Server Virtualization Module Manual Authors: Symon Perriman Corey Hynes Published: 1 th December 2012 La información contenida en este documento, incluidas

Más detalles

TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2

TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2 TABLA DE CONTENIDO: TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2 Introducción: 2 infraestructura Galeón: 3 Alta disponibilidad y balanceo de cargas 3 Servidores Galeón 5 Esquema de funcionamiento

Más detalles

Servicio de instalación y puesta en marcha del software HP 3PAR 7000

Servicio de instalación y puesta en marcha del software HP 3PAR 7000 Datos técnicos Servicio de instalación y puesta en Servicios HP Care Pack Ventajas del servicio Permite que sus recursos de TI se concentren en sus tareas y prioridades principales. Reduce los tiempos

Más detalles

SIGADE 6: requisitos de hardware y software y prerrequisitos de formación

SIGADE 6: requisitos de hardware y software y prerrequisitos de formación SIGADE 6: requisitos de hardware y software y prerrequisitos de formación DMFAS6/HardwareSoftware/V5 Mayo de 2015 2 SIGADE 6: requisitos de hardware y software y prerrequisitos de formación Índice ACERCA

Más detalles

Plataforma Cloud con HP 3PAR y VMware vsphere

Plataforma Cloud con HP 3PAR y VMware vsphere Mayo 2011 Elaborado por nerion Todos los derechos reservados. Plataforma Cloud con HP 3PAR y VMware vsphere SOBRE NERION nerion es una de las principales Empresas españolas de registro de dominios, hosting

Más detalles

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D es un producto de recuperación basado en disco diseñado para ofrecer la combinación perfecta de protección fiable y recuperación rápida de los datos empresariales de sus

Más detalles

Veritas Storage Foundation for Windows de Symantec

Veritas Storage Foundation for Windows de Symantec Veritas Storage Foundation for Windows de Symantec Avanzadas funciones de gestión online del almacenamiento Veritas Storage Foundation 5.0 for Windows brinda avanzadas funciones de gestión online del almacenamiento

Más detalles

Si está interesado en conocer más detalle de esta propuesta, quedo a su disposición

Si está interesado en conocer más detalle de esta propuesta, quedo a su disposición Estimado cliente: Como cliente de IBM, ya conoce la diferencia que puede marcar una infraestructura de TI eficiente y fiable, con capacidad de respuesta; que pueda soportar el negocio de su empresa y acompañar

Más detalles

EMC ISILON SERIE NL REDEFINA. Especificaciones. EMC Isilon NL400. EMC Isilon NL410 ARQUITECTURA

EMC ISILON SERIE NL REDEFINA. Especificaciones. EMC Isilon NL400. EMC Isilon NL410 ARQUITECTURA EMC ISILON SERIE NL EMC Isilon NL400 EMC Isilon NL410 El reto de un almacenamiento y una administración de datos rentable es una preocupación cada vez mayor. Debe analizar los costos de almacenar ciertos

Más detalles

Análisis de desempeño y modelo de escalabilidad para SGP

Análisis de desempeño y modelo de escalabilidad para SGP Análisis de desempeño y modelo de escalabilidad para SGP Este documento es producto de la experiencia de Analítica en pruebas de stress sobre el software SGP. Estas pruebas se realizaron sobre un proceso

Más detalles

Sistemas de Información. Junio de 2015

Sistemas de Información. Junio de 2015 Sistemas de Información Junio de 2015 Pliego de prescripciones técnicas aplicable al suministro e instalación de servidores departamentales y otro equipamiento hardware para las plataformas de ejecución

Más detalles

Reduzca el riesgo con el partner correcto

Reduzca el riesgo con el partner correcto La integración de cómputo, red y almacenamiento en un único agrupamiento está transformando la manera en que nosotros, como profesionales de TI, percibimos el ambiente SAP. Director ejecutivo de un importante

Más detalles

Diez aspectos inteligentes que debe conocer sobre el almacenamiento

Diez aspectos inteligentes que debe conocer sobre el almacenamiento Diez aspectos inteligentes que debe conocer sobre el almacenamiento Tendencias, innovaciones y consejos para aumentar la eficiencia del entorno de almacenamiento Las decisiones inteligentes están basadas

Más detalles

El corazón de un centro de datos moderno

El corazón de un centro de datos moderno Procesador Intel Xeon E5-2600 v2 Familia de productos INFORME DE PRODUCTO El corazón de un centro de datos moderno La familia de procesadores Intel Xeon E5-2600 v2 1 Los departamentos informáticos de todo

Más detalles

Sybase IQ Servidor analítico con arquitectura basada en columnas

Sybase IQ Servidor analítico con arquitectura basada en columnas Sybase IQ Servidor analítico con arquitectura basada en columnas www.sybase.es Sybase IQ Descripción Tener acceso a toda la información de que dispone su organización, con el fin de analizarla no es hoy

Más detalles

Respaldo y recuperación en ambientes VMware con Avamar 6.0

Respaldo y recuperación en ambientes VMware con Avamar 6.0 Informe técnico Respaldo y recuperación en ambientes VMware con Avamar 6.0 Análisis detallado Resumen Dado el ritmo cada vez más rápido de la implementación de ambientes virtuales en la nube de la compañía,

Más detalles

AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3

AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3 AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3 ASPECTOS BÁSICOS DE MISIÓN CRÍTICA Solidez Almacenamiento híbrido con niveles de servicio de rendimiento optimizado con flash a escala para cargas de trabajo

Más detalles

Big data A través de una implementación

Big data A través de una implementación Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina

Más detalles

El valor de una infraestructura optimizada

El valor de una infraestructura optimizada El valor de una infraestructura optimizada El Estudio del Estado del CIO 2006 (CIO Research, 2006) muestra que los CIO están buscando, cada vez más, introducir, de forma proactiva, soluciones de tecnología

Más detalles

Soluciones innovadoras para optimizar su infraestructura TI. Virtualización con el sistema operativo i, PowerVM y Power Systems de IBM

Soluciones innovadoras para optimizar su infraestructura TI. Virtualización con el sistema operativo i, PowerVM y Power Systems de IBM Soluciones innovadoras para optimizar su infraestructura TI Virtualización con el sistema operativo i, PowerVM y Power Systems de IBM Características principales Tenga éxito en su negocio simplemente con

Más detalles

Beneficios económicos de la Estrategia de la nube de Cisco

Beneficios económicos de la Estrategia de la nube de Cisco Beneficios económicos de la Estrategia de la nube de Cisco Principales conclusiones Resumen ejecutivo La computación en la nube permite suministrar TI como un servicio cuando y donde se necesite, desde

Más detalles

NVIDIA GeForce Experience

NVIDIA GeForce Experience NVIDIA GeForce Experience DU-05620-001_v02 octubre 7, 2012 Guía del usuario ÍNDICE 1 NVIDIA GeForce Experience Guía del usuario... 1 Acerca de GeForce Experience... 1 Instalación y configuración de GeForce

Más detalles

Instalación y configuración del EPC de Snap-on. Rev. 1.10 (10 Oct. 2013) PN 275-0800-es-MEX

Instalación y configuración del EPC de Snap-on. Rev. 1.10 (10 Oct. 2013) PN 275-0800-es-MEX Instalación y configuración del EPC de Snap-on Rev. 1.10 (10 Oct. 2013) PN 275-0800-es-MEX Índice 1. Introducción... 3 2. Requisitos mínimos... 4 3. Instalación del EPC de Snap-on... 6 4. Licencia del

Más detalles

MATRIZ DE LA FAMILIA DE HITACHI VIRTUAL STORAGE PLATFORM

MATRIZ DE LA FAMILIA DE HITACHI VIRTUAL STORAGE PLATFORM MATRIZ DE LA FAMILIA DE HITACHI VIRTUAL STORAGE PLATFORM 1 Especificaciones de capacidad Cantidad máxima (máx.) de discos duros, incluidos los spares. 264 SFF 264 LFF 480 SFF 480 LFF 720 SFF 720 LFF 1,440

Más detalles

SQLSERVER. El T-SQL se puede utilizar desde multitud de aplicaciones y desde diferentes lenguajes de programación

SQLSERVER. El T-SQL se puede utilizar desde multitud de aplicaciones y desde diferentes lenguajes de programación SQLSERVER Introducción a SQL Server SQL Server Es sistema manejador de base de datos un conjunto de objetos eficientemente almacenados desarrollado por MICROSOFT. En el centro de SQL Server están los motores

Más detalles

Por lo tanto, la definición del proceso de copia de seguridad se debe controlar por objetivos de restauración.

Por lo tanto, la definición del proceso de copia de seguridad se debe controlar por objetivos de restauración. [ Fin de página Página anterior Página siguiente Contenido Índice ] Ajustes para mejorar el rendimiento de la transferencia de datos Objetivos de la restauración La protección frente a una pérdida de datos

Más detalles

Desarrollo Informático del SIGOB

Desarrollo Informático del SIGOB Desarrollo Informático del SIGOB Los soportes informáticos del Sistema de Información y Gestión para la Gobernabilidad (SIGOB) utilizan productos de tecnología avanzada, que permite la rápida incorporación

Más detalles

Beneficios estratégicos para su organización. Beneficios

Beneficios estratégicos para su organización. Beneficios La solución ideal para controlar la totalidad de su infraestructura IT mediante un inventario automatizado, control remoto y Gestión de activos informáticos. Beneficios Características Inventario actualizado

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

UPSTREAM for Linux on System z

UPSTREAM for Linux on System z HOJA DEL PRODUCTO UPSTREAM for Linux on System z UPSTREAM for Linux on System z UPSTREAM for Linux on System z está diseñado para proporcionar una protección de datos completa a su entorno Linux on System

Más detalles

XenData Información del Producto: Servidores de Archivo de la Serie SX-520 para Archivos de Disco Óptico de Sony

XenData Información del Producto: Servidores de Archivo de la Serie SX-520 para Archivos de Disco Óptico de Sony XenData Información del Producto: Servidores de Archivo de la Serie SX-520 para Archivos de Disco Óptico de Sony La Serie SX-520 de Servidores de Archivo crea Archivos Digitales de Video en Disco Óptico

Más detalles