Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop*

Tamaño: px
Comenzar la demostración a partir de la página:

Download "IT@Intel Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop*"

Transcripción

1 Documento técnico de Marzo de 2015 Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop* A partir de nuestra experiencia original con el software Apache Hadoop, TI de Intel identificó nuevas oportunidades para reducir los costos de TI y aumentar nuestras capacidades de BI Nghia Ngo Ingeniero de Capacidades de Big Data, Intel IT Sonja Sandeen Gerente de Producto de Big Data, Intel IT Darin Watson Ingeniero de Plataformas, Intel IT Chandhu Yalla Gerente de Ingeniería de Big Data, Intel IT Seshu Edala Ingeniero de Capacidades de Big Data, Intel IT Sinforoso Tolentino Ingeniero de Plataformas, Intel IT Resumen ejecutivo TI de Intel considera valioso el procesamiento de grandes cantidades de datos (Big Data) basado en códigos abiertos utilizando el software Apache Hadroop*. Hasta hace poco, utilizábamos el software Intel Distribution for Apache Hadoop (IDH) para soportar nuestros tres casos de uso de Big Data en inteligencia de negocios (BI, por su sigla en inglés), y reportaba resultados que ascendían a millones de dólares para Intel. Sin embargo, nos dimos cuenta de que nos podríamos beneficiar con la migración hacia el software de Distribución Cloudera para Apache Hadoop (CDH). A partir de nuestra experiencia original con el software Apache Hadoop, TI de Intel identificó nuevas oportunidades para reducir los costos de TI y para aumentar nuestras capacidades en inteligencia de negocios (BI). Gracias a la formación de una alianza estratégica con Cloudera, TI de Intel adoptó CDH y migró rápidamente de IDH. Utilizamos las herramientas CDH para empresas para mejorar el desempeño, la gestión, y la facilidad de uso para los componentes clave de Hadoop. Este documento explica los beneficios de la migración para los grupos empresariales de TI e incluye las seis mejores prácticas desarrolladas por el equipo de migración de Intel IT: Hacer una evaluación comparativa en un ambiente de prueba Definir la estrategia de implementación Dividir el ambiente del hardware Actualizar la versión de Hadoop Crear un camino de pre-producción a producción Rebalancear los datos Se pudo lograr una migración exitosa a través de una planificación cuidadosa, pruebas exhaustivas, comunicación proactiva y también mediante una gestión eficiente del alcance, de los tiempos y de las habilidades.

2 2 de 10 Contenidos 1 Resumen ejecutivo 2 Antecedentes 2 Mejores prácticas para la migración de IDH a CDH Mejor Práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba Mejor Práctica 2: Definir nuestra estrategia para la implementación de cloudera Mejor Práctica 3: Dividir el ambiente de hardware Mejor Práctica 4: Actualizar la versión de hadoop Mejor Práctica 5: Crear un camino de preproducción a producción Mejor Práctica 6: Rebalancear los datos 10 Conclusión Acrónimos ACL Lista de control de acceso BI Inteligencia de Negocios CDH Distribución Cloudera para Apache Hadoop HDFS Hadoop Distributed File System IDH Intel Distribution for Apache Hadoop SLA Acuerdo de nivel de servicio Antecedentes TI de Intel considera valioso el procesamiento de grandes cantidades de datos (Big Data) basado en códigos abiertos con la utilización de Apache Hadoop*. Utilizamos la distribución Hadoop propia de Intel, el software Intel Distibution for Apache Hadoop. Luego, determinamos que pasarse a la Distribución Cloudera para Apache Hadoop (CDH) ofrece ventajas significativas, que se muestran en la Figura 1. CDH contiene la totalidad de la distribución a partir del proyecto de código abierto de Apache Hadoop y también cuenta con otros componentes clave como la infraestructura de almacén de datos Apache Hive* y el lenguaje de flujo de datos Apache Pig*. CDH también ofrece herramientas de gestión y de desarrollo de software empresariales para ayudar a los desarrolladores y a los administradores de sistemas a mejorar el desempeño, gestión y facilidad de uso de los componentes únicos de Hadoop como Cloudera Manager, Cloudera Impala, Navigator y Sentry. La migración hacia CDH también nos permitió actualizar Hadoop de 1.0 a 2.0. Mejores prácticas para la migración de IDH a CDH Una migración exitosa necesita una cuidadosa planificación para hacer frente a tres desafíos clave: Hacer frente a las variaciones de Hadoop. La instalación sin modificaciones de Hadoop utiliza los valores de configuración preestablecidos. Estos valores difieren dependiendo de las variaciones de Hadoop. Un análisis comparativo puede resultar de ayuda antes de la migración (ver Mejor práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba). Entender el alcance de los cambios. Debemos minimizar los impactos negativos causados por los cambios de infraestructura a nuestros desarrolladores de aplicaciones y a los clientes que utilizan dichas aplicaciones. Para invertir y llevar a cabo dicha conversión, los equipos de las empresas o de los clientes esperan tener la misma experiencia, o una aún mejor. Ventajas de la Distribución Cloudera para Apache Hadoop Características Características deseables, conjuntos de características maduras y actualizaciones más rápidas Soporte Soporte basado en el proveedor y a nivel empresarial Herramientas Herramientas de gestión de nivel empresarial y de desarrollo de software Código abierto Distribución completa a partir del proyecto de código abierto de Apache Hadoop. Figura 1. Distribución Cloudera para Apache Hadoop*(CDH) ofrece ventajas significativas.

3 3 de 10 Completar la migración in situ puntualmente. La migración hizo que tuviésemos que ejecutar los ambientes de IDH y de CDH en paralelo. Nuestro objetivo fue operar ambos ambientes en tándem durante un período de tiempo lo más corto posible para balancear todas las partes funcionales entre los proyectos de los clientes y los cambios en la plataforma. Para hacerlo, el equipo de migraciones tuvo que evitar que los racks o los servidores permaneciesen ociosos durante la transferencia de datos y las pruebas. Para abordar estos tres desafíos, el equipo de migración de TI de Intel siguió seis mejores prácticas. Mejor práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba Al utilizar un ambiente de prueba o restringido para efectuar una evaluación completa de IDH y de CDH fue posible identificar las diferencias entre los dos ambientes y, al mismo tiempo, tener una interrupción mínima en las operaciones. El equipo de migración pudo estudiar la arquitectura de la solución propuesta para los diversos casos de estudio y así determinar las características críticas. Comparamos las características y las capacidades, como los marcos de inteligencia de negocios (BI), contenedores de E/S, códecs de compresión, seguridad y listas de control de acceso (ACL), límites de asignación de contenedores y demás, aislando una configuración de la otra. 6 mejores prácticas para la migración 1: Identificar las diferencias utilizando una evaluación comparativa en un ambiente de prueba 2: Definir nuestra estrategia para la implementación de Cloudera 3: Dividir el ambiente de hardware 4: Actualizar la versión de Hadoop 5: Crear un camino de Preproducción a producción 6: Rebalancear los datos A partir de los resultados, el equipo confeccionó una tabla comparativa en la que identificó las brechas y describió los diferenciadores clave, como se muestra en la Tabla 1. Tabla 1. Comparación entre las características de la Distribución Cloudera para Apache Hadoop* (CDH) e Intel Distribution for Apache Hadoop (IDH) Nota: El estudio comparativo fue realizado entre marzo y abril de Mejor en CDH entre CDH e IDH Inexistente en CDH Conectores Ingestión de datos Mejor Almacenamiento de datos Integración con otros controladores y software Integración con Lustre* NoSQL en línea Procesamiento por lotes Analytics SQL Búsqueda Aprendizaje automático Procesamiento de flujo Aplicaciones de terceros Administración de datos Administración de trabajo Administración del sistema Inexistente Mejor Mejor Mejor Inexistente Mejor Mejor Infraestructura Alta disponibilidad Sistema operativo Integración Enterprise Access Management/ Microsoft Active Directory* Seguridad Inexistente

4 4 de 10 Esta tabla nos ayudó a establecer los objetivos para una migración ordenada. Luego consultamos con Cloudera para desarrollar una hoja de ruta conjunta, solicitándoles que indicaran sus compromisos para implementar las capacidades faltantes o diferentes. En este momento el equipo evaluó el costo de la refactorización: es decir la cantidad de cambios, pruebas y el tiempo que insumiría modificar la arquitectura para obtener las ventajas de las recomendaciones de diseño de la distribución de Cloudera. Optamos por hacer algunos cambios de diseño y de arquitectura, y seleccionamos solamente los compuestos obligatorios de la distribución en vez de adoptar todos los componentes disponibles de Hadoop. Incluimos las diferencias entre el ambiente de prueba y el camino hacia la producción en lo que respecta a la red y al hardware como parte de los cálculos. Hicimos cambios en el diseño y en los códigos para adaptarlos a cualquier diferencia de características. Tomemos como ejemplo el soporte para el códec de compresión sin pérdida. Utilizar el códec de CDH que es menos eficiente podría impactar tanto en el código más adelante en el proceso como en la capacidad del disco, de la memoria o de la CPU. Necesitábamos suficiente tiempo para poner a prueba un nuevo código que utilice el códec de CDH y evaluar los efectos del uso adicional de los recursos; de no ser así hubiésemos tenido una brecha en el cronograma de trabajo que Cloudera hubiese tenido que resolver. Crear un ambiente de prueba Dentro del ambiente de prueba el equipo se aseguró de que todo lo planeado para la migración funcionase como habíamos anticipado. La implementación del IDH existente sirvió como base de los benchmarks funcionales, de desempeño y de pruebas de datos. Los datos de prueba incluyeron los métodos de transferencia o de copia, y también la velocidad de transferencia. Necesitábamos esta información para determinar los plazos de implementación y así trazar un camino seguro antes de entrar en producción. Incluimos las diferencias entre el ambiente de prueba y el camino hacia la producción en lo que respecta a la red y al hardware como parte de los cálculos. La implementación de CDH tenía que igualar los benchmarks paramétricos previos, o sobrepasarlos, y también cumplir con los criterios no paramétricos. Utilizar niveles de abstracción para simplificar la migración La utilización de un nivel de abstracción con URL personalizados, soft links y proxies de alta disponibilidad simplificó la migración. Por ejemplo, debido a que las bibliotecas de IDH no se encontraban en el mismo lugar que las bibliotecas de CDH, utilizamos soft links en vez de hacer una codificación dura de las ubicaciones de las bibliotecas. Utilizar las capacidades de código abierto de Hadoop y minimizar las personalizaciones Nos dimos cuenta de que la mayor parte del ecosistema central, como Hive y Pig, entre otros, se comportaba de la misma manera en la implementación de CDH que en la de IDH. La migración de código tuvo un impacto mínimo o nulo en los clientes y en sus aplicaciones. A partir de nuestra propia experiencia y según lo que vimos cuando nuestros clientes desarrollaron sus aplicaciones con Hive y con Pig, descubrimos que estos componentes no necesitaban una modificación del código para tener un desempeño sin dificultades en el entorno de CDH. Solamente un proyecto, en el que se utilizaba Apache Mahout*, necesitó un mínimo cambio de código debido a que la API de MapReduce* más antigua cayó en desuso frente a la API más reciente de MapReduce. La actualización del código para utilizar la API más reciente hace que cualquier conversión futura resulte más fácil. Como resultado de las pruebas y del mapeo dentro del ambiente de prueba, nuestro equipo pudo determinar que los cronogramas de trabajo eran sólidos y sin brechas. Como mínimo, se documentó claramente cuándo se corregirían las brechas.

5 5 de 10 Mejor práctica 2: Definir nuestra estrategia para la implementación de cloudera Una vez concluida la fase de prueba, el equipo decidió qué opciones y componentes clave incluir en la migración inicial y registró los beneficios y los riesgos de dicha elección. Las opciones y componentes críticos incluyeron seguridad, interfaces de usuario, APIs, lenguajes de desarrollo y compatibilidad con la versión. Buscamos mantener todo el ambiente simple durante la migración, preservando la estabilidad antes de agregar servicios o características. Nuestras selecciones de componentes y de opciones validaron nuestros hallazgos durante el entorno de prueba y fueron incorporadas a nuestra estrategia de migración. En la Tabla 2 incluimos dicha estrategia y también los beneficios, los riesgos potenciales y el estado actual. La información presentada en la tabla guió la estrategia para migrar el servicio Hive metastore y los archivos de metadatos. Tuvimos que determinar nuestro marco de tiempo para la migración teniendo en cuenta el impacto sobre nuestros clientes, los cambios en el código, las pruebas de regresión y los tiempos de ciclos de ejecución. Un componente que es fácil de pasar por alto durante la migración es el servicio Hive metastore. Hadoop brinda abstracción de cómputo con API de MapReduce y abstracción de almacenamiento con API de Hadoop Distributed File System (HDFS). Resulta fácil centrarse en la transición de estos componentes centrales y dejar de lado los componentes auxiliares aunque importantes como el servicio Hive metastore, que necesita bases de datos externas como MySQL o Postgres y es crítico para migrar las tablas de almacenes de datos de una plataforma a otra. La distribución central de Hadoop no brinda las herramientas para migrar los tipos de datos del servicio Hive metastore como seguridad, compresión, listas de control de acceso e información sobre tablas extendidas. Esa parte de la migración precisa herramientas (o scripts) personalizados/adaptados que puedan capturar, replicar y migrar hacia la nueva plataforma. Durante la migración, cuando el ambiente se encontraba dividido en dos partes, nos comunicamos con los clientes por la posibilidad de que la plataforma sea más lenta. Reconfiguramos los acuerdos de nivel de servicio (ANS) para el procesamiento de ciclos y diferimos todas las actividades de puntos de referencia (benchmarking) de desempeño. Tabla 2. Consideraciones para la migración de Intel Distribution for Apache Hadoop* (IDH) a la Distribución Cloudera para Apache Hadoop (CDH) Alcance Estrategia Beneficios Riesgos e impactos Migrar todas las plataformas y proyectos internos de Big Data de IDH a CDH. Dividir el hardware a la mitad, instalar CDH, y ejecutar los ambientes en paralelo durante la migración. Alinear todos los clientes para que completen la fase de prueba en CDH y transición. Desinstalar IDH y agregar el hardware al ambiente de CDH para volver a la capacidad plena. Focalizarse solamente en los componentes Hadoop* centrales necesarios para los clientes actuales. Se adoptarán nuevas características y capacidades de CDH después de la transferencia y una vez que los ambientes retomen la capacidad plena. Adoptar el soporte del producto y del proveedor de CDH ahora y alinearse con las iniciativas estratégicas. Un único esfuerzo de pruebas de regresión de la migración de CDH y Hadoop 2.x/YARN. Menos recursos ahora para poner a prueba el alcance actual de los casos de uso. Evitar la conversión a gran escala y las pruebas de regresión significativas de todo el proyecto más adelante. Aprovechar las ventajas de CDH cuanto antes (Hue, HCatalog, Impala, Navigator y Sentry). Clientes: riesgo e impacto mínimos para las pruebas y para la migración de dos proyectos de producción basados en las pruebas iniciales y tempranas. Contaremos con más información después de recibir los resultados de las pruebas de aplicaciones Customer Insight y de la Sales and Marketing Account Recommendation Tool. Plataforma: riesgo potencial si los clientes demoran la migración a CDH de modo que los ambientes permanecen divididos, lo que implica necesidad de soporte, mitad de la capacidad y un comienzo demorado de las nuevas evaluaciones de las características de Cloudera. Estado actual Migración de IDH a CDH completada en cinco semanas. En la actualidad se ejecuta CDH 5.3 en producción. Se completaron dos actualizaciones de versión desde la integración inicial con cero impacto a los clientes.

6 6 de 10 Características de los ambientes de hardware dividido Dos switches de 10GbE de 48 puertos 352 núcleos que utilizan procesadores Intel Xeon Intel Distribution of Hadoop 2.51 basada en Hadoop Apache 1.x 22 nodos de datos equivalentes a 243 TB (replicación de 3 vías) Alta disponibilidad con verdadera conciencia de racks Integración de la base de datos con Teradata, Netezza, y MS SQL Integración con Enterprise ETL, Active Directory/EAM e ITSM Mejor Práctica 3: Dividir el ambiente de hardware El equipo de migración de TI de Intel dividió el ambiente de hardware de Hadoop existente en dos clústers (uno para IDH y el otro para CDH) y completó la construcción de dos sistemas paralelos utilizando los componentes disponibles, según se observa en la Figura 2. No pudimos hacer una migración in situ por tres razones. Primero: no queríamos perder HDFS debido a que contenía grandes volúmenes de datos distribuidos en los servidores. Segundo: queríamos pasar de Hadoop 1.0 a 2.0. Tercero: IDH y CDH corrían Hadoop de maneras diferentes. Cada uno administró los clústers con herramientas diferentes de aprovisionamiento y de gestión. Por lo tanto, no pudimos migrar fácilmente de IDH a CDH in situ sin el software y las configuraciones de reaprovisionamiento. Tuvimos que crear un clúster de CDH sobre el hardware existente y migrar los datos de IDH a CDH. Aún si hubiese sido posible una actualización in situ, hubiéramos necesitado hacer un back up de terabytes de datos en otro clúster y luego transferirlo nuevamente al clúster de CDH. Debido a que íbamos a transferir datos de todas maneras, creamos el nuevo clúster de CDH en la misma red que el clúster de IDH y planificamos transferir los datos directamente desde el viejo clúster de Hadoop hacia el nuevo clúster. Los sistemas en paralelo brindaron la solución más limpia y segura, considerando que estábamos trabajando con hardware disponible limitado y que queríamos migrar los datos solamente una vez. La división funcionó bien por las siguientes razones: Si bien teníamos hardware limitado contábamos con suficiente capacidad de cómputo y de almacenamiento adicional para soportar la división del hardware, lo que permitió desafectar nodos de IDH y construir un clúster de CDH de tamaño suficiente como para soportar las migraciones de datos. Rack 1 HBase Master, Oozie, ZooKeeper NameNode, Hive Metastore ZooKeeper JobTracker Intel Manager, Yum Repository NameNode primario, Hive Metastore Gateway Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Rack 2 Gateway NameNode secundario, Job History Server, Resource Manager, ZooKeeper Cloudera Manager Backup JobTracker NameNode secundario, Hive Metastore HBase Master, ZooKeeper Almacenamiento compartido de Gateway Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Rack 3 Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Nodo de datos 3, NodeManager Nodo de datos 4, NodeManager Nodo de datos 5, NodeManager Nodo de datos 6, NodeManager Intel Distribution for Apache Hadoop Distribución Cloudera para Apache Hadoop Figura 2. Se dividió el ambiente de hardware en dos clústers, uno para Intel Distribution for Apache Hadoop* y el otro para la Distribución Cloudera para Apache Hadoop.

7 7 de 10 Al segregar el hardware nos mantuvimos operativos durante la transferencia de datos. Nuestros recursos de IDH fueron suficientes para la carga de trabajo del cliente; sin embargo, tuvimos que coordinar con proyectos para asegurarnos un impacto mínimo sobre los acuerdos de nivel de servicio existentes y hacer un lote con las expectativas de desempeño a lo largo del proceso de migración. Con clústers comparables construimos en uno y portamos hacia el otro. Construimos el nuevo clúster CDH en la misma red que el clúster IDH y planificamos transferir los datos directamente del clúster Hadoop antiguo al nuevo. Minimizar el impacto en los usuarios Al colocar IDH y CDH en la misma red local se facilitó la rápida transferencia de datos de IDH a CDH. Al asignar la mitad de los servidores disponibles a cada ambiente pudimos completar la migración con un impacto negativo mínimo en las aplicaciones de nuestros clientes. La naturaleza distribuida de Hadoop contribuyó con este enfoque. El equipo de TI de Intel descargó los datos en un conjunto de nodos de datos y luego desactivó el hardware que queríamos preparar para usar dentro del nuevo entorno de CDH. Desinstalamos unos pocos servidores por vez, lo que le permitió al clúster de IDH redistribuir los datos a los nodos restantes. Al manejar el proceso de desinstalación del clúster de IDH pudimos mitigar la pérdida de datos y monitorear el impacto en la carga de trabajo del clúster. Agregamos los servidores que habían quedado liberados del clúster de IDH desafectado al clúster de CDH. Al construir el clúster de CDH en la misma red que IDH y en los mismos racks pudimos transferir los datos de IDH a CDH con rapidez. Utilizamos el failover implícito y la tolerancia de fallas del marco de Hadoop para efectuar una desactivación y reactivación por fases de los nodos de clústers entre los sistemas paralelos. Al utilizar una infraestructura de red común disminuyeron los saltos entre los nodos de IDH y de CDH y se aprovecharon las conexiones de 10G en todos los hosts de transferencia de datos, lo que redujo el tiempo de transferencia de datos entre clústers y minimizó el impacto en nuestra carga de trabajo existente en IDH. Características de Hadoop 2.0 Alta disponibilidad de HDFS NameNode Instantáneas del sistema de archivos de HDFS NameNodes federados Mejora en el desempeño YARN Mejor práctica 4: Actualizar la versión de hadoop El cambio de Hadoop 1.0 a Hadoop 2.0 resultó simple y directo. El equipo obtuvo las características deseables que no estaban incluidas en IDH, junto con las ventajas de una plataforma de código abierto. Estas características incluyen: Alta disponibilidad para el NameNode de HDFS, que elimina el único punto de falla previo en HDFS y las soluciones específicas de la distribución y de alta disponibilidad de Hadoop. Soporte para las instantáneas (snapshots) de sistema de archivo en HDFS, que le brinda a Hadoop procesos de backup nativo y de recuperación de desastres. Soporte para los NameNodes federados, que permite una escalabilidad horizontal del espacio de nombres del sistema de archivos. Soporte para el acceso de NFS a HDFS, que permite que HDFS sea montado como un sistema de archivos estándar. Soporte para encripción de red Native, que asegura los datos mientras están en tránsito. Mejora en el desempeño para HDFS.

8 8 de 10 Además de estas características el sistema de gestión de recursos YARN puede manejar una gran gama de cargas de trabajo al usar un clúster de Hadoop para dar servicio a los marcos emergentes que no sean MapReduce, como Spark, Impala y HBase. Esta nueva flexibilidad expande los casos de uso para Hadoop, al tiempo que mejora la eficiencia de ciertos tipos de procesamiento sobre datos ya almacenados en ese lugar. Mejor práctica 5: Crear un camino de preproducción a producción Después de dividir el ambiente físico en un clúster de IDH y otro de CDH, creamos un ambiente de preproducción que nos permitiría validar nuestros procesos. El ambiente de preproducción fue alimentado por 128 núcleos (que utilizaban procesadores Intel Xeon ) e incluía volúmenes de datos reales, según se muestra en la Figura 3. Estos volúmenes de datos consistieron en 8 nodos de datos que eran equivalentes a 160 TB (con una replicación de dos vías). La creación de un ambiente de preproducción nos permitió migrar incrementalmente los datos al ambiente de CDH y comenzar con el proceso de migración de datos de manera temprana, lo que nos dio suficiente tiempo para completarlo y para tener una rápida transición al nuevo entorno de CDH. En este ambiente de preproducción seguimos los siguientes pasos: Evaluamos el tiempo necesario para pasar de IDH a CDH. Alineamos los derechos, los servidores de control y los usuarios entre los dos sistemas sin automatización. Para saber cuáles eran los mejores métodos para migrar los datos a la nueva plataforma consultamos con Cloudera una serie de temas: estándares de compresión de datos, estándares de seguridad de datos, estándares de transferencia de datos, backup y procesos de restauración de metadatos, factores de replicación, lineamientos de accesibilidad del usuario (vía Hue), asignación de memoria Impala y lineamientos para el manejo de recursos. Identificamos niveles de datos, códecs de compresión y factores de replicación que optimizaban la transferencia de datos en línea y fuera de línea. Luego comunicamos todos los cambios necesarios a los desarrolladores de funciones de ALMACENAMIENTO y de CARGA de Intel para que pudiésemos implementar adecuadamente los cambios en el espacio de nombres de HDFS y códecs. Utilizamos scripts personalizados para el servicio Hive mestastore, y para la migración de la lista de control de acceso. Tuvimos que capturar los esquemas de gestión, permisos y partición. Creamos manualmente los scripts fuera de línea antes de migrar los datos. Una semana después implementamos el sistema en el entorno de preproducción. Repetimos estas mismas tareas en el entorno de producción. Este proceso ayudó a minimizar el riesgo y el impacto al desarrollo y a los esfuerzos de corrección de errores que pudieran dar como resultado diferentes distribuciones en los entornos de preproducción y de producción. Rack 1 Preproducción Gateway Gateway (Sqoop1, HiveServer2) NameNode, Hive Metastore, Zookeeper JobTracker Backup JobTracker HBase Master, Zookeeper HBase Master, Zookeeper, Servidor Oozie NameNode secundario Job History Server, ZooKeeper Resource Manager, ZooKeeper Cloudera Manager Intel Manager NameNode primario Hive Metastore NameNode Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Intel Distribution for Apache Hadoop Cloudera Distribution for Apache Hadoop S Figura 3. El ambiente de preproducción nos permitió validar nuestros procesos. Este ambiente fue alimentado por 128 núcleos (que utilizaban procesadores Intel Xeon ) y ocho nodos de datos que contenían volúmenes de datos reales.

9 9 de 10 Hadoop MapReduce HDFS Hadoop El procesamiento de datos se ejecuta nativamente MapReduce Procesamiento de datos YARN HDFS Hadoop de próxima generación Las aplicaciones se ejecutan nativamente Map Reduce Camino de madurez de Hadoop Tez HBase Storm Giraph Spark Open MPI YARN HDFS Mejor práctica 6: Rebalancear los datos En el ambiente de producción, debido a que teníamos dos modelos de configuraciones datos-nodo-almacenamiento-capacidad, parte del proceso de migración requirió un rebalanceo continuo de los datos de HDFS dentro del clúster. HDFS cuenta con una utilidad que balancea la ubicación de los bloques de datos en los nodos de datos de manera uniforme para obtener un desempeño óptimo. Utilizar nodos más antiguos de baja capacidad junto con nodos más nuevos de alta capacidad creó una distribución poco uniforme. Los nodos de baja capacidad se llenaban mientras que se cargaban los datos en el clúster de CDH, lo que desencadenaba un rebalanceo constante para redistribuir los datos de los nodos de baja capacidad hacia los de alta capacidad. Aprovechamos la funcionalidad de rebalanceo en CDH que se puede ejecutar desde la interfaz de usuario de Cloudera Manager. Después de cada proceso de rebalanceo y de migración de datos, el equipo evaluó la distribución de datos e hizo el rebalanceo según las necesidades. Con nodos limitados, habríamos desequilibrado la capacidad del espacio del disco. Por lo tanto detuvimos la carga de datos durante la migración. Por último, el equipo documentó todos los cambios en el middleware o en kernel y estableció las siguientes mejores prácticas de migración: Documentar los límites del contenedor para las asignaciones en comparación con los rastreadores de tareas, APIs HCatalog para I/O entre Pig, Hive y MapReduce. Documentar también las limitaciones del marco Impala: UDFs, formatos de E/S, limitaciones de memoria, tablas internas y externas. Éstos orientan a Spark y afectan la posición de Hive, Spark e Impala como almacén de datos, ETL a granel y análisis en la memoria. Revisar y entender las diferencias y los valores de configuración que se deben modificar. Algunos cambios clave que necesitaron ajustes estaban relacionados con la asignación de recursos de MapReduce 1 a MapReduce 2/ YARN 1. Estabilizar el clúster con los componentes necesarios de migración solamente antes de activar servicios o capacidades adicionales. Utilizar redes troncales con mucho ancho de banda para soportar las migraciones de datos y minimizar el impacto de los procesos de transferencia de datos y ajustar las configuraciones de ancho de banda de la copia distribuida. Verificar que los requisitos del firewall de la red estén configurados para soportar la distribución de Hadoop. Utilizar nombres personales DNS en nodos límite o gateway e interfaces clave para reducir el impacto en el desarrollo. Coordinar proyectos para monitorear y tener un impacto mínimo sobre los acuerdos de nivel de servicio existentes y as expectativas de desempeño en el trabajo por lotes a lo largo del proceso de migración. Asegurarse de que los parámetros de ajuste del sistema operativo, los requisitos de permisos y los requisitos de espacio en el disco estén en línea con cada uno de los requisitos de distribución de Hadoop. 1 MapReduce 2 es una actualización para la planificación de tiempos, gestión de recursos y ejecución en Hadoop. Lea el blog para obtener información adicional en blog.cloudera.com/blog/2013/11/migrating-to-mapreduce-2-on-yarn-for-users

10 10 de 10 Conclusión TI de Intel obtuvo una valiosa experiencia a partir de esta migración. A pesar de que la migración de Hadoop fue compleja e involucró múltiples niveles de cambio, el movimiento fue exitoso. Dependimos poco de los equipos de aplicaciones y no encontramos ningún problema significativo asociado con la migración de una distribución a la otra. Una planificación cuidadosa, pruebas exhaustivas y una comunicación proactiva junto con un manejo eficiente del alcance, de los tiempos y de las habilidades nos ayudaron a tener una migración exitosa. Cuando se haga una migración de Hadoop, tenga en cuenta los siguientes consejos: Elija con cuidado el equipo de migración. La tecnología es importante; sin embargo, tener ingenieros de software con las habilidades necesarias es esencial. Los proyectos de migración pueden resultar muy complicados; por lo tanto, resulta fundamental para el éxito del proyecto planificar con antelación, evaluar en detalle ambos productos y entender las brechas. Conforme un pequeño equipo que entienda la solución en su totalidad: las plataformas, el código y las ramificaciones de la migración de datos. Asegúrese de que el equipo pueda comunicarse, ejecutar y evaluar la lista de cambios que es necesario sincronizar para una migración exitosa. Aproveche las opciones del código abierto. TI de Intel se benefició con la distribución de Hadoop que cuenta con un código abierto en su núcleo, no un software propietario. Mantenerse con los componentes de software de código abierto ayuda a minimizar el costo total de propiedad. Comenzar a una escala pequeña ayuda a mantener el foco en el diseño y en la escalabilidad de la plataforma. Mantenga el diseño tan simple como sea posible. TI de Intel priorizó la integración de los componentes y de las capacidades según los casos de uso, en vez de pensar que se deben activar características completamente nuevas. Mantuvimos un equilibrio de alcance, tiempos, pruebas y recursos. Si no resulta claro qué características activar, priorice solamente las que indiquen los casos de uso actuales. A partir de allí, el equipo podrá construir y avanzar en los conjuntos de características según sea necesario. Para nuestra migración los equipos técnicos, de negocios y de modelos utilizaron un método de descubrimiento iterativo para entender los datos. Los entornos divididos ayudaron a simplificar la transferencia de datos. En general, mantener simple el proceso de migración fue la clave para nuestra migración exitosa. El programa conecta a profesionales de TI alrededor del mundo con sus colegas dentro de Intel. Nuestro departamento de TI resuelve algunos de los problemas tecnológicos más exigentes y complejos de la actualidad, y queremos compartir las lecciones directamente con otros profesionales de TI en un foro abierto de pares. Nuestro objetivo es simple: mejorar la eficiencia en toda la organización y aumentar el valor para el negocio de las inversiones en TI. Síganos y participe de nuestras conversaciones en: Twitter #IntelIT LinkedIn IT Center Community Visítenos hoy mismo en intel.com/it o póngase en contacto con su representante local de Intel para obtener más información. Información relacionada Visite intel.com/it para obtener contenidos sobre temas relacionados (en inglés): Cómo Intel implementó una solución de bajo costo para Big Data en cinco semanas Las Mejores prácticas de TI de Intel para implementar el software Apache Hadoop* La Integración de Apache Hadoop* en el ambiente de Big Data de Intel Para obtener información adicional sobre las mejores prácticas de TI de Intel visite LA INFORMACIÓN EN ESTE DOCUMENTO PRETENDE SER DE CARÁCTER GENERAL Y NO UNA GUÍA ESPECÍFICA. LAS RECOMENDACIONES (INCLUYENDO LOS POTENCIALES AHORROS DE COSTOS) ESTÁN BASADAS EN LA EXPERIENCIA DE INTEL Y SON SOLAMENTE ESTIMACIONES. INTEL NO GARANTIZA NI ASEGURA QUE OTROS PUEDA OBTENER RESULTADOS SIMILARES. LA INFORMACIÓN EN ESTE DOCUMENTO SE SUMINISTRA EN RELACIÓN CON PRODUCTOS Y SERVICIOS INTEL. EL PRESENTE DOCUMENTO NO OTORGA NINGUNA LICENCIA, NI EXPRESA NI IMPLÍCITA, NI POR EXCLUSIÓN, NI DE NINGUNA OTRA MANERA, SOBRE NINGÚN DERECHO DE PROPIEDAD INTELECTUAL. A EXCEPCIÓN DE LO ESTABLECIDO EN LOS TÉRMINOS Y CONDICIONES DE VENTA DE INTEL PARA DICHOS PRODUCTOS. EN NINGÚN CASO INTEL SERÁ RESPONSABLE Y CONSECUENTEMENTE RECHAZA CUALQUIER GARANTÍA EXPLÍCITA O IMPLÍCITA CON RESPECTO A LA VENTA Y/O EL USO DE LOS PRODUCTOS Y SERVICIOS INTEL, INCLUYENDO LAS RESPONSABILIDADES O GARANTÍAS RELACIONADAS CON LA IDONEIDAD PARA UN FIN DETERMINADO, LA COMERCIABILIDAD O LA INFRACCIÓN DE CUALQUIER PATENTE, DERECHO DE AUTOR U OTRO DERECHO DE PROPIEDAD INTELECTUAL. Intel, el logotipo de Intel y Xeon son marcas comerciales de Intel Corporation en los EE. UU. y en otros países. *Otros nombres y marcas pueden ser reclamados como propiedad de terceros. Copyright 2015 Intel Corporation. Todos los derechos reservados. Impreso en EE. UU Por favor reciclar 0315/JSED/KC/PDF

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop

Más detalles

Hadoop. Cómo vender un cluster Hadoop?

Hadoop. Cómo vender un cluster Hadoop? Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las

Más detalles

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD Informe técnico Solución empresarial Hadoop de EMC NAS de escalamiento horizontal Isilon y Greenplum HD Por Julie Lockner, analista ejecutivo, y Terri McClure, analista ejecutivo Febrero de 2012 Este Informe

Más detalles

Minimice los riesgos para la migración de red del centro de datos

Minimice los riesgos para la migración de red del centro de datos Minimice los riesgos para la migración de red del centro de datos Optimice su arquitectura e inversión de TI y, al mismo tiempo, reduzca la complejidad y los riesgos Los Servicios de migración de centros

Más detalles

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios

Más detalles

Big data A través de una implementación

Big data A través de una implementación Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina

Más detalles

Implementación, aprovisionamiento y actualización de Windows Server con System Center

Implementación, aprovisionamiento y actualización de Windows Server con System Center Implementación automatizada y centralizada, aprovisionamiento y actualización de Windows Server La implementación y el mantenimiento de Windows Server en sistemas operativos de centros de datos y entornos

Más detalles

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928 Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International

Más detalles

Big Data con nombres propios

Big Data con nombres propios Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán

Más detalles

Conectores Pentaho Big Data Community VS Enterprise

Conectores Pentaho Big Data Community VS Enterprise Conectores Pentaho Big Data Community VS Enterprise Agosto 2014 Stratebi Business Solutions www.stratebi.com info@stratebi.com Índice 1. Resumen... 3 2. Introducción... 4 3. Objetivo... 4 4. Pentaho Community

Más detalles

SISTEMA OPERATIVO EMC ISILON ONEFS

SISTEMA OPERATIVO EMC ISILON ONEFS SISTEMA OPERATIVO EMC ISILON ONEFS Eficiencia en el almacenamiento de escalamiento horizontal para cargas de trabajo actuales y futuras de big data y objetos Aspectos fundamentales Arquitectura fácil de

Más detalles

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center El software descrito en el presente manual

Más detalles

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca

Más detalles

Fernando Gutiérrez-Cabello. Data Discovery y visualizaciones en MicroStrategy 10

Fernando Gutiérrez-Cabello. Data Discovery y visualizaciones en MicroStrategy 10 Fernando Gutiérrez-Cabello Data Discovery y visualizaciones en MicroStrategy 10 Clientes Beta de MicroStrategy 10 Por primera vez, MicroStrategy 10 ofrece una plataforma de analítica que combina una experiencia

Más detalles

Anuncio de software ZP10-0030 de IBM Europe, Middle East and Africa, con fecha 16 de febrero de 2010

Anuncio de software ZP10-0030 de IBM Europe, Middle East and Africa, con fecha 16 de febrero de 2010 con fecha 16 de febrero de 2010 Los productos IBM Tivoli Storage Manager V6.2 cuentan con funciones adicionales de reducción de datos y compatibilidad mejorada con entornos virtualizados Índice 1 Visión

Más detalles

El valor de una infraestructura optimizada

El valor de una infraestructura optimizada El valor de una infraestructura optimizada El Estudio del Estado del CIO 2006 (CIO Research, 2006) muestra que los CIO están buscando, cada vez más, introducir, de forma proactiva, soluciones de tecnología

Más detalles

Servicio de instalación y puesta en marcha del software HP 3PAR 7000

Servicio de instalación y puesta en marcha del software HP 3PAR 7000 Datos técnicos Servicio de instalación y puesta en Servicios HP Care Pack Ventajas del servicio Permite que sus recursos de TI se concentren en sus tareas y prioridades principales. Reduce los tiempos

Más detalles

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en

Más detalles

Consolidación inteligente de servidores con System Center

Consolidación inteligente de servidores con System Center Consolidación de servidores a través de la virtualización Los clientes de Microsoft que abordan el tema de la administración de centros de datos dan prioridad a la consolidación de servidores como requisito

Más detalles

MÁSTER: MÁSTER EXPERTO BIG DATA

MÁSTER: MÁSTER EXPERTO BIG DATA MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster

Más detalles

Appliance Symantec Backup Exec 3600

Appliance Symantec Backup Exec 3600 Activar, configurar y listo Hoja de datos: Protección de datos Descripción general El appliance Symantec Backup Exec 3600 es la única solución que proporciona el software Symantec Backup Exec en hardware

Más detalles

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1 ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones

Más detalles

Ventajas de la migración a servicios de middleware modernos

Ventajas de la migración a servicios de middleware modernos Ventajas de la migración a servicios de middleware modernos Marcia Kaufman Directora de operaciones y analista jefe Patrocinado por Red Hat Introducción Las aplicaciones comerciales ya no se limitan a

Más detalles

FAMILIA EMC VPLEX. Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos

FAMILIA EMC VPLEX. Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos FAMILIA EMC VPLEX Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos MOVILIDAD DE DATOS Y DISPONIBILIDAD CONTINUAS PARA APLICACIONES DE MISIÓN CRÍTICA La infraestructura

Más detalles

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido

Más detalles

Habilitando la empresa ágil a través de datos unificados La travesía hacia la plataforma de datos analítico-transaccionales

Habilitando la empresa ágil a través de datos unificados La travesía hacia la plataforma de datos analítico-transaccionales Habilitando la empresa ágil a través de datos unificados Agosto de 2015 Cómo se utilizan los datos hoy Los datos analíticos se derivan y separan a partir de datos transaccionales. Requieren bases de datos

Más detalles

MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC

MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECLOGÍA SYMANTEC La PowerVault DL2000 con tecnología Symantec Backup Exec ofrece la única solución de respaldo en disco completamente integrada

Más detalles

Tecnologías de Big Data para resultados en tiempo casi real

Tecnologías de Big Data para resultados en tiempo casi real DOCUMENTO TÉCNICO Procesadores Intel Xeon Unidades de disco de estado sólido Intel (Intel SSDs) Adaptadores de Red Convergente Intel Ethernet Distribución de Intel para el software Hadoop* Tecnologías

Más detalles

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS

Más detalles

EMC SCALEIO SAN de servidor convergente definida por software

EMC SCALEIO SAN de servidor convergente definida por software EMC SCALEIO SAN de servidor convergente definida por software ASPECTOS FUNDAMENTALES Solo para software Arquitectura convergente de capa simple Escalabilidad lineal Rendimiento y capacidad según demanda

Más detalles

Descripción Ventajas Ventajas de CA

Descripción Ventajas Ventajas de CA CA ARCSERVE BACKUP, UN PRODUCTO DE PROTECCIÓN DE DATOS DE ALTO RENDIMIENTO LÍDER DEL SECTOR, UNE LA INNOVADORA TECNOLOGÍA DE ELIMINACIÓN DE DATOS DUPLICADOS, INFORMES POTENTES DE GESTIÓN DE RECURSOS DE

Más detalles

Symantec Backup Exec 3600 Appliance

Symantec Backup Exec 3600 Appliance El appliance de copia de seguridad y recuperación todo en uno para empresas medianas Hoja de datos: Protección de datos Descripción general es la única solución lista para usar que proporciona el software

Más detalles

VMware vsphere Data Protection

VMware vsphere Data Protection PREGUNTAS FRECUENTES VMware vsphere Data Protection Descripción general de vsphere Data Protection Advanced P. Qué es VMware vsphere Data Protection Advanced? R. VMware vsphere Data Protection Advanced

Más detalles

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS Y TELEMÁTICA

Más detalles

Arcserve Backup: Protección para entornos NAS heterogéneos con NDMP

Arcserve Backup: Protección para entornos NAS heterogéneos con NDMP Arcserve Backup: Protección para entornos NAS heterogéneos con NDMP Phil Maynard DATA MANAGEMENT CUSTOMER SOLUTIONS UNIT FEBRERO DE 2012 Introducción Adonde quiera que mire, la cantidad de aplicaciones

Más detalles

Validación global. Aplicaciones líderes del sector. BMC Remedy Service Desk. Líder del mercado INFORME DE SOLUCIONES

Validación global. Aplicaciones líderes del sector. BMC Remedy Service Desk. Líder del mercado INFORME DE SOLUCIONES INFORME DE SOLUCIONES BMC Remedy IT Service Management Suite Las organizaciones de TI que logran una mayor eficacia, gestionan los costes de forma eficaz, consiguen el cumplimiento normativo y ofrecen

Más detalles

Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante?

Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante? INFORME DE LA SOLUCIÓN: CA ARCSERVE BACKUP PARA MICROSOFT ESSENTIAL BUSINESS SERVER Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante? CA ARCserve

Más detalles

ORACLE ENTERPRISE MANAGER 10g CONFIGURATION MANAGEMENT PACK PARA ORACLE DATABASE

ORACLE ENTERPRISE MANAGER 10g CONFIGURATION MANAGEMENT PACK PARA ORACLE DATABASE ORACLE ENTERPRISE MANAGER 10g CONFIGURATION MANAGEMENT PACK PARA ORACLE DATABASE CARACTERÍSTICAS DE CONFIGURATION MANAGEMENT PACK Detección automatizada de relaciones de dependencia entre los servicios,

Más detalles

Respaldo y recuperación en ambientes VMware con Avamar 6.0

Respaldo y recuperación en ambientes VMware con Avamar 6.0 Informe técnico Respaldo y recuperación en ambientes VMware con Avamar 6.0 Análisis detallado Resumen Dado el ritmo cada vez más rápido de la implementación de ambientes virtuales en la nube de la compañía,

Más detalles

Cocinando con Big Data

Cocinando con Big Data Cocinando con Big Data Javier Sánchez BDM Big Data jsanchez@flytech.es 91.300.51.09 21/11/2013 Javier Sánchez 1 Agenda Qué es Big Data? Receta Punto de Partida Para qué Big Data? Conclusiones 21/11/2013

Más detalles

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ MARCO TEÓRICO. 13 14 Virtualización Hablar de virtualización es hablar de un concepto que describe la posibilidad de tener varios sistemas operativos funcionando al mismo tiempo en un mismo equipo físico.

Más detalles

UPSTREAM for Linux. Descripción general. Valor de negocio

UPSTREAM for Linux. Descripción general. Valor de negocio HOJA DE PRODUCTO UPSTREAM for Linux on System z UPSTREAM for Linux on System z UPSTREAM for Linux on System z está diseñada de modo que proporcione una protección integral de los datos del entorno Linux

Más detalles

Por qué su mesa de servicios actual no es eficaz para su negocio y qué se puede hacer al respecto

Por qué su mesa de servicios actual no es eficaz para su negocio y qué se puede hacer al respecto INFORME OFICIAL Septiembre de 2012 Por qué su mesa de servicios actual no es eficaz para su negocio y qué se puede hacer al respecto agility agility made possible made possible Tabla de contenido Resumen

Más detalles

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE)

Big Data y Supercómputo. Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data y Supercómputo Dr. Jesús Antonio González (jagonzalez@inaoep.mx) Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) Big Data 2 Hasta qué cantidad de datos podemos procesar en nuestra

Más detalles

Familia IBM Storwize Escalabilidad de capacidades y valor

Familia IBM Storwize Escalabilidad de capacidades y valor Informe tecnológico Familia IBM Storwize Escalabilidad de capacidades y valor Por Randy Kerns Enero de 2013 Le permite tomar las mejores decisiones de tecnología Familia IBM Storwize Escalabilidad de capacidades

Más detalles

EMC UNIFIED INFRASTRUCTURE MANAGER

EMC UNIFIED INFRASTRUCTURE MANAGER EMC UNIFIED INFRASTRUCTURE MANAGER Simplifique la transición a una infraestructura de nube privada o híbrida en los sistemas Vblock Cree un solo ambiente virtualizado Provisione como una sola infraestructura.

Más detalles

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Informe técnico ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Análisis detallado Resumen Ningún mecanismo por sí mismo

Más detalles

Monitorización de actividades de datos InfoSphere Guardium para Big Data

Monitorización de actividades de datos InfoSphere Guardium para Big Data Monitorización de actividades de datos InfoSphere Guardium para Big Data Amal Mashlab IBM Software Group, Information Management Responsable de Ventas de Gobierno de la Información para Europa Cumplir

Más detalles

Cómo CA Recovery Management puede ayudarnos a proteger y garantizar la disponibilidad de la información que impulsa nuestros negocios?

Cómo CA Recovery Management puede ayudarnos a proteger y garantizar la disponibilidad de la información que impulsa nuestros negocios? DESCRIPCIÓN DE LA SOLUCIÓN: GESTIÓN DE LA RECUPERACIÓN DE CA Cómo CA Recovery Management puede ayudarnos a proteger y garantizar la disponibilidad de la información que impulsa nuestros negocios? CA Recovery

Más detalles

Catálogo de Servicios

Catálogo de Servicios Catálogo de Servicios Fecha: 14 de mayo de 2013 Índice 1 Presentación... 3 2 Servicios de Consultoría SQL Server... 4 2.1 Monitorización servidores SQL Server... 4 2.2 DBA Remoto... 5 2.3 Consolidación

Más detalles

Double-Take Availability para Windows

Double-Take Availability para Windows Double-Take Availability para Windows Ficha de datos técnicos Una solución de alta disponibilidad para Windows compatible con todo tipo de entornos Double-Take Availability se presenta como un completo

Más detalles

INFORME PREVIO DE EVALUACIÓN DE SOFTWARE N EI-007-2007

INFORME PREVIO DE EVALUACIÓN DE SOFTWARE N EI-007-2007 INFORME PREVIO DE EVALUACIÓN DE SOFTWARE N EI-007-2007 1. NOMBRE DEL ÁREA División de Sistemas de Información 2. RESPONSABLE DE LA EVALUACIÓN Luis Antonio Manya Aqquehua 3. CARGO Jefe de Sistemas de Información

Más detalles

Qué es Open Source Enterprise?

Qué es Open Source Enterprise? Qué es Open Source Enterprise? Asegurar que su infraestructura IT puede dar soporte a su negocio Por Deb Woods, Corporation. Open Source Enterprise Introducción Existe una amplia discusión en el mercado

Más detalles

Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Introducción

Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Introducción Enero 2010 Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Reorganizarse para lograr eficiencia, rendimiento y alta disponibilidad Introducción La agrupación

Más detalles

Symantec Backup Exec.cloud

Symantec Backup Exec.cloud Protección automática, continua y segura que realiza copias de seguridad de los datos hacia la nube, o a través de un enfoque híbrido in situ y basado en la nube Hoja de datos: Symantec.cloud Solo un 2

Más detalles

La familia de productos CA XOsoft r12.5 permite la continuidad del negocio y la recuperación de desastres

La familia de productos CA XOsoft r12.5 permite la continuidad del negocio y la recuperación de desastres RESUMEN DE LA FAMILIA DE PRODUCTOS: CA XOSOFT La familia de productos CA XOsoft r12.5 permite la continuidad del negocio y la recuperación de desastres CA Recovery Management CA ARCserve Backup CA XOsoft

Más detalles

Standard Client. NetBackup Standard Client contiene componentes clave, como NetBackup Client, Bare Metal Restore y Client Encryption.

Standard Client. NetBackup Standard Client contiene componentes clave, como NetBackup Client, Bare Metal Restore y Client Encryption. Plataforma Veritas NetBackup: la protección de datos de última generación Descripción general Veritas NetBackup ofrece una selección simple y a la vez completa de innovadores clientes y agentes que optimizan

Más detalles

Veritas Storage Foundation de Symantec

Veritas Storage Foundation de Symantec Maximice su eficiencia, disponibilidad, agilidad y desempeño de almacenamiento Hoja de datos: Administración de almacenamiento Visión general Veritas Storage Foundation de Symantec maximiza la eficiencia

Más detalles

REPORTE OFICIAL OCTUBRE DE 2014. CA Unified Infrastructure Management para servidores

REPORTE OFICIAL OCTUBRE DE 2014. CA Unified Infrastructure Management para servidores REPORTE OFICIAL OCTUBRE DE 2014 CA Unified Infrastructure Management para servidores 2 Reporte oficial: CA Unified Infrastructure Management para servidores Tabla de contenidos Descripción general de la

Más detalles

EMC Data Domain Boost para Oracle Recovery Manager (RMAN)

EMC Data Domain Boost para Oracle Recovery Manager (RMAN) Informe técnico EMC Data Domain Boost para Oracle Recovery Manager (RMAN) Resumen EMC ofrece a los administradores de bases de datos (DBA) control total de los procesos de respaldo, recuperación y recuperación

Más detalles

Resumen del producto Backup r16.5

Resumen del producto Backup r16.5 Resumen del producto Backup r16.5 En los negocios, la evolución es constante. El personal crece. Nacen nuevas oficinas. Se implementan nuevas aplicaciones y, normalmente, usted es el único responsable

Más detalles

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Informe ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Análisis detallado Resumen Ningún mecanismo por sí mismo es suficiente

Más detalles

Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes.

Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes. Adquisición planificada del negocio de servidores x86 combinará fortalezas de IBM y de Lenovo para maximizar valor para clientes Abril de 2014 Contenido Resumen Ejecutivo 3 Introducción 3 IBM recibe altos

Más detalles

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel Software Intel para administración de sistemas Guía del usuario del Paquete de administración de servidores modulares Intel Declaraciones legales LA INFORMACIÓN CONTENIDA EN ESTE DOCUMENTO SE PROPORCIONA

Más detalles

NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales

NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales Libro blanco NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales Por Mark Bowker Julio de 2010 Este libro blanco de ESG fue encargado por [Empresa] y se distribuye bajo

Más detalles

Diferencias entre Windows 2003 Server con Windows 2008 Server

Diferencias entre Windows 2003 Server con Windows 2008 Server Diferencias entre Windows 2003 Server con Windows 2008 Server WINDOWS SERVER 2003 Windows Server 2003 es un sistema operativo de propósitos múltiples capaz de manejar una gran gama de funsiones de servidor,

Más detalles

CURSO PRESENCIAL: ADMINISTRADOR HADOOP

CURSO PRESENCIAL: ADMINISTRADOR HADOOP CURSO PRESENCIAL: ADMINISTRADOR HADOOP Información detallada del curso www.formacionhadoop.com El curso se desarrolla a lo largo de 4 semanas seguidas. Se trata de un curso formato ejecutivo que permite

Más detalles

Restaure fácilmente archivos y carpetas, mensajes de correo electrónico de Exchange o documentos de SharePoint en segundos.

Restaure fácilmente archivos y carpetas, mensajes de correo electrónico de Exchange o documentos de SharePoint en segundos. Protección contra desastres y tiempo fuera de servicio mediante copias de seguridad y recuperaciones rápidas y fiables. Presentación Symantec Backup Exec System Recovery 2010 es una solución de copia de

Más detalles

Symantec Protection Suite Enterprise Edition Protección de confianza para entornos web, mensajería y puntos finales

Symantec Protection Suite Enterprise Edition Protección de confianza para entornos web, mensajería y puntos finales Protección de confianza para entornos web, mensajería y puntos finales Presentación crea un entorno protegido para la web, mensajería y puntos finales contra las amenazas actuales más complejas de malware,

Más detalles

Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014

Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014 Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014 Página 1 de 5 Objetivo Conocer más acerca de vranger Contenido Resguardo, Replicación y Recuperación Simple, Rápida y Escalable basada

Más detalles

RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION

RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION arcserve UDP Ante el crecimiento de los datos y los avances tecnológicos, tales como la virtualización, las arquitecturas actuales de protección de datos

Más detalles

NUBE PRIVADA DE EMC VSPEX:

NUBE PRIVADA DE EMC VSPEX: NUBE PRIVADA DE EMC VSPEX: EMC VSPEX Resumen En este documento se describe la solución de infraestructura comprobada de EMC VSPEX para implementaciones de nube privada con Microsoft Hyper-V y la tecnología

Más detalles

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web.

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web. Microsoft Office SharePoint Server 2007 es un conjunto integrado de características de servidor que puede contribuir a mejorar la eficacia organizativa al ofrecer completas funciones de administración

Más detalles

Virtualizando las Aplicaciones Críticas del Negocio

Virtualizando las Aplicaciones Críticas del Negocio Virtualizando las Aplicaciones Críticas del Negocio Roberto Barbero Senior Systems Engineer, VMware Junio 2011 2010 VMware Inc. All rights reserved Agenda Qué demandan las empresas? Por qué no es sostenible

Más detalles

DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS

DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS INFORME DE SOLUCIÓN DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS ENERO DE 2013 Muchas organizaciones descubren que sus grandes implementaciones de almacenamiento

Más detalles

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V Windows Server 2012 Storage Technical Details Module 2: Compatibilidad de SMB con SQL e Hyper-V Manual del módulo Autor: Rose Malcolm, responsable de contenidos Publicado: 4 de septiembre de 2012 La información

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

Appliance IBM Netezza High Capacity

Appliance IBM Netezza High Capacity Appliance IBM Netezza High Capacity Archivado de datos con escala peta, análisis y recuperación de desastres Appliance de alta capacidad de IBM Netezza Puntos destacados: Permite la consulta y el análisis

Más detalles

Backup Exec 2012. Guía de instalación rápida

Backup Exec 2012. Guía de instalación rápida Backup Exec 2012 Guía de instalación rápida Instalación Este documento incluye los temas siguientes: Requisitos del sistema Lista de verificación de instalación previa de Backup Exec Cómo realizar una

Más detalles

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Desarrollador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: DESARROLLO 2.

Más detalles

600 M documentos 300 TB 1,5 LA EXPERIENCIA MARCA LA DIFERENCIA ONBASE CLOUD / Más de. Más de. Más de. Más de. mil millones de documentos almacenados

600 M documentos 300 TB 1,5 LA EXPERIENCIA MARCA LA DIFERENCIA ONBASE CLOUD / Más de. Más de. Más de. Más de. mil millones de documentos almacenados ONBASE CLOUD 1 ONBASE CLOUD / LA EXPERIENCIA MARCA LA DIFERENCIA OnBase Cloud de Hyland Cuando se trata de las implementaciones en la nube, la experiencia marca la diferencia. Gracias a esta experiencia,

Más detalles

XII Encuentro Danysoft en Microsoft Abril 2015. Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código

XII Encuentro Danysoft en Microsoft Abril 2015. Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código Business Intelligence y Big Data XII Encuentro Danysoft en Microsoft Directos al código Ana María Bisbé York Servicios Profesionales sp@danysoft.com 916 638683 www.danysoft.com Abril 2015 Sala 1 SQL Server

Más detalles

Qué significa Hadoop en el mundo del Big Data?

Qué significa Hadoop en el mundo del Big Data? Qué significa Hadoop en el mundo del Big Data? Un contenido para perfiles técnicos 2 ÍNDICE Qué significa Hadoop en el Universo Big Data?.... 3 El planteamiento: big data y data science.... 3 Los desafíos

Más detalles

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D es un producto de recuperación basado en disco diseñado para ofrecer la combinación perfecta de protección fiable y recuperación rápida de los datos empresariales de sus

Más detalles

Virtualización de las aplicaciones fundamentales para el negocio. 2010 VMware Inc. Todos los derechos reservados.

Virtualización de las aplicaciones fundamentales para el negocio. 2010 VMware Inc. Todos los derechos reservados. Virtualización de las aplicaciones fundamentales para el negocio 2010 VMware Inc. Todos los derechos reservados. Agenda Introducción Ventajas de la virtualización de aplicaciones Eficiencia: reduzca los

Más detalles

Obtenga recolección de registros escalable hoy

Obtenga recolección de registros escalable hoy Hoja de datos Obtenga recolección de registros escalable hoy HP ArcSight Connectors Usted archiva y analiza datos de registros por una amplia gama de motivos que abarcan desde monitoreo de la seguridad

Más detalles

Veritas Cluster Server de Symantec

Veritas Cluster Server de Symantec Ofrece alta disponibilidad y recuperación después de un desastre para las aplicaciones críticas Hoja de datos: Alta disponibilidad Descripción general protege las aplicaciones más importantes contra el

Más detalles

Respaldo diseñado para su ambiente virtual

Respaldo diseñado para su ambiente virtual Respaldo diseñado para su ambiente virtual EMC Avamar: optimizado para Microsoft Hyper-V y ware vsphere 1 Agenda Panorama del mercado Respaldo y recuperación de Hyper-V Respaldo y recuperación de ware

Más detalles

Unicenter Asset Management versión 4.0

Unicenter Asset Management versión 4.0 D A T A S H E E T Unicenter Asset Management versión 4.0 Unicenter Asset Management es una completa solución para gestionar los activos TI de su entorno empresarial de forma activa. Proporciona funciones

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 1: INTRODUCCIÓN www.formacionhadoop.com Índice 1 Por qué realizar el curso de desarrollador para Apache Hadoop? 2 Requisitos previos del curso 3 Bloques

Más detalles

Planeación del Proyecto de Software:

Planeación del Proyecto de Software: Apéndice A. Cuestionarios del Sistema Evaluador Nivel2. Requerimientos de Administración: Goal 1: Los requerimientos del sistema asociados a software están bien controlados y existe un estándar para los

Más detalles

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Informe elaborado bajo contrato con EMC Corporation Introducción EMC Corporation contrató a Demartek para llevar a cabo una evaluación

Más detalles

PARA EL CLÚSTERING DE SQL SERVER

PARA EL CLÚSTERING DE SQL SERVER MEJORES PRÁCTICAS PARA EL CLÚSTERING DE SQL SERVERR CONTENIDO Antes de comenzar... 3 Planeación... 3 Análisis de Riesgo... 3 Mejores Prácticas Generales... 3 Mejores Prácticas de Hardware... 4 Mejores

Más detalles

CURSO PRESENCIAL: DESARROLLADOR BIG DATA

CURSO PRESENCIAL: DESARROLLADOR BIG DATA CURSO PRESENCIAL: DESARROLLADOR BIG DATA Información detallada del curso www.formacionhadoop.com El curso se desarrolla durante 3 semanas de Lunes a Jueves. Se trata de un curso formato ejecutivo que permite

Más detalles

CENTRO DE DATOS Y POP

CENTRO DE DATOS Y POP Virtual y física. Pública y privada. Por horas o por meses. Nuestra plataforma unificada proporciona infraestructuras en la nube a nivel de Internet. Todo lo que quiera, desplegado bajo demanda y en tiempo

Más detalles

Plataforma Cloud con HP 3PAR y VMware vsphere

Plataforma Cloud con HP 3PAR y VMware vsphere Mayo 2011 Elaborado por nerion Todos los derechos reservados. Plataforma Cloud con HP 3PAR y VMware vsphere SOBRE NERION nerion es una de las principales Empresas españolas de registro de dominios, hosting

Más detalles

Respaldo de EMC para SAP HANA listo para el centro de datos. EMC Data Domain con DD Boost

Respaldo de EMC para SAP HANA listo para el centro de datos. EMC Data Domain con DD Boost de EMC para SAP HANA listo para el centro de datos EMC Data Domain con DD Boost 1 Información empresarial: Big data Información de partner Información pública Información estructurada en bases de datos

Más detalles

Clientes y agentes de Symantec NetBackup 7.1

Clientes y agentes de Symantec NetBackup 7.1 Clientes y agentes de Symantec NetBackup 7.1 Protección completa para su empresa basada en información Hoja de datos: Protección de datos Descripción general Symantec NetBackup ofrece una selección sencilla

Más detalles