Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop*

Tamaño: px
Comenzar la demostración a partir de la página:

Download "IT@Intel Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop*"

Transcripción

1 Documento técnico de Marzo de 2015 Cómo TI de Intel migró con éxito hacia Cloudera Apache Hadoop* A partir de nuestra experiencia original con el software Apache Hadoop, TI de Intel identificó nuevas oportunidades para reducir los costos de TI y aumentar nuestras capacidades de BI Nghia Ngo Ingeniero de Capacidades de Big Data, Intel IT Sonja Sandeen Gerente de Producto de Big Data, Intel IT Darin Watson Ingeniero de Plataformas, Intel IT Chandhu Yalla Gerente de Ingeniería de Big Data, Intel IT Seshu Edala Ingeniero de Capacidades de Big Data, Intel IT Sinforoso Tolentino Ingeniero de Plataformas, Intel IT Resumen ejecutivo TI de Intel considera valioso el procesamiento de grandes cantidades de datos (Big Data) basado en códigos abiertos utilizando el software Apache Hadroop*. Hasta hace poco, utilizábamos el software Intel Distribution for Apache Hadoop (IDH) para soportar nuestros tres casos de uso de Big Data en inteligencia de negocios (BI, por su sigla en inglés), y reportaba resultados que ascendían a millones de dólares para Intel. Sin embargo, nos dimos cuenta de que nos podríamos beneficiar con la migración hacia el software de Distribución Cloudera para Apache Hadoop (CDH). A partir de nuestra experiencia original con el software Apache Hadoop, TI de Intel identificó nuevas oportunidades para reducir los costos de TI y para aumentar nuestras capacidades en inteligencia de negocios (BI). Gracias a la formación de una alianza estratégica con Cloudera, TI de Intel adoptó CDH y migró rápidamente de IDH. Utilizamos las herramientas CDH para empresas para mejorar el desempeño, la gestión, y la facilidad de uso para los componentes clave de Hadoop. Este documento explica los beneficios de la migración para los grupos empresariales de TI e incluye las seis mejores prácticas desarrolladas por el equipo de migración de Intel IT: Hacer una evaluación comparativa en un ambiente de prueba Definir la estrategia de implementación Dividir el ambiente del hardware Actualizar la versión de Hadoop Crear un camino de pre-producción a producción Rebalancear los datos Se pudo lograr una migración exitosa a través de una planificación cuidadosa, pruebas exhaustivas, comunicación proactiva y también mediante una gestión eficiente del alcance, de los tiempos y de las habilidades.

2 2 de 10 Contenidos 1 Resumen ejecutivo 2 Antecedentes 2 Mejores prácticas para la migración de IDH a CDH Mejor Práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba Mejor Práctica 2: Definir nuestra estrategia para la implementación de cloudera Mejor Práctica 3: Dividir el ambiente de hardware Mejor Práctica 4: Actualizar la versión de hadoop Mejor Práctica 5: Crear un camino de preproducción a producción Mejor Práctica 6: Rebalancear los datos 10 Conclusión Acrónimos ACL Lista de control de acceso BI Inteligencia de Negocios CDH Distribución Cloudera para Apache Hadoop HDFS Hadoop Distributed File System IDH Intel Distribution for Apache Hadoop SLA Acuerdo de nivel de servicio Antecedentes TI de Intel considera valioso el procesamiento de grandes cantidades de datos (Big Data) basado en códigos abiertos con la utilización de Apache Hadoop*. Utilizamos la distribución Hadoop propia de Intel, el software Intel Distibution for Apache Hadoop. Luego, determinamos que pasarse a la Distribución Cloudera para Apache Hadoop (CDH) ofrece ventajas significativas, que se muestran en la Figura 1. CDH contiene la totalidad de la distribución a partir del proyecto de código abierto de Apache Hadoop y también cuenta con otros componentes clave como la infraestructura de almacén de datos Apache Hive* y el lenguaje de flujo de datos Apache Pig*. CDH también ofrece herramientas de gestión y de desarrollo de software empresariales para ayudar a los desarrolladores y a los administradores de sistemas a mejorar el desempeño, gestión y facilidad de uso de los componentes únicos de Hadoop como Cloudera Manager, Cloudera Impala, Navigator y Sentry. La migración hacia CDH también nos permitió actualizar Hadoop de 1.0 a 2.0. Mejores prácticas para la migración de IDH a CDH Una migración exitosa necesita una cuidadosa planificación para hacer frente a tres desafíos clave: Hacer frente a las variaciones de Hadoop. La instalación sin modificaciones de Hadoop utiliza los valores de configuración preestablecidos. Estos valores difieren dependiendo de las variaciones de Hadoop. Un análisis comparativo puede resultar de ayuda antes de la migración (ver Mejor práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba). Entender el alcance de los cambios. Debemos minimizar los impactos negativos causados por los cambios de infraestructura a nuestros desarrolladores de aplicaciones y a los clientes que utilizan dichas aplicaciones. Para invertir y llevar a cabo dicha conversión, los equipos de las empresas o de los clientes esperan tener la misma experiencia, o una aún mejor. Ventajas de la Distribución Cloudera para Apache Hadoop Características Características deseables, conjuntos de características maduras y actualizaciones más rápidas Soporte Soporte basado en el proveedor y a nivel empresarial Herramientas Herramientas de gestión de nivel empresarial y de desarrollo de software Código abierto Distribución completa a partir del proyecto de código abierto de Apache Hadoop. Figura 1. Distribución Cloudera para Apache Hadoop*(CDH) ofrece ventajas significativas.

3 3 de 10 Completar la migración in situ puntualmente. La migración hizo que tuviésemos que ejecutar los ambientes de IDH y de CDH en paralelo. Nuestro objetivo fue operar ambos ambientes en tándem durante un período de tiempo lo más corto posible para balancear todas las partes funcionales entre los proyectos de los clientes y los cambios en la plataforma. Para hacerlo, el equipo de migraciones tuvo que evitar que los racks o los servidores permaneciesen ociosos durante la transferencia de datos y las pruebas. Para abordar estos tres desafíos, el equipo de migración de TI de Intel siguió seis mejores prácticas. Mejor práctica 1: Identificar las diferencias utilizando una evaluación comparativa en un entorno de prueba Al utilizar un ambiente de prueba o restringido para efectuar una evaluación completa de IDH y de CDH fue posible identificar las diferencias entre los dos ambientes y, al mismo tiempo, tener una interrupción mínima en las operaciones. El equipo de migración pudo estudiar la arquitectura de la solución propuesta para los diversos casos de estudio y así determinar las características críticas. Comparamos las características y las capacidades, como los marcos de inteligencia de negocios (BI), contenedores de E/S, códecs de compresión, seguridad y listas de control de acceso (ACL), límites de asignación de contenedores y demás, aislando una configuración de la otra. 6 mejores prácticas para la migración 1: Identificar las diferencias utilizando una evaluación comparativa en un ambiente de prueba 2: Definir nuestra estrategia para la implementación de Cloudera 3: Dividir el ambiente de hardware 4: Actualizar la versión de Hadoop 5: Crear un camino de Preproducción a producción 6: Rebalancear los datos A partir de los resultados, el equipo confeccionó una tabla comparativa en la que identificó las brechas y describió los diferenciadores clave, como se muestra en la Tabla 1. Tabla 1. Comparación entre las características de la Distribución Cloudera para Apache Hadoop* (CDH) e Intel Distribution for Apache Hadoop (IDH) Nota: El estudio comparativo fue realizado entre marzo y abril de Mejor en CDH entre CDH e IDH Inexistente en CDH Conectores Ingestión de datos Mejor Almacenamiento de datos Integración con otros controladores y software Integración con Lustre* NoSQL en línea Procesamiento por lotes Analytics SQL Búsqueda Aprendizaje automático Procesamiento de flujo Aplicaciones de terceros Administración de datos Administración de trabajo Administración del sistema Inexistente Mejor Mejor Mejor Inexistente Mejor Mejor Infraestructura Alta disponibilidad Sistema operativo Integración Enterprise Access Management/ Microsoft Active Directory* Seguridad Inexistente

4 4 de 10 Esta tabla nos ayudó a establecer los objetivos para una migración ordenada. Luego consultamos con Cloudera para desarrollar una hoja de ruta conjunta, solicitándoles que indicaran sus compromisos para implementar las capacidades faltantes o diferentes. En este momento el equipo evaluó el costo de la refactorización: es decir la cantidad de cambios, pruebas y el tiempo que insumiría modificar la arquitectura para obtener las ventajas de las recomendaciones de diseño de la distribución de Cloudera. Optamos por hacer algunos cambios de diseño y de arquitectura, y seleccionamos solamente los compuestos obligatorios de la distribución en vez de adoptar todos los componentes disponibles de Hadoop. Incluimos las diferencias entre el ambiente de prueba y el camino hacia la producción en lo que respecta a la red y al hardware como parte de los cálculos. Hicimos cambios en el diseño y en los códigos para adaptarlos a cualquier diferencia de características. Tomemos como ejemplo el soporte para el códec de compresión sin pérdida. Utilizar el códec de CDH que es menos eficiente podría impactar tanto en el código más adelante en el proceso como en la capacidad del disco, de la memoria o de la CPU. Necesitábamos suficiente tiempo para poner a prueba un nuevo código que utilice el códec de CDH y evaluar los efectos del uso adicional de los recursos; de no ser así hubiésemos tenido una brecha en el cronograma de trabajo que Cloudera hubiese tenido que resolver. Crear un ambiente de prueba Dentro del ambiente de prueba el equipo se aseguró de que todo lo planeado para la migración funcionase como habíamos anticipado. La implementación del IDH existente sirvió como base de los benchmarks funcionales, de desempeño y de pruebas de datos. Los datos de prueba incluyeron los métodos de transferencia o de copia, y también la velocidad de transferencia. Necesitábamos esta información para determinar los plazos de implementación y así trazar un camino seguro antes de entrar en producción. Incluimos las diferencias entre el ambiente de prueba y el camino hacia la producción en lo que respecta a la red y al hardware como parte de los cálculos. La implementación de CDH tenía que igualar los benchmarks paramétricos previos, o sobrepasarlos, y también cumplir con los criterios no paramétricos. Utilizar niveles de abstracción para simplificar la migración La utilización de un nivel de abstracción con URL personalizados, soft links y proxies de alta disponibilidad simplificó la migración. Por ejemplo, debido a que las bibliotecas de IDH no se encontraban en el mismo lugar que las bibliotecas de CDH, utilizamos soft links en vez de hacer una codificación dura de las ubicaciones de las bibliotecas. Utilizar las capacidades de código abierto de Hadoop y minimizar las personalizaciones Nos dimos cuenta de que la mayor parte del ecosistema central, como Hive y Pig, entre otros, se comportaba de la misma manera en la implementación de CDH que en la de IDH. La migración de código tuvo un impacto mínimo o nulo en los clientes y en sus aplicaciones. A partir de nuestra propia experiencia y según lo que vimos cuando nuestros clientes desarrollaron sus aplicaciones con Hive y con Pig, descubrimos que estos componentes no necesitaban una modificación del código para tener un desempeño sin dificultades en el entorno de CDH. Solamente un proyecto, en el que se utilizaba Apache Mahout*, necesitó un mínimo cambio de código debido a que la API de MapReduce* más antigua cayó en desuso frente a la API más reciente de MapReduce. La actualización del código para utilizar la API más reciente hace que cualquier conversión futura resulte más fácil. Como resultado de las pruebas y del mapeo dentro del ambiente de prueba, nuestro equipo pudo determinar que los cronogramas de trabajo eran sólidos y sin brechas. Como mínimo, se documentó claramente cuándo se corregirían las brechas.

5 5 de 10 Mejor práctica 2: Definir nuestra estrategia para la implementación de cloudera Una vez concluida la fase de prueba, el equipo decidió qué opciones y componentes clave incluir en la migración inicial y registró los beneficios y los riesgos de dicha elección. Las opciones y componentes críticos incluyeron seguridad, interfaces de usuario, APIs, lenguajes de desarrollo y compatibilidad con la versión. Buscamos mantener todo el ambiente simple durante la migración, preservando la estabilidad antes de agregar servicios o características. Nuestras selecciones de componentes y de opciones validaron nuestros hallazgos durante el entorno de prueba y fueron incorporadas a nuestra estrategia de migración. En la Tabla 2 incluimos dicha estrategia y también los beneficios, los riesgos potenciales y el estado actual. La información presentada en la tabla guió la estrategia para migrar el servicio Hive metastore y los archivos de metadatos. Tuvimos que determinar nuestro marco de tiempo para la migración teniendo en cuenta el impacto sobre nuestros clientes, los cambios en el código, las pruebas de regresión y los tiempos de ciclos de ejecución. Un componente que es fácil de pasar por alto durante la migración es el servicio Hive metastore. Hadoop brinda abstracción de cómputo con API de MapReduce y abstracción de almacenamiento con API de Hadoop Distributed File System (HDFS). Resulta fácil centrarse en la transición de estos componentes centrales y dejar de lado los componentes auxiliares aunque importantes como el servicio Hive metastore, que necesita bases de datos externas como MySQL o Postgres y es crítico para migrar las tablas de almacenes de datos de una plataforma a otra. La distribución central de Hadoop no brinda las herramientas para migrar los tipos de datos del servicio Hive metastore como seguridad, compresión, listas de control de acceso e información sobre tablas extendidas. Esa parte de la migración precisa herramientas (o scripts) personalizados/adaptados que puedan capturar, replicar y migrar hacia la nueva plataforma. Durante la migración, cuando el ambiente se encontraba dividido en dos partes, nos comunicamos con los clientes por la posibilidad de que la plataforma sea más lenta. Reconfiguramos los acuerdos de nivel de servicio (ANS) para el procesamiento de ciclos y diferimos todas las actividades de puntos de referencia (benchmarking) de desempeño. Tabla 2. Consideraciones para la migración de Intel Distribution for Apache Hadoop* (IDH) a la Distribución Cloudera para Apache Hadoop (CDH) Alcance Estrategia Beneficios Riesgos e impactos Migrar todas las plataformas y proyectos internos de Big Data de IDH a CDH. Dividir el hardware a la mitad, instalar CDH, y ejecutar los ambientes en paralelo durante la migración. Alinear todos los clientes para que completen la fase de prueba en CDH y transición. Desinstalar IDH y agregar el hardware al ambiente de CDH para volver a la capacidad plena. Focalizarse solamente en los componentes Hadoop* centrales necesarios para los clientes actuales. Se adoptarán nuevas características y capacidades de CDH después de la transferencia y una vez que los ambientes retomen la capacidad plena. Adoptar el soporte del producto y del proveedor de CDH ahora y alinearse con las iniciativas estratégicas. Un único esfuerzo de pruebas de regresión de la migración de CDH y Hadoop 2.x/YARN. Menos recursos ahora para poner a prueba el alcance actual de los casos de uso. Evitar la conversión a gran escala y las pruebas de regresión significativas de todo el proyecto más adelante. Aprovechar las ventajas de CDH cuanto antes (Hue, HCatalog, Impala, Navigator y Sentry). Clientes: riesgo e impacto mínimos para las pruebas y para la migración de dos proyectos de producción basados en las pruebas iniciales y tempranas. Contaremos con más información después de recibir los resultados de las pruebas de aplicaciones Customer Insight y de la Sales and Marketing Account Recommendation Tool. Plataforma: riesgo potencial si los clientes demoran la migración a CDH de modo que los ambientes permanecen divididos, lo que implica necesidad de soporte, mitad de la capacidad y un comienzo demorado de las nuevas evaluaciones de las características de Cloudera. Estado actual Migración de IDH a CDH completada en cinco semanas. En la actualidad se ejecuta CDH 5.3 en producción. Se completaron dos actualizaciones de versión desde la integración inicial con cero impacto a los clientes.

6 6 de 10 Características de los ambientes de hardware dividido Dos switches de 10GbE de 48 puertos 352 núcleos que utilizan procesadores Intel Xeon Intel Distribution of Hadoop 2.51 basada en Hadoop Apache 1.x 22 nodos de datos equivalentes a 243 TB (replicación de 3 vías) Alta disponibilidad con verdadera conciencia de racks Integración de la base de datos con Teradata, Netezza, y MS SQL Integración con Enterprise ETL, Active Directory/EAM e ITSM Mejor Práctica 3: Dividir el ambiente de hardware El equipo de migración de TI de Intel dividió el ambiente de hardware de Hadoop existente en dos clústers (uno para IDH y el otro para CDH) y completó la construcción de dos sistemas paralelos utilizando los componentes disponibles, según se observa en la Figura 2. No pudimos hacer una migración in situ por tres razones. Primero: no queríamos perder HDFS debido a que contenía grandes volúmenes de datos distribuidos en los servidores. Segundo: queríamos pasar de Hadoop 1.0 a 2.0. Tercero: IDH y CDH corrían Hadoop de maneras diferentes. Cada uno administró los clústers con herramientas diferentes de aprovisionamiento y de gestión. Por lo tanto, no pudimos migrar fácilmente de IDH a CDH in situ sin el software y las configuraciones de reaprovisionamiento. Tuvimos que crear un clúster de CDH sobre el hardware existente y migrar los datos de IDH a CDH. Aún si hubiese sido posible una actualización in situ, hubiéramos necesitado hacer un back up de terabytes de datos en otro clúster y luego transferirlo nuevamente al clúster de CDH. Debido a que íbamos a transferir datos de todas maneras, creamos el nuevo clúster de CDH en la misma red que el clúster de IDH y planificamos transferir los datos directamente desde el viejo clúster de Hadoop hacia el nuevo clúster. Los sistemas en paralelo brindaron la solución más limpia y segura, considerando que estábamos trabajando con hardware disponible limitado y que queríamos migrar los datos solamente una vez. La división funcionó bien por las siguientes razones: Si bien teníamos hardware limitado contábamos con suficiente capacidad de cómputo y de almacenamiento adicional para soportar la división del hardware, lo que permitió desafectar nodos de IDH y construir un clúster de CDH de tamaño suficiente como para soportar las migraciones de datos. Rack 1 HBase Master, Oozie, ZooKeeper NameNode, Hive Metastore ZooKeeper JobTracker Intel Manager, Yum Repository NameNode primario, Hive Metastore Gateway Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Rack 2 Gateway NameNode secundario, Job History Server, Resource Manager, ZooKeeper Cloudera Manager Backup JobTracker NameNode secundario, Hive Metastore HBase Master, ZooKeeper Almacenamiento compartido de Gateway Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Rack 3 Nodo de datos 1 Nodo de datos 2 Nodo de datos 3 Nodo de datos 4 Nodo de datos 1, NodeManager Nodo de datos 2, NodeManager Nodo de datos 3, NodeManager Nodo de datos 4, NodeManager Nodo de datos 5, NodeManager Nodo de datos 6, NodeManager Intel Distribution for Apache Hadoop Distribución Cloudera para Apache Hadoop Figura 2. Se dividió el ambiente de hardware en dos clústers, uno para Intel Distribution for Apache Hadoop* y el otro para la Distribución Cloudera para Apache Hadoop.

7 7 de 10 Al segregar el hardware nos mantuvimos operativos durante la transferencia de datos. Nuestros recursos de IDH fueron suficientes para la carga de trabajo del cliente; sin embargo, tuvimos que coordinar con proyectos para asegurarnos un impacto mínimo sobre los acuerdos de nivel de servicio existentes y hacer un lote con las expectativas de desempeño a lo largo del proceso de migración. Con clústers comparables construimos en uno y portamos hacia el otro. Construimos el nuevo clúster CDH en la misma red que el clúster IDH y planificamos transferir los datos directamente del clúster Hadoop antiguo al nuevo. Minimizar el impacto en los usuarios Al colocar IDH y CDH en la misma red local se facilitó la rápida transferencia de datos de IDH a CDH. Al asignar la mitad de los servidores disponibles a cada ambiente pudimos completar la migración con un impacto negativo mínimo en las aplicaciones de nuestros clientes. La naturaleza distribuida de Hadoop contribuyó con este enfoque. El equipo de TI de Intel descargó los datos en un conjunto de nodos de datos y luego desactivó el hardware que queríamos preparar para usar dentro del nuevo entorno de CDH. Desinstalamos unos pocos servidores por vez, lo que le permitió al clúster de IDH redistribuir los datos a los nodos restantes. Al manejar el proceso de desinstalación del clúster de IDH pudimos mitigar la pérdida de datos y monitorear el impacto en la carga de trabajo del clúster. Agregamos los servidores que habían quedado liberados del clúster de IDH desafectado al clúster de CDH. Al construir el clúster de CDH en la misma red que IDH y en los mismos racks pudimos transferir los datos de IDH a CDH con rapidez. Utilizamos el failover implícito y la tolerancia de fallas del marco de Hadoop para efectuar una desactivación y reactivación por fases de los nodos de clústers entre los sistemas paralelos. Al utilizar una infraestructura de red común disminuyeron los saltos entre los nodos de IDH y de CDH y se aprovecharon las conexiones de 10G en todos los hosts de transferencia de datos, lo que redujo el tiempo de transferencia de datos entre clústers y minimizó el impacto en nuestra carga de trabajo existente en IDH. Características de Hadoop 2.0 Alta disponibilidad de HDFS NameNode Instantáneas del sistema de archivos de HDFS NameNodes federados Mejora en el desempeño YARN Mejor práctica 4: Actualizar la versión de hadoop El cambio de Hadoop 1.0 a Hadoop 2.0 resultó simple y directo. El equipo obtuvo las características deseables que no estaban incluidas en IDH, junto con las ventajas de una plataforma de código abierto. Estas características incluyen: Alta disponibilidad para el NameNode de HDFS, que elimina el único punto de falla previo en HDFS y las soluciones específicas de la distribución y de alta disponibilidad de Hadoop. Soporte para las instantáneas (snapshots) de sistema de archivo en HDFS, que le brinda a Hadoop procesos de backup nativo y de recuperación de desastres. Soporte para los NameNodes federados, que permite una escalabilidad horizontal del espacio de nombres del sistema de archivos. Soporte para el acceso de NFS a HDFS, que permite que HDFS sea montado como un sistema de archivos estándar. Soporte para encripción de red Native, que asegura los datos mientras están en tránsito. Mejora en el desempeño para HDFS.

8 8 de 10 Además de estas características el sistema de gestión de recursos YARN puede manejar una gran gama de cargas de trabajo al usar un clúster de Hadoop para dar servicio a los marcos emergentes que no sean MapReduce, como Spark, Impala y HBase. Esta nueva flexibilidad expande los casos de uso para Hadoop, al tiempo que mejora la eficiencia de ciertos tipos de procesamiento sobre datos ya almacenados en ese lugar. Mejor práctica 5: Crear un camino de preproducción a producción Después de dividir el ambiente físico en un clúster de IDH y otro de CDH, creamos un ambiente de preproducción que nos permitiría validar nuestros procesos. El ambiente de preproducción fue alimentado por 128 núcleos (que utilizaban procesadores Intel Xeon ) e incluía volúmenes de datos reales, según se muestra en la Figura 3. Estos volúmenes de datos consistieron en 8 nodos de datos que eran equivalentes a 160 TB (con una replicación de dos vías). La creación de un ambiente de preproducción nos permitió migrar incrementalmente los datos al ambiente de CDH y comenzar con el proceso de migración de datos de manera temprana, lo que nos dio suficiente tiempo para completarlo y para tener una rápida transición al nuevo entorno de CDH. En este ambiente de preproducción seguimos los siguientes pasos: Evaluamos el tiempo necesario para pasar de IDH a CDH. Alineamos los derechos, los servidores de control y los usuarios entre los dos sistemas sin automatización. Para saber cuáles eran los mejores métodos para migrar los datos a la nueva plataforma consultamos con Cloudera una serie de temas: estándares de compresión de datos, estándares de seguridad de datos, estándares de transferencia de datos, backup y procesos de restauración de metadatos, factores de replicación, lineamientos de accesibilidad del usuario (vía Hue), asignación de memoria Impala y lineamientos para el manejo de recursos. Identificamos niveles de datos, códecs de compresión y factores de replicación que optimizaban la transferencia de datos en línea y fuera de línea. Luego comunicamos todos los cambios necesarios a los desarrolladores de funciones de ALMACENAMIENTO y de CARGA de Intel para que pudiésemos implementar adecuadamente los cambios en el espacio de nombres de HDFS y códecs. Utilizamos scripts personalizados para el servicio Hive mestastore, y para la migración de la lista de control de acceso. Tuvimos que capturar los esquemas de gestión, permisos y partición. Creamos manualmente los scripts fuera de línea antes de migrar los datos. Una semana después implementamos el sistema en el entorno de preproducción. Repetimos estas mismas tareas en el entorno de producción. Este proceso ayudó a minimizar el riesgo y el impacto al desarrollo y a los esfuerzos de corrección de errores que pudieran dar como resultado diferentes distribuciones en los entornos de preproducción y de producción. Rack 1 Preproducción Gateway Gateway (Sqoop1, HiveServer2) NameNode, Hive Metastore, Zookeeper JobTracker Backup JobTracker HBase Master, Zookeeper HBase Master, Zookeeper, Servidor Oozie NameNode secundario Job History Server, ZooKeeper Resource Manager, ZooKeeper Cloudera Manager Intel Manager NameNode primario Hive Metastore NameNode Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, NodeManager Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Nodo de datos, Servidor de región Intel Distribution for Apache Hadoop Cloudera Distribution for Apache Hadoop S Figura 3. El ambiente de preproducción nos permitió validar nuestros procesos. Este ambiente fue alimentado por 128 núcleos (que utilizaban procesadores Intel Xeon ) y ocho nodos de datos que contenían volúmenes de datos reales.

9 9 de 10 Hadoop MapReduce HDFS Hadoop El procesamiento de datos se ejecuta nativamente MapReduce Procesamiento de datos YARN HDFS Hadoop de próxima generación Las aplicaciones se ejecutan nativamente Map Reduce Camino de madurez de Hadoop Tez HBase Storm Giraph Spark Open MPI YARN HDFS Mejor práctica 6: Rebalancear los datos En el ambiente de producción, debido a que teníamos dos modelos de configuraciones datos-nodo-almacenamiento-capacidad, parte del proceso de migración requirió un rebalanceo continuo de los datos de HDFS dentro del clúster. HDFS cuenta con una utilidad que balancea la ubicación de los bloques de datos en los nodos de datos de manera uniforme para obtener un desempeño óptimo. Utilizar nodos más antiguos de baja capacidad junto con nodos más nuevos de alta capacidad creó una distribución poco uniforme. Los nodos de baja capacidad se llenaban mientras que se cargaban los datos en el clúster de CDH, lo que desencadenaba un rebalanceo constante para redistribuir los datos de los nodos de baja capacidad hacia los de alta capacidad. Aprovechamos la funcionalidad de rebalanceo en CDH que se puede ejecutar desde la interfaz de usuario de Cloudera Manager. Después de cada proceso de rebalanceo y de migración de datos, el equipo evaluó la distribución de datos e hizo el rebalanceo según las necesidades. Con nodos limitados, habríamos desequilibrado la capacidad del espacio del disco. Por lo tanto detuvimos la carga de datos durante la migración. Por último, el equipo documentó todos los cambios en el middleware o en kernel y estableció las siguientes mejores prácticas de migración: Documentar los límites del contenedor para las asignaciones en comparación con los rastreadores de tareas, APIs HCatalog para I/O entre Pig, Hive y MapReduce. Documentar también las limitaciones del marco Impala: UDFs, formatos de E/S, limitaciones de memoria, tablas internas y externas. Éstos orientan a Spark y afectan la posición de Hive, Spark e Impala como almacén de datos, ETL a granel y análisis en la memoria. Revisar y entender las diferencias y los valores de configuración que se deben modificar. Algunos cambios clave que necesitaron ajustes estaban relacionados con la asignación de recursos de MapReduce 1 a MapReduce 2/ YARN 1. Estabilizar el clúster con los componentes necesarios de migración solamente antes de activar servicios o capacidades adicionales. Utilizar redes troncales con mucho ancho de banda para soportar las migraciones de datos y minimizar el impacto de los procesos de transferencia de datos y ajustar las configuraciones de ancho de banda de la copia distribuida. Verificar que los requisitos del firewall de la red estén configurados para soportar la distribución de Hadoop. Utilizar nombres personales DNS en nodos límite o gateway e interfaces clave para reducir el impacto en el desarrollo. Coordinar proyectos para monitorear y tener un impacto mínimo sobre los acuerdos de nivel de servicio existentes y as expectativas de desempeño en el trabajo por lotes a lo largo del proceso de migración. Asegurarse de que los parámetros de ajuste del sistema operativo, los requisitos de permisos y los requisitos de espacio en el disco estén en línea con cada uno de los requisitos de distribución de Hadoop. 1 MapReduce 2 es una actualización para la planificación de tiempos, gestión de recursos y ejecución en Hadoop. Lea el blog para obtener información adicional en blog.cloudera.com/blog/2013/11/migrating-to-mapreduce-2-on-yarn-for-users

10 10 de 10 Conclusión TI de Intel obtuvo una valiosa experiencia a partir de esta migración. A pesar de que la migración de Hadoop fue compleja e involucró múltiples niveles de cambio, el movimiento fue exitoso. Dependimos poco de los equipos de aplicaciones y no encontramos ningún problema significativo asociado con la migración de una distribución a la otra. Una planificación cuidadosa, pruebas exhaustivas y una comunicación proactiva junto con un manejo eficiente del alcance, de los tiempos y de las habilidades nos ayudaron a tener una migración exitosa. Cuando se haga una migración de Hadoop, tenga en cuenta los siguientes consejos: Elija con cuidado el equipo de migración. La tecnología es importante; sin embargo, tener ingenieros de software con las habilidades necesarias es esencial. Los proyectos de migración pueden resultar muy complicados; por lo tanto, resulta fundamental para el éxito del proyecto planificar con antelación, evaluar en detalle ambos productos y entender las brechas. Conforme un pequeño equipo que entienda la solución en su totalidad: las plataformas, el código y las ramificaciones de la migración de datos. Asegúrese de que el equipo pueda comunicarse, ejecutar y evaluar la lista de cambios que es necesario sincronizar para una migración exitosa. Aproveche las opciones del código abierto. TI de Intel se benefició con la distribución de Hadoop que cuenta con un código abierto en su núcleo, no un software propietario. Mantenerse con los componentes de software de código abierto ayuda a minimizar el costo total de propiedad. Comenzar a una escala pequeña ayuda a mantener el foco en el diseño y en la escalabilidad de la plataforma. Mantenga el diseño tan simple como sea posible. TI de Intel priorizó la integración de los componentes y de las capacidades según los casos de uso, en vez de pensar que se deben activar características completamente nuevas. Mantuvimos un equilibrio de alcance, tiempos, pruebas y recursos. Si no resulta claro qué características activar, priorice solamente las que indiquen los casos de uso actuales. A partir de allí, el equipo podrá construir y avanzar en los conjuntos de características según sea necesario. Para nuestra migración los equipos técnicos, de negocios y de modelos utilizaron un método de descubrimiento iterativo para entender los datos. Los entornos divididos ayudaron a simplificar la transferencia de datos. En general, mantener simple el proceso de migración fue la clave para nuestra migración exitosa. El programa conecta a profesionales de TI alrededor del mundo con sus colegas dentro de Intel. Nuestro departamento de TI resuelve algunos de los problemas tecnológicos más exigentes y complejos de la actualidad, y queremos compartir las lecciones directamente con otros profesionales de TI en un foro abierto de pares. Nuestro objetivo es simple: mejorar la eficiencia en toda la organización y aumentar el valor para el negocio de las inversiones en TI. Síganos y participe de nuestras conversaciones en: Twitter #IntelIT LinkedIn IT Center Community Visítenos hoy mismo en intel.com/it o póngase en contacto con su representante local de Intel para obtener más información. Información relacionada Visite intel.com/it para obtener contenidos sobre temas relacionados (en inglés): Cómo Intel implementó una solución de bajo costo para Big Data en cinco semanas Las Mejores prácticas de TI de Intel para implementar el software Apache Hadoop* La Integración de Apache Hadoop* en el ambiente de Big Data de Intel Para obtener información adicional sobre las mejores prácticas de TI de Intel visite LA INFORMACIÓN EN ESTE DOCUMENTO PRETENDE SER DE CARÁCTER GENERAL Y NO UNA GUÍA ESPECÍFICA. LAS RECOMENDACIONES (INCLUYENDO LOS POTENCIALES AHORROS DE COSTOS) ESTÁN BASADAS EN LA EXPERIENCIA DE INTEL Y SON SOLAMENTE ESTIMACIONES. INTEL NO GARANTIZA NI ASEGURA QUE OTROS PUEDA OBTENER RESULTADOS SIMILARES. LA INFORMACIÓN EN ESTE DOCUMENTO SE SUMINISTRA EN RELACIÓN CON PRODUCTOS Y SERVICIOS INTEL. EL PRESENTE DOCUMENTO NO OTORGA NINGUNA LICENCIA, NI EXPRESA NI IMPLÍCITA, NI POR EXCLUSIÓN, NI DE NINGUNA OTRA MANERA, SOBRE NINGÚN DERECHO DE PROPIEDAD INTELECTUAL. A EXCEPCIÓN DE LO ESTABLECIDO EN LOS TÉRMINOS Y CONDICIONES DE VENTA DE INTEL PARA DICHOS PRODUCTOS. EN NINGÚN CASO INTEL SERÁ RESPONSABLE Y CONSECUENTEMENTE RECHAZA CUALQUIER GARANTÍA EXPLÍCITA O IMPLÍCITA CON RESPECTO A LA VENTA Y/O EL USO DE LOS PRODUCTOS Y SERVICIOS INTEL, INCLUYENDO LAS RESPONSABILIDADES O GARANTÍAS RELACIONADAS CON LA IDONEIDAD PARA UN FIN DETERMINADO, LA COMERCIABILIDAD O LA INFRACCIÓN DE CUALQUIER PATENTE, DERECHO DE AUTOR U OTRO DERECHO DE PROPIEDAD INTELECTUAL. Intel, el logotipo de Intel y Xeon son marcas comerciales de Intel Corporation en los EE. UU. y en otros países. *Otros nombres y marcas pueden ser reclamados como propiedad de terceros. Copyright 2015 Intel Corporation. Todos los derechos reservados. Impreso en EE. UU Por favor reciclar 0315/JSED/KC/PDF

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López

APACHE HADOOP. Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López APACHE HADOOP Daniel Portela Paz Javier Villarreal García Luis Barroso Vázquez Álvaro Guzmán López Objetivos 1. Qué es Apache Hadoop? 2. Funcionalidad 2.1. Map/Reduce 2.2. HDFS 3. Casos prácticos 4. Hadoop

Más detalles

Minimice los riesgos para la migración de red del centro de datos

Minimice los riesgos para la migración de red del centro de datos Minimice los riesgos para la migración de red del centro de datos Optimice su arquitectura e inversión de TI y, al mismo tiempo, reduzca la complejidad y los riesgos Los Servicios de migración de centros

Más detalles

Implementación, aprovisionamiento y actualización de Windows Server con System Center

Implementación, aprovisionamiento y actualización de Windows Server con System Center Implementación automatizada y centralizada, aprovisionamiento y actualización de Windows Server La implementación y el mantenimiento de Windows Server en sistemas operativos de centros de datos y entornos

Más detalles

Hadoop. Cómo vender un cluster Hadoop?

Hadoop. Cómo vender un cluster Hadoop? Hadoop Cómo vender un cluster Hadoop? ÍNDICE Problema Big Data Qué es Hadoop? Descripción HDSF Map Reduce Componentes de Hadoop Hardware Software 3 EL PROBLEMA BIG DATA ANTES Los datos los generaban las

Más detalles

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD

Solución empresarial Hadoop de EMC. NAS de escalamiento horizontal Isilon y Greenplum HD Informe técnico Solución empresarial Hadoop de EMC NAS de escalamiento horizontal Isilon y Greenplum HD Por Julie Lockner, analista ejecutivo, y Terri McClure, analista ejecutivo Febrero de 2012 Este Informe

Más detalles

Big data A través de una implementación

Big data A través de una implementación Big data A través de una implementación Lic. Diego Krauthamer Profesor Adjunto Interino del Área Base de Datos Universidad Abierta Interamericana Facultad de Tecnología Informática Buenos Aires. Argentina

Más detalles

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1

Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center 2.1 Guía de determinación de tamaño y escalabilidad de Symantec Protection Center El software descrito en el presente manual

Más detalles

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ MARCO TEÓRICO. 13 14 Virtualización Hablar de virtualización es hablar de un concepto que describe la posibilidad de tener varios sistemas operativos funcionando al mismo tiempo en un mismo equipo físico.

Más detalles

El valor de una infraestructura optimizada

El valor de una infraestructura optimizada El valor de una infraestructura optimizada El Estudio del Estado del CIO 2006 (CIO Research, 2006) muestra que los CIO están buscando, cada vez más, introducir, de forma proactiva, soluciones de tecnología

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 3: HADOOP CONCEPTOS BÁSICOS www.formacionhadoop.com Índice 1 Introducción a Hadoop 1.1 Proyecto Hadoop 1.2 Conceptos de Hadoop 2 Cluster Hadoop 2.1 Demonios

Más detalles

Big Data con nombres propios

Big Data con nombres propios Febrero 2014 Big Data con Al hablar de tecnología Big Data se está obligado, sin duda alguna, a hablar de programación paralela y procesamiento distribuido, ya que éstas serán las características que permitirán

Más detalles

Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante?

Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante? INFORME DE LA SOLUCIÓN: CA ARCSERVE BACKUP PARA MICROSOFT ESSENTIAL BUSINESS SERVER Cómo pueden las empresas emergentes favorecer su crecimiento y proteger su información empresarial importante? CA ARCserve

Más detalles

FAMILIA EMC VPLEX. Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos

FAMILIA EMC VPLEX. Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos FAMILIA EMC VPLEX Disponibilidad continua y movilidad de datos en los centro de datos y entre ellos MOVILIDAD DE DATOS Y DISPONIBILIDAD CONTINUAS PARA APLICACIONES DE MISIÓN CRÍTICA La infraestructura

Más detalles

Habilitando la empresa ágil a través de datos unificados La travesía hacia la plataforma de datos analítico-transaccionales

Habilitando la empresa ágil a través de datos unificados La travesía hacia la plataforma de datos analítico-transaccionales Habilitando la empresa ágil a través de datos unificados Agosto de 2015 Cómo se utilizan los datos hoy Los datos analíticos se derivan y separan a partir de datos transaccionales. Requieren bases de datos

Más detalles

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928 Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International

Más detalles

Double-Take Availability para Windows

Double-Take Availability para Windows Double-Take Availability para Windows Ficha de datos técnicos Una solución de alta disponibilidad para Windows compatible con todo tipo de entornos Double-Take Availability se presenta como un completo

Más detalles

Consolidación inteligente de servidores con System Center

Consolidación inteligente de servidores con System Center Consolidación de servidores a través de la virtualización Los clientes de Microsoft que abordan el tema de la administración de centros de datos dan prioridad a la consolidación de servidores como requisito

Más detalles

RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION

RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION arcserve UDP Ante el crecimiento de los datos y los avances tecnológicos, tales como la virtualización, las arquitecturas actuales de protección de datos

Más detalles

Fernando Gutiérrez-Cabello. Data Discovery y visualizaciones en MicroStrategy 10

Fernando Gutiérrez-Cabello. Data Discovery y visualizaciones en MicroStrategy 10 Fernando Gutiérrez-Cabello Data Discovery y visualizaciones en MicroStrategy 10 Clientes Beta de MicroStrategy 10 Por primera vez, MicroStrategy 10 ofrece una plataforma de analítica que combina una experiencia

Más detalles

EMC SCALEIO SAN de servidor convergente definida por software

EMC SCALEIO SAN de servidor convergente definida por software EMC SCALEIO SAN de servidor convergente definida por software ASPECTOS FUNDAMENTALES Solo para software Arquitectura convergente de capa simple Escalabilidad lineal Rendimiento y capacidad según demanda

Más detalles

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1

ÍNDICE. Introducción... Capítulo 1. Conceptos de Big Data... 1 ÍNDICE Introducción... XIII Capítulo 1. Conceptos de Big Data... 1 Definición, necesidad y características de Big Data... 1 Aplicaciones típicas de Big Data... 4 Patrones de detección del fraude... 4 Patrones

Más detalles

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql

The H Hour: Hadoop The awakening of the BigData. Antonio Soto SolidQ COO asoto@solidq.com @antoniosql The H Hour: Hadoop The awakening of the BigData Antonio Soto SolidQ COO asoto@solidq.com @antoniosql Tendencias de la Industria El nuevo rol del operador El operador de ayer Sigue el proceso basado en

Más detalles

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO

BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO BIG DATA & SEGURIDAD UN MATRIMONIO DE FUTURO PRESENTACIÓN ANTONIO GONZÁLEZ CASTRO IT SECURITY DIRECTOR EN PRAGSIS TECHNOLOGIES agcastro@pragsis.com antoniogonzalezcastro.es @agonzaca linkedin.com/in/agonzaca

Más detalles

Descripción Ventajas Ventajas de CA

Descripción Ventajas Ventajas de CA CA ARCSERVE BACKUP, UN PRODUCTO DE PROTECCIÓN DE DATOS DE ALTO RENDIMIENTO LÍDER DEL SECTOR, UNE LA INNOVADORA TECNOLOGÍA DE ELIMINACIÓN DE DATOS DUPLICADOS, INFORMES POTENTES DE GESTIÓN DE RECURSOS DE

Más detalles

Conectores Pentaho Big Data Community VS Enterprise

Conectores Pentaho Big Data Community VS Enterprise Conectores Pentaho Big Data Community VS Enterprise Agosto 2014 Stratebi Business Solutions www.stratebi.com info@stratebi.com Índice 1. Resumen... 3 2. Introducción... 4 3. Objetivo... 4 4. Pentaho Community

Más detalles

Planeación del Proyecto de Software:

Planeación del Proyecto de Software: Apéndice A. Cuestionarios del Sistema Evaluador Nivel2. Requerimientos de Administración: Goal 1: Los requerimientos del sistema asociados a software están bien controlados y existe un estándar para los

Más detalles

Transición de su infraestructura de Windows Server 2003 a una solución moderna de Cisco y Microsoft

Transición de su infraestructura de Windows Server 2003 a una solución moderna de Cisco y Microsoft Descripción general de la solución Transición de su infraestructura de Windows Server 2003 a una solución moderna de Cisco y Microsoft El soporte de Microsoft para todas las versiones de Windows Server

Más detalles

Windows Server Hyper-V

Windows Server Hyper-V Windows Server Diseño, implantación y administración La plataforma de virtualización de Microsoft La virtualización de servidores ha sido, en la última década, una de las principales áreas de inversión

Más detalles

MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC

MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC MÁQUINA VIRTUAL VMWARE PROTECCIÓN DELL POWERVAULT DL2000 CON TECLOGÍA SYMANTEC La PowerVault DL2000 con tecnología Symantec Backup Exec ofrece la única solución de respaldo en disco completamente integrada

Más detalles

Ventajas de la migración a servicios de middleware modernos

Ventajas de la migración a servicios de middleware modernos Ventajas de la migración a servicios de middleware modernos Marcia Kaufman Directora de operaciones y analista jefe Patrocinado por Red Hat Introducción Las aplicaciones comerciales ya no se limitan a

Más detalles

Backup Exec 2012. Guía de instalación rápida

Backup Exec 2012. Guía de instalación rápida Backup Exec 2012 Guía de instalación rápida Instalación Este documento incluye los temas siguientes: Requisitos del sistema Lista de verificación de instalación previa de Backup Exec Cómo realizar una

Más detalles

Plataforma en la nube CA AppLogic para aplicaciones empresariales

Plataforma en la nube CA AppLogic para aplicaciones empresariales HOJA DEL PRODUCTO: CA AppLogic Plataforma en la nube CA AppLogic para aplicaciones empresariales agility made possible CA AppLogic es una plataforma clave de la informática en la nube que ayuda a permitir

Más detalles

DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS

DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS INFORME DE SOLUCIÓN DESARROLLO DE UNA NUBE DE ALMACENAMIENTO INTELIGENTE CON IBM SMARTCLOUD STORAGE ACCESS ENERO DE 2013 Muchas organizaciones descubren que sus grandes implementaciones de almacenamiento

Más detalles

Anuncio de software ZP10-0030 de IBM Europe, Middle East and Africa, con fecha 16 de febrero de 2010

Anuncio de software ZP10-0030 de IBM Europe, Middle East and Africa, con fecha 16 de febrero de 2010 con fecha 16 de febrero de 2010 Los productos IBM Tivoli Storage Manager V6.2 cuentan con funciones adicionales de reducción de datos y compatibilidad mejorada con entornos virtualizados Índice 1 Visión

Más detalles

Symantec Backup Exec.cloud

Symantec Backup Exec.cloud Protección automática, continua y segura que realiza copias de seguridad de los datos hacia la nube, o a través de un enfoque híbrido in situ y basado en la nube Hoja de datos: Symantec.cloud Solo un 2

Más detalles

EMC UNIFIED INFRASTRUCTURE MANAGER

EMC UNIFIED INFRASTRUCTURE MANAGER EMC UNIFIED INFRASTRUCTURE MANAGER Simplifique la transición a una infraestructura de nube privada o híbrida en los sistemas Vblock Cree un solo ambiente virtualizado Provisione como una sola infraestructura.

Más detalles

Resumen de la solución de virtualización de CA arcserve Unified Data Protection

Resumen de la solución de virtualización de CA arcserve Unified Data Protection Resumen de la solución de virtualización de CA arcserve Unified Data Protection La virtualización de los servidores y ordenadores de sobremesa se ha generalizado en la mayoría de las organizaciones, y

Más detalles

SISTEMA OPERATIVO EMC ISILON ONEFS

SISTEMA OPERATIVO EMC ISILON ONEFS SISTEMA OPERATIVO EMC ISILON ONEFS Eficiencia en el almacenamiento de escalamiento horizontal para cargas de trabajo actuales y futuras de big data y objetos Aspectos fundamentales Arquitectura fácil de

Más detalles

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Administrador Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS Y TELEMÁTICA

Más detalles

Catálogo de Servicios

Catálogo de Servicios Catálogo de Servicios Fecha: 14 de mayo de 2013 Índice 1 Presentación... 3 2 Servicios de Consultoría SQL Server... 4 2.1 Monitorización servidores SQL Server... 4 2.2 DBA Remoto... 5 2.3 Consolidación

Más detalles

VISIÓN GENERAL HERRAMIENTAS COMERCIALES

VISIÓN GENERAL HERRAMIENTAS COMERCIALES VISIÓN GENERAL El servidor de MS SQL se ha convertido en un estándar en muchas partes de la América corporativa. Puede manejar volúmenes de datos grandes y se integra bien con otros productos de Microsoft.

Más detalles

VMware vsphere Data Protection

VMware vsphere Data Protection PREGUNTAS FRECUENTES VMware vsphere Data Protection Descripción general de vsphere Data Protection Advanced P. Qué es VMware vsphere Data Protection Advanced? R. VMware vsphere Data Protection Advanced

Más detalles

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel

Software Intel para administración de sistemas. Guía del usuario del Paquete de administración de servidores modulares Intel Software Intel para administración de sistemas Guía del usuario del Paquete de administración de servidores modulares Intel Declaraciones legales LA INFORMACIÓN CONTENIDA EN ESTE DOCUMENTO SE PROPORCIONA

Más detalles

cómo migrar desde la administración de servicios a SaaS

cómo migrar desde la administración de servicios a SaaS WHITE PAPER Septiembre de 2012 cómo migrar desde la administración de servicios a SaaS Principales desafíos, y cómo CA Nimsoft Service Desk ayuda a resolverlos agility made possible Índice resumen ejecutivo

Más detalles

Symantec Protection Suite Enterprise Edition Protección de confianza para entornos web, mensajería y puntos finales

Symantec Protection Suite Enterprise Edition Protección de confianza para entornos web, mensajería y puntos finales Protección de confianza para entornos web, mensajería y puntos finales Presentación crea un entorno protegido para la web, mensajería y puntos finales contra las amenazas actuales más complejas de malware,

Más detalles

WHITE PAPER. Proteger sus servidores virtuales con Acronis True Image

WHITE PAPER. Proteger sus servidores virtuales con Acronis True Image Proteger sus servidores virtuales con Acronis True Image Copyright Acronis, Inc., 2000 2008 Las organizaciones dedicadas a la TI han descubierto que la tecnología de virtualización puede simplificar la

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop

PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop PROGRAMA FORMATIVO Analista de Datos Big Data Cloudera Apache Hadoop Julio 2015 DATOS GENERALES DE LA ESPECIALIDAD 1. Familia Profesional: INFORMÁTICA Y COMUNICACIONES (IFC) Área Profesional: SISTEMAS

Más detalles

Respaldo diseñado para su ambiente virtual

Respaldo diseñado para su ambiente virtual Respaldo diseñado para su ambiente virtual EMC Avamar: optimizado para Microsoft Hyper-V y ware vsphere 1 Agenda Panorama del mercado Respaldo y recuperación de Hyper-V Respaldo y recuperación de ware

Más detalles

Cocinando con Big Data

Cocinando con Big Data Cocinando con Big Data Javier Sánchez BDM Big Data jsanchez@flytech.es 91.300.51.09 21/11/2013 Javier Sánchez 1 Agenda Qué es Big Data? Receta Punto de Partida Para qué Big Data? Conclusiones 21/11/2013

Más detalles

Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014

Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014 Biblioteca Reingtec Elaboro: Alejandro Vargas Rocha Fecha: 17/02/2014 Página 1 de 5 Objetivo Conocer más acerca de vranger Contenido Resguardo, Replicación y Recuperación Simple, Rápida y Escalable basada

Más detalles

CL_55115 Planning, Deploying and Managing Microsoft Project Server 2013

CL_55115 Planning, Deploying and Managing Microsoft Project Server 2013 Gold Learning Gold Business Intelligence Silver Data Plataform P Planning, Deploying and Managing Microsoft Project Server 2013 www.ked.com.mx Por favor no imprimas este documento si no es necesario. Introducción.

Más detalles

Diferencias entre Windows 2003 Server con Windows 2008 Server

Diferencias entre Windows 2003 Server con Windows 2008 Server Diferencias entre Windows 2003 Server con Windows 2008 Server WINDOWS SERVER 2003 Windows Server 2003 es un sistema operativo de propósitos múltiples capaz de manejar una gran gama de funsiones de servidor,

Más detalles

EMC Data Domain Boost para Oracle Recovery Manager (RMAN)

EMC Data Domain Boost para Oracle Recovery Manager (RMAN) Informe técnico EMC Data Domain Boost para Oracle Recovery Manager (RMAN) Resumen EMC ofrece a los administradores de bases de datos (DBA) control total de los procesos de respaldo, recuperación y recuperación

Más detalles

Symantec Desktop and Laptop Option

Symantec Desktop and Laptop Option Symantec Desktop and Laptop Option Symantec Desktop and Laptop Option es una solución fácil de usar que ofrece copias de seguridad y recuperación de archivos automatizadas y confiables para equipos de

Más detalles

UNIFIED D TA. Arquitectura unificada de última generación para la seguridad. de datos en entornos físicos y virtuales para una PROTECTION

UNIFIED D TA. Arquitectura unificada de última generación para la seguridad. de datos en entornos físicos y virtuales para una PROTECTION UNIFIED Arquitectura unificada de última generación para la seguridad D TA de datos en entornos físicos y virtuales para una PROTECTION protección completa RESUMEN DE LA SOLUCIÓN UNIFIED DATA PROTECTION

Más detalles

Alcance y descripción del servicio. Backup Servidor IPLAN. IPLAN iplan.com.ar NSS S.A. Reconquista 865 C1003ABQ Buenos Aires Argentina

Alcance y descripción del servicio. Backup Servidor IPLAN. IPLAN iplan.com.ar NSS S.A. Reconquista 865 C1003ABQ Buenos Aires Argentina Alcance y descripción del servicio Backup Servidor IPLAN 1. Introducción Backup Servidor IPLAN le permite al Cliente realizar resguardos periódicos de la información de su Servidor Virtual y/o Servidor

Más detalles

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web.

www.microsoft.com/office/sharepointserver www.abd.es Contenido empresarial administrado en una interfaz de usuario basada en Web. Microsoft Office SharePoint Server 2007 es un conjunto integrado de características de servidor que puede contribuir a mejorar la eficacia organizativa al ofrecer completas funciones de administración

Más detalles

Programa de Capacitación y Certificación.

Programa de Capacitación y Certificación. NIVEL 1.- INFRAESTRUCTURA DE REDES Programa de Capacitación y Certificación. INFORMES@COMPUSUR.COM.MX WWW.COMPUSUR.COM.MX 1 Contenido NIVEL 1. INFRAESTRUCTURA DE REDES... 4 6421 CONFIGURANDO Y RESOLVIENDO

Más detalles

MÁSTER: MÁSTER EXPERTO BIG DATA

MÁSTER: MÁSTER EXPERTO BIG DATA MÁSTER: MÁSTER EXPERTO BIG DATA Información detallada del máster www.formacionhadoop.com Este máster online está enfocado a los ingenieros que quieran aprender el despliegue y configuración de un cluster

Más detalles

Symantec Backup Exec 3600 Appliance

Symantec Backup Exec 3600 Appliance El appliance de copia de seguridad y recuperación todo en uno para empresas medianas Hoja de datos: Protección de datos Descripción general es la única solución lista para usar que proporciona el software

Más detalles

Componentes de Integración entre Plataformas Información Detallada

Componentes de Integración entre Plataformas Información Detallada Componentes de Integración entre Plataformas Información Detallada Active Directory Integration Integración con el Directorio Activo Active Directory es el servicio de directorio para Windows 2000 Server.

Más detalles

CA Mainframe Chorus for DB2 Database Management versión 2.0

CA Mainframe Chorus for DB2 Database Management versión 2.0 HOJA DE PRODUCTO CA Mainframe Chorus for DB2 Database Management CA Mainframe Chorus for DB2 Database Management versión 2.0 Simplifique y dinamice su DB2 para tareas de administración de cargas de trabajo

Más detalles

VMware vsphere Data Protection

VMware vsphere Data Protection PREGUNTAS FRECUENTES VMware Descripción de Advanced P. Qué es VMware R. VMware vsphere Data Advanced es una solución de copia de seguridad y recuperación de datos con replicación integrada. Se ha diseñado

Más detalles

Respaldo y recuperación en ambientes VMware con Avamar 6.0

Respaldo y recuperación en ambientes VMware con Avamar 6.0 Informe técnico Respaldo y recuperación en ambientes VMware con Avamar 6.0 Análisis detallado Resumen Dado el ritmo cada vez más rápido de la implementación de ambientes virtuales en la nube de la compañía,

Más detalles

Gestión de Operaciones - VSOM vsphere with Operations Management. Alejandro Carvallo Sr Systems Engineer

Gestión de Operaciones - VSOM vsphere with Operations Management. Alejandro Carvallo Sr Systems Engineer Gestión de Operaciones - VSOM vsphere with Operations Management Alejandro Carvallo Sr Systems Engineer Junio 2015 Que Veremos Hoy Estrategia e Innovaciones del SDDC vsphere with Operations Management

Más detalles

Servicio de instalación y puesta en marcha del software HP 3PAR 7000

Servicio de instalación y puesta en marcha del software HP 3PAR 7000 Datos técnicos Servicio de instalación y puesta en Servicios HP Care Pack Ventajas del servicio Permite que sus recursos de TI se concentren en sus tareas y prioridades principales. Reduce los tiempos

Más detalles

Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC

Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC Informe elaborado bajo contrato con EMC Corporation Introducción EMC Corporation contrató a Demartek

Más detalles

Actualización a NSi AutoStore versión 6.0. Indicaciones y mejores prácticas

Actualización a NSi AutoStore versión 6.0. Indicaciones y mejores prácticas Actualización a NSi AutoStore versión 6.0 Indicaciones y mejores prácticas Actualización a AutoStore 6.0 Indicaciones y mejores prácticas ÍNDICE Introducción... 4 Público objeto... 4 Alcance... 4 Exclusión

Más detalles

Monitoreo unificado de TI: una necesidad en la economía de la aplicación

Monitoreo unificado de TI: una necesidad en la economía de la aplicación Monitoreo unificado de TI: una necesidad en la economía de la aplicación El cliente nuevo Los perfiles de los clientes y los empleados de hoy son muy distintos de lo que eran unos pocos años atrás. Estos

Más detalles

Las 10 cosas que debería saber sobre el almacenamiento

Las 10 cosas que debería saber sobre el almacenamiento Las 10 cosas que debería saber sobre el almacenamiento Tendencias, desarrollo y consejos para mejorar la eficiencia de su entorno de almacenamiento Las decisiones inteligentes se basan en El almacenamiento

Más detalles

CAPITULO 9. Diseño de una Base de Datos Relacional Distribuida

CAPITULO 9. Diseño de una Base de Datos Relacional Distribuida 9.1 Operaciones CAPITULO 9 Diseño de una Base de Datos Relacional Distribuida Las consultas distribuidas obtienen acceso a datos de varios orígenes de datos homogéneos o heterogéneos. Estos orígenes de

Más detalles

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V

Windows Server 2012 Storage Technical Details. Module 2: Compatibilidad de SMB con SQL e Hyper-V Windows Server 2012 Storage Technical Details Module 2: Compatibilidad de SMB con SQL e Hyper-V Manual del módulo Autor: Rose Malcolm, responsable de contenidos Publicado: 4 de septiembre de 2012 La información

Más detalles

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido

Más detalles

ADMINISTRACIÓN CENTRALIZADA DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC

ADMINISTRACIÓN CENTRALIZADA DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC ADMINISTRACIÓN CENTRALIZADA DELL POWERVAULT DL2000 CON TECNOLOGÍA SYMANTEC RESUMEN EJECUTIVO Es un método ideal para que cualquier departamento de TI logre realizar respaldos y restauraciones más rápidas

Más detalles

INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 015-2012 SOFTWARE DE VIRTUALIZACIÓN

INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 015-2012 SOFTWARE DE VIRTUALIZACIÓN INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 01-2012 SOFTWARE DE VIRTUALIZACIÓN I. NOMBRE DEL ÁREA El área encargada de la evaluación técnica para la adquisición de software es la Unidad de Tecnologías

Más detalles

NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales

NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales Libro blanco NetApp simplifica la gestión del almacenamiento para entornos de servidores virtuales Por Mark Bowker Julio de 2010 Este libro blanco de ESG fue encargado por [Empresa] y se distribuye bajo

Más detalles

REPORTE OFICIAL OCTUBRE DE 2014. CA Unified Infrastructure Management para servidores

REPORTE OFICIAL OCTUBRE DE 2014. CA Unified Infrastructure Management para servidores REPORTE OFICIAL OCTUBRE DE 2014 CA Unified Infrastructure Management para servidores 2 Reporte oficial: CA Unified Infrastructure Management para servidores Tabla de contenidos Descripción general de la

Más detalles

PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA LA CONTRATACIÓN DEL SUMINISTRO

PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA LA CONTRATACIÓN DEL SUMINISTRO PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA LA CONTRATACIÓN DEL SUMINISTRO E INSTALACIÓN Y POSTERIOR MANTENIMIENTO DURANTE CUATRO AÑOS, DE UN SISTEMA DE ALMACENAMIENTO EN REPLICA PARA LA UNIVERSIDAD DE CANTABRIA

Más detalles

AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3

AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3 AMBIENTES ORACLE DE MISIÓN CRÍTICA CON VMAX 3 ASPECTOS BÁSICOS DE MISIÓN CRÍTICA Solidez Almacenamiento híbrido con niveles de servicio de rendimiento optimizado con flash a escala para cargas de trabajo

Más detalles

Arcserve r16.5 Solución de protección de datos híbrida

Arcserve r16.5 Solución de protección de datos híbrida Arcserve r16.5 Solución de protección de datos híbrida Si va a proteger un centro de datos, oficinas remotas o recursos de escritorio, debe contar con una solución que le ayude a satisfacer los exigentes

Más detalles

EVOLUCIÓN A UN CENTRO DE DATOS DEFINIDO POR SOFTWARE. Copyright 2013 EMC Corporation. Todos los derechos reservados.

EVOLUCIÓN A UN CENTRO DE DATOS DEFINIDO POR SOFTWARE. Copyright 2013 EMC Corporation. Todos los derechos reservados. EVOLUCIÓN A UN CENTRO DE DATOS DEFINIDO POR SOFTWARE 1 Los generadores de negocios Aumentar el ingreso AUMENTAR LA AGILIDAD Disminuir los costos operacionales Reducir los riesgos 2 LA NUBE TRANSFORMA LAS

Más detalles

Appliance Symantec Backup Exec 3600

Appliance Symantec Backup Exec 3600 Activar, configurar y listo Hoja de datos: Protección de datos Descripción general El appliance Symantec Backup Exec 3600 es la única solución que proporciona el software Symantec Backup Exec en hardware

Más detalles

INFRAESTRUCTURA DE SERVIDORES MICROSOFT

INFRAESTRUCTURA DE SERVIDORES MICROSOFT INFRAESTRUCTURA DE SERVIDORES MICROSOFT TABLA DE CONTENIDO INTRODUCCION... 3 ESTRUCTURA PROGRAMATICA... 4 TEMA 1: ADMINISTRACION, SOPORTE Y MANTENIMIENTO DE WINDOWS SERVER 2008... 4 Preparar la administración

Más detalles

TIVOLI. GERZEL, Stella Maris. stellagerzel@yahoo.com.ar

TIVOLI. GERZEL, Stella Maris. stellagerzel@yahoo.com.ar TIVOLI GERZEL, Stella Maris stellagerzel@yahoo.com.ar Temas a Desarrollar: Definición de Tivoli. Tivoli Storage Manager. Tivoli Monitoring for Web Infrastructure Utilización del Tivoli Business Systems

Más detalles

Monitorización de actividades de datos InfoSphere Guardium para Big Data

Monitorización de actividades de datos InfoSphere Guardium para Big Data Monitorización de actividades de datos InfoSphere Guardium para Big Data Amal Mashlab IBM Software Group, Information Management Responsable de Ventas de Gobierno de la Información para Europa Cumplir

Más detalles

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio?

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio? Qué es Doopex? Big Data en la nube. Use los datos. Obtenga información. Seguramente, la pregunta clave no es Qué es Doopex?. La pregunta clave es: Qué puede hacer Doopex por mi negocio? El objetivo de

Más detalles

Respaldo de EMC para SAP HANA listo para el centro de datos. EMC Data Domain con DD Boost

Respaldo de EMC para SAP HANA listo para el centro de datos. EMC Data Domain con DD Boost de EMC para SAP HANA listo para el centro de datos EMC Data Domain con DD Boost 1 Información empresarial: Big data Información de partner Información pública Información estructurada en bases de datos

Más detalles

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

UN GUÍA PRÁCTICO PARA PROTEGER Y UTILIZAR SU ENTORNO VIRTUAL PARA UNA RÁPIDA RECUPERACIÓN. Confianza en un mundo conectado.

UN GUÍA PRÁCTICO PARA PROTEGER Y UTILIZAR SU ENTORNO VIRTUAL PARA UNA RÁPIDA RECUPERACIÓN. Confianza en un mundo conectado. UN GUÍA PRÁCTICO PARA PROTEGER Y UTILIZAR SU ENTORNO VIRTUAL PARA UNA RÁPIDA RECUPERACIÓN Confianza en un mundo conectado. ÍNDICE 1a. PARTE Obstáculos frecuentes en la implementación de la virtualización

Más detalles

Hoja de datos: Protección de datos OpsCenter Analytics

Hoja de datos: Protección de datos OpsCenter Analytics Presentación El crecimiento de los datos complica cada vez más las operaciones de copia de seguridad y archivado, y los clientes descubren grandes ganancias en productividad operativa mediante la utilización

Más detalles

ANÁLISIS DE NEGOCIO DE MICROSOFT BUSINESS SOLUTIONS NAVISION

ANÁLISIS DE NEGOCIO DE MICROSOFT BUSINESS SOLUTIONS NAVISION ANÁLISIS DE NEGOCIO DE MICROSOFT BUSINESS SOLUTIONS NAVISION Beneficios principales: Obtenga una visión general de su negocio Marque su ventaja sobre la competencia con una toma de decisiones más inteligente

Más detalles

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Informe técnico ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Análisis detallado Resumen Ningún mecanismo por sí mismo

Más detalles

Tecnimap 2010. Ahorro de costes, mantenimiento y mejora de la seguridad con infraestructura virtualizada VDI con Microsoft Hyper-V y Citrix XenDesktop

Tecnimap 2010. Ahorro de costes, mantenimiento y mejora de la seguridad con infraestructura virtualizada VDI con Microsoft Hyper-V y Citrix XenDesktop Tecnimap 2010 Ahorro de costes, mantenimiento y mejora de la seguridad con infraestructura virtualizada VDI con Microsoft Hyper-V y Citrix XenDesktop Antecedentes/Problemática La Corporación Aragonesa

Más detalles

Hoja de datos: Protección de datos Symantec Backup Exec 2010 Copias de seguridad y recuperación de confianza para las empresas en crecimiento

Hoja de datos: Protección de datos Symantec Backup Exec 2010 Copias de seguridad y recuperación de confianza para las empresas en crecimiento Copias de seguridad y recuperación de confianza para las empresas en crecimiento Descripción general ofrece protección mediante copias de seguridad y recuperación líder del sector desde servidores hasta

Más detalles

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC

Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Evaluación del Sistema de Almacenamiento de Información CLARiiON AX4 de EMC Informe elaborado bajo contrato con EMC Corporation Introducción EMC Corporation contrató a Demartek para llevar a cabo una evaluación

Más detalles

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16

CA ARCserve D2D. Un backup y una recuperación de desastres muy rápidos podrían salvar su trabajo. DESCRIPCIÓN DEL PRODUCTO: CA ARCserve D2D r16 CA ARCserve D2D CA ARCserve D2D es un producto de recuperación basado en disco diseñado para ofrecer la combinación perfecta de protección fiable y recuperación rápida de los datos empresariales de sus

Más detalles

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS

ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Informe ARQUITECTURA DE INVULNERABILIDAD DE DATOS DE EMC DATA DOMAIN: MEJORA DE LA CAPACIDAD DE RECUPERACIÓN Y LA INTEGRIDAD DE LOS DATOS Análisis detallado Resumen Ningún mecanismo por sí mismo es suficiente

Más detalles

Está brindando valor a sus clientes para ayudarlos a combatir el estancamiento. de la virtualización? y acelerar la madurez

Está brindando valor a sus clientes para ayudarlos a combatir el estancamiento. de la virtualización? y acelerar la madurez RESUMEN PARA SOCIOS DE NEGOCIOS: CA VIRTUAL FOUNDATION SUITE Está brindando valor a sus clientes para ayudarlos a combatir el estancamiento de la virtualización y acelerar la madurez de la virtualización?

Más detalles