Resolución de problemas complejos en Clusters Linux. María Carolina León Carri 1, Luis Alfredo Tognon 1

Save this PDF as:
 WORD  PNG  TXT  JPG

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Resolución de problemas complejos en Clusters Linux. María Carolina León Carri 1, Luis Alfredo Tognon 1 carolina.leon@total.com, luis.tognon@total."

Transcripción

1 Resolución de problemas complejos en Clusters Linux María Carolina León Carri 1, Luis Alfredo Tognon 1 1 Total Austral S.A. Moreno 877 Piso 19 (C1091AAQ) Buenos Aires Argentina. Palabras claves: cluster linux - performance - Eclipse Parallel Abstract Complex Problems Resolutions on Linux Clusters High Performance Computing (HPC) clusters were developed for parallel data processing. Nowadays they are becoming popular in areas of study which need to resolve complex problems. A HPC cluster is a group of independent computers combined into a unified system through software and networking to provide greater computational power than a single computer can provide. The research was made using Schlumberger s Eclipse Parallel application implemented for execution on multiple processors. Two data models were used with different amount of active cells and time intervals and the application was run with a variable number of processors. The parallel simulations were executed on machines with the following architectures and operating systems: Pentium 4 with Windows XP, Sun Blade with Solaris 8, Xeon with Linux Red Hat and AMD Opteron with Linux Red Hat and Gentoo. The results have shown that the parallel efficiency is proportional to the model size, the amount of active cells and the kind of fluids involved. The model s size is limited by the memory capacity of each node. What is more, the cluster efficiency is related with the communication speed between processors, the network bandwidth and latency, the processor architecture, the caching mechanics and the memory access methods. INTRODUCCIÓN La necesidad de incrementar las reservas conocidas de hidrocarburos y de optimizar la producción de petróleo y de gas, entre otras cosas llevó a ampliar el detalle de los modelos geológicos aplicados y de comportamiento dinámico que los describen. Dicha situación hizo que el tamaño de los modelos, en término de celdas con datos, creciera mucho y por ello aumentara el tiempo de ejecución y los recursos de hardware necesarios para ejecutar las aplicaciones dedicadas a resolverlos. La resolución de estos modelos fue posible por la existencia de los clusters de computadoras de alta performance (Ridge et al. 1997) que están dedicados al procesamiento de datos en paralelo. Los clusters adquirieron popularidad en las áreas de estudio que requieren gran capacidad de cálculo para resolver sus problemas. La ventaja principal de este tipo de computadoras es que están compuestas por un conjunto de máquinas que interconectadas logran una alta capacidad de procesamiento a menor costo que los supercomputadores. Este trabajo tiene como objetivo probar una aplicación utilizada en ingeniería de reservorios Eclipse en su versión de Eclipse Parallel en diversas configuraciones de hardware y sistemas operativos para seleccionar una configuración accesible en la actualidad. METODOLOGÍA Plataformas utilizadas Para realizar las pruebas de Eclipse y Eclipse Parallel se utilizaron máquinas de distinta arquitectura de hardware y distintos sistemas operativos, ver Fig. 1. Las máquinas SunBlade 2000 e Intel Pentium 4 poseen un sólo procesador. La SunBlade 2500 es una máquina SMP (Share Memory Processor) con dos procesadores. La máquina AMD Opteron con 4 procesadores (4P) también es SMP con configuración NUMA (Non Uniform Memory Access). Las Intel Xeon 1 procesador (1P), Intel Xeon 2 procesadores (2P)

2 y AMD Opteron 2P fueron utilizadas en clusters de alta performance. Los clusters con máquinas Intel Xeon poseen 4 nodos cada uno, el cluster AMD Opteron posee 24 nodos. Plataforma Velocidad del Memoria Versión de Interconexión Sistema Operativo procesador RAM Eclipse entre procs SunBlade Ghz 4 GB Solaris a_1 - SunBlade 2500 Dual 1.28 Ghz 8 GB Solaris a_1 - Intel Pentium IV 2 Ghz 2 GB Windows a_1 - Xeon (1P) 2.8 Ghz 4 GB Linux RedHat a 1 Gb Fibra Óptica Xeon Dual 2 Ghz 1 GB Linux RedHat a 1 Gb Fibra Óptica AMD Opteron64 Dual 1.8 Ghz 2 GB Linux RedHat AS a_1 1 Gb UTP AMD Opteron64 (4P) 1.8 Ghz 4 GB Linux Gentoo 2004a_1 Coherent Hyper Transport Fig. 1. Detalle del hardware, sistema operativo y versión de Eclipse utilizados. En la Fig. 2 (A) se muestra la arquitectura de los procesadores Intel Xeon y Xeon Dual (conectando el segundo CPU por la línea punteada), Intel Pentium 4 es análoga con un solo procesador, la misma se basa en la interconexión de los procesadores y la memoria a través del Front Side Bus (FSB). Para acceder a memoria ambos procesadores deben utilizar el FSB, atravesar el North Bridge del motherboard encontrándose allí un cuello de botella pues dicho FSB también es utilizado para acceder a los dispositivos de entrada/salida (E/S) como ser la placa de red. AMD Opteron Fig. 2 (B) ha implementado dentro del procesador las funciones necesarias de acceso a memoria, obteniendo así la posibilidad de acceder a la misma a través de un canal dedicado que utiliza la tecnología de Hyper Transport (enlace de alta performance, velocidad, ancho de banda y baja latencia utilizado para conectar punto a punto chips de un sistema) (HyperTransport Consortium 2004). Por otra vía accede a los dispositivos de E/S evitando el cuello de botella en los accesos a memoria. La arquitectura AMD Opteron Dual interconecta los procesadores mediante la tecnología Coherent Hyper Transport aún más veloz que la anterior y propietaria de AMD. En la Fig. 2 (B) la línea punteada hacia uno de los bancos de memoria se debe a que no todos los motherboards implementados para AMD Opteron Dual poseen un banco de memoria para cada procesador. Dicho caso es el de los nodos del cluster de AMD Opteron Dual utilizado, esto degrada un poco la performance total del sistema. Fig. 2. Arquitectura (A) Intel Xeon Dual, (B) AMD Opteron Dual (Brandao 2005).

3 La Fig. 3 muestra la arquitectura de AMD Opteron con cuatro procesadores. Los mismos se interconectan en topología de anillo a través de enlaces Coherent Hyper Transport. Cada procesador posee un banco de memoria dedicado. Fig. 3. Arquitectura AMD Opteron de 4 procesadores (Brandao 2005). Fig. 4. Arquitectura Sun UltraSPARC III (Sun Microsystems 2003). Finalmente, en la Fig. 4 se muestra la arquitectura de las Sun UltraSPARC III (Sun Microsystems 2003) correspondiente a las máquinas SunBlade. Sun Microsystems optimiza en este modelo el pipeline de instrucciones, el acceso a memoria y agrega nuevas instrucciones para acelerar tareas específicas de

4 cómputo. El acceso a memoria se realiza en modo jerárquico de dos niveles que permite incrementar el ancho de banda en el acceso a los datos en forma más rápida y eficiente. Se utilizó el sistema de administración de procesos OpenPBS (Veridian Information Solutions 2000) y el scheduler de procesos MAUI (MAUI 2005) para enviar a ejecutar las corridas de Eclipse Parallel en background. Este esquema permite que cada trabajo utilice en forma exclusiva los procesadores que necesita. OpenPBS registra en sus logs tiempos de CPU, memoria y elapsed utilizado por cada trabajo. Dichos tiempos coinciden con los que muestra Eclipse Parallel en sus archivos de salida *.RSM. Los datos de la simulación se encuentran en un sistema de archivos remoto montado en las máquinas UNIX a través de NFS y en la máquina Windows a través de CIFS/NTFS. Descripción de software Eclipse Parallel Su implementación en clusters de alta performance ha tenido una rápida evolución, por lo tanto las versiones fueron cambiando en el transcurso de las pruebas realizadas, las evaluadas fueron: 2003a, 2003a_1, 2004a y 2004a_1. Los cambios realizados entre cada versión con respecto al feature PARALLEL no fueron significativos, se considera que se pueden comparar los resultados obtenidos con diferentes versiones de Eclipse (Schlumberger 2002), aplicación desarrollada por Schlumberger - Geoquest. Eclipse Blackoil es un simulador de reservorios de hidrocarburos que permite simular sistemas de 1, 2 y 3 fases y tres dimensiones, con opciones de gas condensado. Las opciones para 2 fases (oil/water, oil/gas, gas/water) se resuelven como sistemas de dos componentes, optimizando tiempos de ejecución y requerimientos de almacenamiento de datos. Además del gas disuelto en el petróleo (variación del punto de burbuja, o de la relación gas-petróleo con la profundidad) Eclipse Blackoil puede ser utilizado para modelar el petróleo vaporizado en el gas (variación del punto de rocío, o de la relación petróleo-gas con la profundidad) Está programado en Fortran 77 y puede ser ejecutado en computadoras con ANSI standard Fortran 77 con suficiente cantidad de memoria. La versión paralela, está basada en una arquitectura de memoria distribuida implementada con las funciones de pasaje de mensajes MPI - Message Passing Interface (MPI Consortium 1998) que permite la simulación de un conjunto de datos distribuidos entre múltiples procesadores, con memoria compartida o distribuida y esto permite resolver simulaciones de mayor tamaño en menor tiempo. Eclipse está optimizado para obtener la solución en corto plazo dimensionando el método de resolución lineal, usando el popular enfoque del método de residuo mínimo generalizado GMRES (Erhel 1995). Pero teniendo en cuenta que los resultados obtenidos con distinta cantidad de procesadores se ven limitados debido a que la resolución lineal es menos eficiente a medida que se aumenta el número de procesadores. Eclipse Parallel (Schlumberger 2002) divide el modelo a simular en varios dominios (con aproximadamente la misma cantidad de celdas activas por partición) según la cantidad de procesadores disponibles y cada dominio es simulado en un procesador utilizando pasaje de mensajes para resolver el modelo. En el caso de Blackoil (ECLIPSE 100) se particiona el modelo en la dirección X o Y dependiendo de cual es la dirección de resolución fundamental. Algunos puntos a tener en cuenta, por que afectan los tiempos de computación son los Local Grid Refinements (LGR) que pueden ser tratados como dominios separados y procesados en cada procesador, siendo esta opción eficiente si hay un gran número de LGRs en el modelo, otra alternativa es que los LGRs se dividan en sub dominios y que los mismos sean distribuidos entre un número de procesadores, pero esta opción es más costosa computacionalmente. También hay que tener en cuenta el modelo de pozo, ya que se puede producir un cuello de botella, si tiene muchas conexiones entre dominios que exigen comunicaciones extras para asegurar la consistencia. Este software es apropiado para obtener mejores tiempos de ejecución en modelos con millones de celdas, trabajando con una representación geológica mas realista, logrando en menos tiempo calibrar el modelo durante el proceso de history matching y en definitiva una simulación mas detallada del reservorio. Definición de Speed-up El tamaño del problema está directamente relacionado con la cantidad de procesadores óptimo a utilizar. La medida ideal para definir la performance de un problema es el speed-up definido por:

5 Ts S = donde, Ts + C N C = L + M BW S: speed-up; Ts: Tiempo ejecución serial; N: número de nodos; C: tiempo de comunicación; L: latencia; M: tamaño de los datos a transmitir y BW: bandwidth (ancho de banda del enlace entre los nodos). El valor de speed-up es entre 1 y N, es óptimo cuando tiende a ser igual a la cantidad de procesadores en que se paralelizó el problema. Esto ocurrirá cuando el tiempo de comunicación C es muy pequeño. El tiempo de comunicación depende de la latencia de la red (tiempo de respuesta, depende de las características físicas del medio de transmisión) y del tamaño de los datos del problema en función del ancho de banda de la red (en nuestro caso 1 Gbps). Cuanto mayor sea la cantidad de datos a transmitir mayor será el tiempo de comunicación. Configuración del data set utilizado: Selección de división de dominios automática, que reparte la misma cantidad de celdas activas por procesador. La posibilidad del usuario de optimizar la división de dominios definiendo en el data set los keywords SOLVDIRS (permite cambiar la dirección de resolución de XY o YX) y DOMAINS (permite asignar diferentes tamaños de dominios a cada procesador). Por ejemplo: SOLVDIRS YX / En el caso de una simulación con 4 procesadores se podrían definir los tamaños de datos para cada procesador en 5, 5, 5 y 9 para el último: DOMAINS / El keyword PARALLEL que define la cantidad de procesadores a utilizarse aplica en ambas situaciones. PARALLEL NP / donde NP es número de procesadores. Para obtener el tiempo de CPU y elapsed (tiempo total de ejecución CPU + operaciones de sistema como ser pasaje de mensajes, acceso a datos, interrupciones del sistema operativo) en el archivo de salida *.RSM, se deben agregar en la sección SUMMARY, los keywords: TCPU y ELAPSED. Optimización del entorno paralelo Existen un conjunto de variables que se deben optimizar para obtener mayor performance en el tiempo total de resolución de una simulación paralela. Las mismas abarcan distintos aspectos del sistema desde parámetros que definen el tamaño de paquetes de las bibliotecas MPI hasta parámetros de NFS y TCP/IP. MPI posee un conjunto de variables de entorno que permiten optimizar las funciones de pasaje de mensajes, por ejemplo se puede definir el tamaño de buffer del socket establecido entre cada par de nodos al momento de intercambiar datos, esta variable es P4_SOCKBUFSIZE por default es de tamaño 128 KB, al utilizar enlaces de Gigabit Ethernet se recomienda aumentar el tamaño a 256 KB. Por otro lado, no es trivial alcanzar el ancho de banda que ofrece Gigabit Ethernet a nivel de sistema operativo. Para esto Linux posee un conjunto de variables de configuración de los sockets de TCP/IP que permiten agrandar el tamaño de ventanas de congestión. Se deben definir los valores deseados dentro del archivo /etc/sysctl.conf. Las variables son: net.core.rmem_default net.core.rmem_max net.core.wmem_default net.core.wmem_max net.ipv4.tcp_wmem net.ipv4.tcp_rmem net.ipv4.tcp_mem

6 Finalmente, si los datos se encuentran en un servidor remoto y los mismos se acceden mediante NFS es importante realizar el tunning de dicho protocolo. Para NFS sobre Gigabit Ethernet se recomienda agrandar el tamaño de los bloques de lectura y escritura a 8 KB, además se logra mayor performance configurando el protocolo en forma asincrónica. Modelos de simulación Se evaluaron dos modelos de datos, con distinta cantidad de celdas e intervalos de tiempo de simulación, ver Fig. 5, se ejecutó Eclipse Parallel variando la cantidad de procesadores en los que se dividía el problema. Las características particulares que tienen los modelos y que influyen en el tiempo de ejecución son la cantidad de celdas activas, el período de tiempo que se quiere simular y los fluidos entre otros. Modelo Cantidad de Celdas Cantidad de Celdas Activas A Amill Amill Intervalo de tiempo Inicio: 31/12/1965 Fin: 01/05/2003 Fluidos Oil-Water-Gas Fig. 5. Descripción de los modelos utilizados. Se intentó ejecutar el modelo de datos Amill en todas las plataformas pero Windows 2000 no pudo brindar al proceso la cantidad de memoria necesaria. A pesar de que la máquina tenía 2Gb de memoria, sólo le dio a Eclipse un máximo de 1,328 Gb. Para poder ejecutarlo se disminuyó la cantidad de celdas activas eliminando un grupo de celdas que no afectaban a la simulación quedando finalmente celdas activas. DESARROLLO Y RESULTADOS Se realizaron pruebas con los modelos de simulación presentados con Eclipse y Eclipse Parallel en las distintas plataformas disponibles. En la Fig. 6 se muestran los resultados de la ejecución del modelo A con Eclipse serial, se puede observar que la simulación en la SunBlade 2500 fue mejor que en SunBlade 2000 las versiones de Eclipse Parallel utilizadas fueron 2004a_1 y 2003a_1 respectivamente. Hay dos factores que pueden influir en este resultado, el primero es que la SunBlade 2500 posee dos procesadores por lo tanto se pueden paralelizar las tareas de usuario y sistema, un procesador realiza los cálculos matemáticos de la simulación y el otro las tareas de sistema mejorando así el tiempo de procesamiento extra al uso de CPU del usuario (ELAPSED-CPU). El segundo es que al utilizar distintas versiones de Eclipse Parallel Schlumberger pudo haber mejorado los flags de compilación obteniendo así un código optimizado.

7 Elapsed (segundos) SunBlade2000 SunBlade2500 Pentium4 Xeon 1P Xeon 2P Opteron 2P Opteron 4P Elapsed-TCPU 1068,43 16,88 682,61 11,62 9,91 30,20 2,19 TCPU 9238, , , , , , ,01 Fig. 6. Simulación del modelo A con Eclipse Serial. Los procesadores Pentium 4 y Xeon 1P fueron más eficientes que la SunBlade 2000 y la SunBlade Los AMD Opteron Dual fueron aun más eficiente que el Xeon Dual, pero aquí debemos tener en cuenta que Opteron es un procesador con arquitectura de 64 bits lo que lo hace más eficiente en accesos a memoria. La menor performance de Opteron 4P con respecto al Opteron Dual se debe a que los equipos tenían distintos sistemas operativos instalados. Elapsed (segundos) Cantidad de Procesadores Xeon 1P Xeon 2P Xeon 2P Opteron Dual Opteron Dual Opteron 4P Fig. 7. Simulación del modelo A con Eclipse Parallel. Las líneas punteadas corresponden a pruebas utilizando dos procesadores por máquina.

8 De las pruebas paralelas realizadas con el modelo A se obtuvieron los resultados de la Fig. 7. donde se muestra el tiempo de ejecución en función de la cantidad de procesadores utilizados. El mejor resultado se obtuvo con el cluster AMD Opteron Dual utilizando sólo un procesador por máquina. El caso llamativo es el de Xeon Dual utilizando dos procesadores por nodo, en la ejecución paralela es buen resultado pues prácticamente se resuelve el problema en la mitad del tiempo que el serial, pero luego cuando se aumenta el número de procesadores a 4, el tiempo total aumenta considerablemente. Esto puede deberse a la arquitectura interna de los nodos, ver Fig. 2 (A), el FSB se debe utilizar para los accesos a memoria y para el intercambio de mensajes entre los nodos vecinos como así también para el acceso a los datos desde el servidor de NFS hallándose en el FSB un cuello de botella afectando a la resolución total del problema. La ejecución de Xeon Dual con 8 procesadores (dos procesadores por máquina) es mejor que la anterior y esto se debe a que en este caso al repartir el dominio de datos en 8 procesadores, se reparten menor cantidad de datos por nodo, requiriendo menor uso de memoria y disminuyendo la cantidad de mensajes a procesar entre cada par de procesadores ya sean internos a un nodo o entre dos nodos. También en el cluster de 24 Opteron Duales, la opción de dos procesadores por nodo resultó poco eficiente, debido a que la arquitectura del motherboard no brinda la posibilidad de asignar un banco de memoria por procesador y a configurar la opción NUMA del kernel. La máquina Opteron 4P obtuvo buena performance al utilizar dos procesadores internos, fue aún más veloz que su caso serial y mucho más al utilizar los 4 procesadores. Aquí se observan los beneficios de tener los bancos de memoria dedicados para cada procesador. ELAPSED (segundos) SunBlade2000 Pentium 4 Xeon 2P Opteron 4P Opteron 2P ELAPSED-TCPU TCPU Fig. 8. Simulación del modelo Amill en las distintas plataformas con distinta cantidad de procesadores. Las simulaciones del modelo Amill se grafican en la Fig. 8, en tiempo en segundos en función de la plataforma utilizada y la cantidad de procesadores. Se realizaron ejecuciones seriales para SunBlade 2000 y Pentium 4. Se ejecutó el modelo utilizando cuatro procesadores para Xeon Dual (utilizando un procesador por nodo) y para Opteron 4P. Finalmente se simuló el modelo con ocho procesadores en el cluster Opteron Dual de 24 nodos (utilizando un procesador por máquina). La ejecución en la SunBlade 2000 duró 16 días, luego en Pentium 4 se obtuvo una mejora del 50% finalizando la simulación en 8 días. El cluster de procesadores Xeon Dual resolvió el problema en 3,6 días. La máquina Opteron 4P mostró una buena performance con 2,7 días y finalmente utilizando ocho procesadores se alcanzó el resultado en 1,8 días. Este

9 último caso, no mantiene la relación de mejora de tiempo con respecto a los casos anteriores, esto se debe a que en computación paralela no se gana performance simplemente por aumentar el número de procesadores. En la Fig. 9 se muestran el speed-up para Xeon 2P, Opteron 4P y Opteron 2P en ejecuciones paralelas de 4, 4 y 8 procesadores. En los dos primeros casos se alcanzó un speed-up de aproximadamente 3, esto es un valor aceptable, aún se mantiene una buena relación entre el tiempo de transmisión de los datos y el tiempo de cálculo en cada uno de los procesadores. Sin embargo, para el caso de Opteron 2P con 8 procesadores el speed-up dio 4.36 esto quiere decir que se está invirtiendo más tiempo en funciones de comunicación entre los procesadores que en poder de cálculo de cada uno de ellos. Para que se justifique simular el modelo en 8 procesadores, este debería ser mas grande en términos de celdas activas. Speed-up TS N C Xeon 2P Opteron 4P Opteron 2P Fig. 9. Speed-up de la ejecución de Eclipse Parallel. Uso de recursos Se realizó un análisis del uso de recursos de la aplicación Eclipse Parallel durante la ejecución del modelo A en el cluster de Xeon duales. Se evaluó el uso de CPU, memoria y red en uno de los nodos participantes de la simulación del modelo, utilizando cuatro procesadores distribuidos para un caso en cuatro máquinas y para otro en dos. El perfil de ejecución del resto de las máquinas es similar. En la Fig. 10 se muestra el porcentaje de uso de CPU en función del tiempo de simulación. El máximo porcentaje de uso es 200% esto se debe a que se representa en el mismo gráfico la suma del porcentaje de uso de los dos procesadores. La Fig. 10 (a) muestra que durante la ejecución en cuatro máquinas con cuatro procesadores (4M4P) los procesos de usuario utilizan aproximadamente un 80% de CPU mientras que el uso de procesos del sistema (interrupciones del sistema operativo, accesos a memoria, pasaje de mensajes entre otras) alcanza un máximo de un 4%. El sistema dispone de un procesador exclusivo para la simulación y otro para las tareas del sistema operativo. En el caso dos máquinas con cuatro procesadores (2M4P) el uso de CPU de usuario es de 180%. Observar que el porcentaje de CPU dedicado a operaciones del sistema operativo se mantiene en el transcurso de toda la simulación en un 5%. En este caso los procesadores deben llevar a cabo tareas de usuario y sistema al mismo tiempo. En la Fig. 11 se grafica el uso de memoria en Gigabytes (GB) en función del tiempo de simulación. En el caso 4M4P el máximo uso de memoria es de 0.1 GB mientras que al utilizar 2M4P se nota un incremento en el uso de memoria de un 80% (0.18 GB). En este caso la memoria es utilizada por dos procesos involucrados en la simulación. La cantidad de memoria utilizada se relaciona directamente con el tamaño del modelo simulado y con la cantidad de procesadores utilizados.

10 (a) (b) Fig. 10. Uso de recurso de CPU de uno de los nodos participantes de la simulación del modelo A en el cluster de Xeon 2P. (a) Ejecución en 4 máquinas 4 procesadores. (b) Ejecución en 2 máquinas 4 procesadores. (a) (b) Fig. 11. Uso de recurso de MEMORIA de uno de los nodos participantes de la simulación del modelo A en el cluster de Xeon 2P. (a) Ejecución en en 4 máquinas 4 procesadores. (b) Ejecución en 2 máquinas 4 procesadores.

11 Cuando se utilizan cuatro procesadores, el dominio se divide en cuatro sub dominios con la siguiente distribución: Por lo tanto el pasaje de mensajes se realizará entre los pares (a, b), (a, c), (b, d) y (c, d).esta descomposición se puede manejar automáticamente o puede ser controlada por el usuario. En la Fig. 12 se muestra gráficamente cómo sería el pasaje de mensajes entre cuatro procesadores. Teniendo en cuenta esta distribucion en la Fig. 13 muestra el uso de la red en cantidad de Megabits por segundo (Mbps) que entran y salen del nodo durante el período simulado. En el caso de 4M4P se observa un mayor uso de la red debido a que el nodo representado debe intercambiar mensajes con otros dos nodos, alcanzando un máximo de 1.6 Mbps de datos de salida y 1 Mbps de entrada. En el caso 2M4P el uso de la red disminuye un 50%. Esto se debe a que en este caso un procesador se conecta con el otro procesador interno a través del Front Side Bus (FSB) y sólo utiliza la red para intercambiar mensajes con un procesador de la otra máquina. Fig. 12. Diagrama de conexión de una simulación con cuatro procesadores. Los enlaces rojos son conexiones de red, los verdes son internos FSB. (a) (b) Fig. 13. Uso de recurso de RED de uno de los nodos participantes de la simulación del modelo A en el cluster de Xeon 2P. (a) Ejecución en 4 máquinas 4 procesadores. (b) Ejecución en 2 máquinas 4 procesadores.

12 En la Fig. 14 se grafica el uso de CPU del modelo Amill en un nodo del cluster Opteron dual en dos simulaciones diferentes. El primer tramo corresponde a la ejecución del modelo en 16 procesadores y el segundo tramo a una ejecución con 8 procesadores, en ambos casos se utiliza sólo un procesador por nodo. Es interesante notar que en el primer caso el uso de CPU para procesos de usuario y de sistema es prácticamente igual, 50% cada uno. Esto indica que el modelo es muy pequeño para ser ejecutado en 16 procesadores. El procesador utiliza más tiempo para resolver el pasaje de mensajes que para la resolución del problema matemático. Para el segundo caso, sólo se nota un alto grado de procesos de sistema al inicio de la simulación, momento en el cual se está distribuyendo las tareas entre los procesadores involucrados, luego se estabiliza el uso exclusivamente para procesos de usuario. Percent 100 compute local 0 17:20 17:40 User CPU System CPU Idle CPU Fig. 14. Uso de CPU para la simulación del modelo Amill con 16 y 8 procesadores. CONCLUSIONES La eficiencia de la simulación en paralelo es proporcional a la cantidad de celdas activas y a los fluidos involucrados en el modelo. A mayor cantidad de datos a procesar, mayor eficiencia se obtendrá en su paralelización. La eficiencia del cluster también está relacionada con la velocidad de comunicación entre los procesadores. (a) El bus interno de una máquina no es eficiente para el intercambio de mensajes que genera Eclipse Parallel. Esto se comprobó al ejecutar el mismo modelo en una sola máquina utilizando sus dos procesadores y en dos máquinas utilizando un procesador de cada una. En el último caso se obtuvo mejor tiempo. Además, se debe tener en cuenta que en el primer caso los procesadores deben compartir la memoria. Por lo tanto se recomienda que las máquinas que componen el cluster posean sólo un procesador. (b) La capacidad de la red que conecta los nodos del cluster limitará la cantidad de nodos que pueda tener el mismo. Por ejemplo, en una red dedicada al cluster 100baseT Ethernet se podrán conectar hasta cuatro nodos. En cambio en una red Gigabit el número de nodos será mucho mayor. En el modelo A que se utilizó para las pruebas se pudo observar que las interfaces de red de las máquinas sólo utilizaron un porcentaje constante (máximo 1Mb) de la capacidad de sus interfaces. (c) Según el proveedor del software, no se pueden armar clusters que requieran un gran número de nodos paralelos bajo el sistema operativo Windows. (d) Las máquinas AMD Opteron 64 bits poseen una nueva tecnología llamada Coherent Hyper Transport para interconectar los procesadores internos de un nodo. Dicha tecnología mostró muy buena performance con respecto a la capacidad de cálculo de un nodo con 4 procesadores. (e) Otra característica que favorece a la capacidad de cálculo de los procesadores AMD Opteron 64 bits es que cada procesador posee bancos de memoria de uso exclusivo de cada procesador (esto se logra configurando la opción de BIOS Non CPU Interleaving y la opción del kernel Non Uniform Memory Access NUMA ). El tamaño de los modelos a procesar se ve limitado por la capacidad de memoria de las máquinas. Cuanta más memoria tengan las máquinas, se podrán resolver modelos más grandes en menor tiempo. En el caso de ser máquinas con múltiples procesadores se debe elegir la cantidad de memoria en relación con la cantidad de procesadores involucrados en un nodo.

13 Se recomienda que el cluster sea homogéneo, esto es, que tenga el mismo hardware y software en cada uno de sus nodos. Esto garantiza que el balance de carga automático que realiza Eclipse Parallel sea adecuado. Además, facilita la administración del cluster. Es importante optimizar la configuración del sistema de archivos (p.e. en el caso de NFS) para obtener mayor performance, debido a que Eclipse Parallel realiza gran cantidad de funciones de escritura a disco en el transcurso de la simulación. Cuando se utiliza AMD Opteron 64 es importante la arquitectura del motherboard para poder optimizar el uso de los procesadores internos de un nodo habilitando la opción NUMA del kernel y la de Non CPU Interleaving del BIOS. AGRADECIMIENTOS A Schlumberger por el préstamo de las licencias necesarias para realizar las pruebas en las distintas plataformas. Al Instituto de Astronomía y Física del Espacio (IAFE, UBA) por prestarnos el cluster de 24 nodos Opteron64 Duales. A AMD, especialmente a Silvia Carusso por prestarnos la máquina Opteron de 4 procesadores. Al Laboratorio de Sistemas Complejos del Departamento de Computación, de la UBA que nos cedió el lugar físico de trabajo donde se encontraba dicho servidor. Y especialmente a Total Austral por permitir presentar este trabajo en las II Jornadas de Geotecnología. BIBLIOGRAFÍA D. Ridge, D. Becker, P. Merkey and T.Sterling. Beowulf: Harnessing the power of parallelism in a pile-ofpcs. Proceedings, IEEE Aerospace Sun Microsystems. An overview of UltraSPARC III Cu J. Erhel. A parallel GMRES version for general sparse matrices Schlumberger. GSS Software Release Notes 2002A MPI Consortium. MPI Consortium: The Message Passing Interface Standard, Technical Report. Junio Schlumberger. Eclipse Parallel, Reduce simulation processing time R. Brandao. "Evolución del Microprocesador X86". AMD South America HyperTransport Consortium. HyperTransport I/O Technology Overview - An Optimized, Low-latency Board-level Architecture Schlumberger. Oil and gas reservoir and production optimization P. Foster. Eclipse reservoir simulation. The Eclipse Parallel option P. Foster. Configuring Parallel Eclipse on a Network of Windows PCs P. Crumpton, P. Fjerstad, J Berge. Parallel Computing using Eclipse Parallel Schlumberger. Eclipse, Technical Description 2003A. Chapter 38: Parallel Option Veridian Information Solutions. Portable Batch System Administrator Guide MAUI. MAUI Scheduler administrator s guide

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

Apéndice A: Características de las Redes Locales

Apéndice A: Características de las Redes Locales Apéndice A: Características de las Redes Locales En este apéndice se muestran las principales características de hardware y software de las redes locales y de las computadoras que las componen y que se

Más detalles

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción: arquitecturas

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Arquitectura: Clusters

Arquitectura: Clusters Universidad Simón Bolívar Arquitectura: Clusters Integrantes: - Aquilino Pinto - Alejandra Preciado Definición Conjuntos o conglomerados de computadoras construidos mediante la utilización de hardware

Más detalles

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co Universidad Pedagógica y Tecnológica de Colombia Colombia Amézquita-Mesa, Diego Germán; Amézquita-Becerra, Germán; Galindo-Parra, Omaira

Más detalles

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe Linux Week PUCP 2006 Computación de Alto Rendimiento en Linux Richard Miguel San Martín rmiguel@senamhi.gob.pe Agenda Computación Científica Computación Paralela High Performance Computing Grid Computing

Más detalles

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14 High Performance Computing y Big Data en AWS +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 212 1 / 14 High Performance Computing High Performance Computing (HPC) Afonta grandes problemas empresariales,

Más detalles

2. Requerimientos Técnicos

2. Requerimientos Técnicos 2. Requerimientos Técnicos La solución SIR-LA (Sistema Integral RECO de Logística Aduanera) fue diseñada para operar como una plataforma centralizada, es decir, un sistema único para una Agencia o grupo

Más detalles

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN Tabla de Contenidos LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN... 1 Tabla de Contenidos... 1 General... 2 Uso de los Lineamientos Estándares...

Más detalles

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico.

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico. Desarrollo de un cluster computacional para la compilación de algoritmos en paralelo en el Observatorio Astronómico. John Jairo Parra Pérez Resumen Este artículo muestra cómo funciona la supercomputación

Más detalles

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos.

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos. RAIDS MODO LINEAL Es un tipo de raid que muestra lógicamente un disco pero se compone de 2 o más discos. Solamente llena el disco 0 y cuando este está lleno sigue con el disco 1 y así sucesivamente. Este

Más detalles

UNIDAD FORMATIVA 1: Instalación y Configuración de los Nodos de Area Local

UNIDAD FORMATIVA 1: Instalación y Configuración de los Nodos de Area Local UNIDAD FORMATIVA 1: Instalación y Configuración de los Nodos de Area Local OBJETIVOS: - Explicar las topologías de una red local en función de las tecnologías y arquitecturas existentes. - Clasificar los

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

Análisis de desempeño y modelo de escalabilidad para SGP

Análisis de desempeño y modelo de escalabilidad para SGP Análisis de desempeño y modelo de escalabilidad para SGP Este documento es producto de la experiencia de Analítica en pruebas de stress sobre el software SGP. Estas pruebas se realizaron sobre un proceso

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 3 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD3 El bien a adquirir se describe a continuación y consiste en cúmulo de supercómputo

Más detalles

Características de Samba

Características de Samba INTRODUCCION El documento describe el proyecto; Sistema de Archivo de Red, que consiste en la implementación de un servidor de archivo que tenga soporte para archivos compartidos utilizando los protocolos

Más detalles

Juan de Dios Murillo Morera e-mail: jmurillo@una.ac.cr Santiago Caamaño Polini e-mail: scaamano@costarricense.cr INTRODUCCIÓN

Juan de Dios Murillo Morera e-mail: jmurillo@una.ac.cr Santiago Caamaño Polini e-mail: scaamano@costarricense.cr INTRODUCCIÓN UNICIENCIA 24 pp. 83-89 2010 IMPLEMENTACIÓN DE UN SERVIDOR FTP UTILIZANDO EL MODELO CLIENTE/SERVIDOR MEDIANTE EL USO DE SOCKETS EN LENGUAJE C UNIX CON EL FIN DE MEJORAR LOS TIEMPOS DE RESPUESTA EN LA RED

Más detalles

REDES DE COMPUTADORAS

REDES DE COMPUTADORAS REDES DE COMPUTADORAS INTRODUCCIÓN Qué es una RED DE COMPUTADORAS?: Conjunto de computadoras interconectadas a través de un medio común. POR QUÉ USAR UNA RED? Las organizaciones implementan redes con el

Más detalles

Desarrollo Informático del SIGOB

Desarrollo Informático del SIGOB Desarrollo Informático del SIGOB Los soportes informáticos del Sistema de Información y Gestión para la Gobernabilidad (SIGOB) utilizan productos de tecnología avanzada, que permite la rápida incorporación

Más detalles

Estándares Índice Estándares de Hardware Estándares para la adquisición de Equipos

Estándares Índice Estándares de Hardware Estándares para la adquisición de Equipos Estándares Índice Estándares de Hardware 2 Estándares para la adquisición de Equipos 3 CPU Servidor de Aplicaciones de Cliente Fino 3 CPU Servidor de Archivos para Cliente Fino 4 PC Cliente Fino 5 PC Linux

Más detalles

Especificaciones de Hardware, Software y Comunicaciones

Especificaciones de Hardware, Software y Comunicaciones Requisitos técnicos para participantes Especificaciones de Hardware, Software y Comunicaciones Versión Bolsa Nacional de Valores, S.A. Mayo 2014 1 Tabla de Contenido 1. Introducción... 3 2. Glosario...

Más detalles

Descripción. Este Software cumple los siguientes hitos:

Descripción. Este Software cumple los siguientes hitos: WWWMONITORDBACOM Descripción Este Software cumple los siguientes hitos: a- Consola de Monitoreo b- Envío de Alertas (correo, SMS) c- Gestión de Eventos desatendidos (sea capaz ejecutar script de solución

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones TEMA 3 Redes SAN -Alta disponibilidad -Sistemas Redundantes -Curso 2010 Redes de Altas Prestaciones - Indice Conceptos Componentes de un SAN Términos más utilizados Topología

Más detalles

MANUAL DE INSTALACIÓN

MANUAL DE INSTALACIÓN MANUAL DE INSTALACIÓN SISTEMA DE GESTIÓN INTEGRAL NISIRA SYSTEMS S.A.C. Derechos Reservados Trujillo 2008 Índice Página Introducción... 02 Instalación del Software o Requisitos Técnicos... 03 o Licencia

Más detalles

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B Reservados los Derechos de Propiedad Intelectual Tema: Procesadores AMD Archivo: CAP2A03BTHP0335.doc Clase Nº: 35 Versión: 1.1 Fecha:

Más detalles

Capítulo 2 Red UDLA-P

Capítulo 2 Red UDLA-P Capítulo 2 Red UDLA-P 2.1 Breve descripción La red de la UDLAP nos brinda muchos servicios, aunque no por ella misma, pero si es el medio para que estos servicios trabajen. Un claro ejemplo de estos servicios

Más detalles

Especificaciones de Hardware, Software y Comunicaciones

Especificaciones de Hardware, Software y Comunicaciones Requisitos técnicos para participantes Especificaciones de Hardware, Software y Comunicaciones Versión Bolsa Nacional de Valores, S.A. Junio 2011 1 Tabla de Contenido 1. Introducción... 3 2. Glosario...

Más detalles

1.- FUNCION DE UNA RED INFORMATICA

1.- FUNCION DE UNA RED INFORMATICA 1.- FUNCION DE UNA RED INFORMATICA Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados

Más detalles

Resolución de problemas en paralelo

Resolución de problemas en paralelo Resolución de problemas en paralelo Algoritmos Paralelos Tema 1. Introducción a la computación paralela (segunda parte) Vicente Cerverón Universitat de València Resolución de problemas en paralelo Descomposición

Más detalles

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ MARCO TEÓRICO. 13 14 Virtualización Hablar de virtualización es hablar de un concepto que describe la posibilidad de tener varios sistemas operativos funcionando al mismo tiempo en un mismo equipo físico.

Más detalles

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) Carlos Bernal, Ana Silva, Marceliano Marrón, Juan Antonio Ortega, Claudio J. Arjona Área de HPC Centro Informático Científico de

Más detalles

SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid

SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid Nancy Ocotitla Rojas, Axel E. Moreno Cervantes, Rogelio Castro González Escuela Superior de Cómputo-IPN, Av. Juan de Dios

Más detalles

APIWin Full/Enterprise

APIWin Full/Enterprise SOFTWARE PARA CONTROL DE ACCESO El APIWin es parte de la suite de productos IN-Win, un conjunto de aplicaciones destinadas a controlar al personal interno y externo de una organización. El sistema para

Más detalles

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed COMPUTADORES MULTINUCLEO Stallings W. Computer Organization and Architecture 8ed Computador multinucleo Un computador multinúcleocombina dos o mas procesadores (llamados núcleos) en una única pieza de

Más detalles

ESPECIFICACIONES TECNICAS Y PROCEDIMIENTO DE RESPALDO DE LA INFORMACION

ESPECIFICACIONES TECNICAS Y PROCEDIMIENTO DE RESPALDO DE LA INFORMACION ESPECIFICACIONES TECNICAS Y PROCEDIMIENTO DE RESPALDO DE LA INFORMACION Última Revisión 18/11/2010 (Se constituye en el Anexo A de la Oferta Comercial) Contacto de Soporte Técnico: 3139800 Extensiones:

Más detalles

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013 FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 2 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD 2 El bien a adquirir se describe a continuación y consiste de un cúmulo de

Más detalles

REDES DE TELECOMUNICACIONES

REDES DE TELECOMUNICACIONES REDES La teledistribución es un conjunto de equipo que interactúan entre sí enviando señales (datos, voz, imágenes y texto) al receptor destinatario conectados a una red. Ese sistema de compartir información

Más detalles

Tecnologías de almacenamiento en red

Tecnologías de almacenamiento en red Departamento de Lenguajes y Sistemas Informáticos Tecnologías de almacenamiento en red Curso 2001-2002 Sergio Luján Mora Índice Introducción Tecnologías subyacentes Futuro 2 DLSI - Universidad de Alicante

Más detalles

Sistema software de acceso a dispositivos en tiempo real integrado en la plataforma MissionLab

Sistema software de acceso a dispositivos en tiempo real integrado en la plataforma MissionLab Sistema software de acceso a dispositivos en tiempo real integrado en la plataforma MissionLab Resumen de la Memoria Autor D. Rubén González del Pozo Tutores Dr. D. Raúl Alves Santos Dr. D. Vidal Moreno

Más detalles

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Qué es una Red? Es un grupo de computadores conectados mediante cables o algún otro medio. Para que? compartir recursos. software

Más detalles

Dispositivos de Red Hub Switch

Dispositivos de Red Hub Switch Dispositivos de Red Tarjeta de red Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes

Más detalles

Mejorando el desempeño de una red Gigabit Ethernet en un cluster Linux

Mejorando el desempeño de una red Gigabit Ethernet en un cluster Linux Mejorando el desempeño de una red Gigabit Ethernet en un cluster Linux Raúl Hormazábal y Mario Medina Depto. Ing. Eléctrica Universidad de Concepción Raúl Hormazábal Autores Ing. Civil Electrónico UdeC

Más detalles

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Juan Carlos Fernández Rodríguez. Área de HPC. Centro Informático Científico de Andalucía (CICA) Junta de Andalucía

Más detalles

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación.

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. TEMA: Las Redes NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. QUÉ ES UNA RED? Una red informática es un conjunto de dispositivos interconectados

Más detalles

INFRAESTRUCTURA Y COMUNICACIONES DGA

INFRAESTRUCTURA Y COMUNICACIONES DGA INFRAESTRUCTURA Y COMUNICACIONES DGA Tema Descripción de la infraestructura y de las comunicaciones del SIDUNEA World para la parte del Cliente. Fecha 07/10/2009 Beneficiarios Archivo Cliente SIDUNEA World

Más detalles

CAPÍTULO 3: Resultados

CAPÍTULO 3: Resultados CAPÍTULO 3: CAPÍTULO 3: RESULTADOS La meta de un proyecto de consolidación de servidores físicos o de virtualización, es la creación de las máquinas virtuales que sean capaces de ejecutar las aplicaciones

Más detalles

INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 015-2012 SOFTWARE DE VIRTUALIZACIÓN

INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 015-2012 SOFTWARE DE VIRTUALIZACIÓN INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE N 01-2012 SOFTWARE DE VIRTUALIZACIÓN I. NOMBRE DEL ÁREA El área encargada de la evaluación técnica para la adquisición de software es la Unidad de Tecnologías

Más detalles

CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES

CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES En el anterior capítulo se realizaron implementaciones en una red de datos para los protocolos de autenticación Kerberos, Radius y LDAP bajo las plataformas Windows

Más detalles

Soluciones para entornos HPC

Soluciones para entornos HPC Dr.. IT Manager / Project Leader @ CETA-Ciemat abelfrancisco.paz@ciemat.es V Jornadas de Supercomputación y Avances en Tecnología INDICE 1 2 3 4 HPC Qué? Cómo?..................... Computación (GPGPU,

Más detalles

Red Hat Enterprise Virtualization 3.0 Instrucciones e información importante sobre la instalación

Red Hat Enterprise Virtualization 3.0 Instrucciones e información importante sobre la instalación Red Hat Enterprise Virtualization 3.0 Instrucciones e información importante sobre la instalación Notas, precauciones y avisos NOTA: Una NOTA proporciona información importante que le ayuda a utilizar

Más detalles

Redes de Almacenamiento

Redes de Almacenamiento Redes de Almacenamiento Las redes de respaldo o backend se utilizan para interconectar grandes sistemas tales como computadores centrales y dispositivos de almacenamiento masivo, el requisito principal

Más detalles

Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de

Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de Departamento de Sistemas 2014 Página 1 INDICE Introducción 3 Requisitos Generales del Entorno 3 Requisitos Generales de las Aplicaciones

Más detalles

Modelo de aplicaciones CUDA

Modelo de aplicaciones CUDA Modelo de aplicaciones CUDA Utilización de GPGPUs: las placas gráficas se utilizan en el contexto de una CPU: host (CPU) + uno o varios device o GPUs Procesadores masivamente paralelos equipados con muchas

Más detalles

Generalidades Computacionales

Generalidades Computacionales Capítulo 2 Generalidades Computacionales 2.1. Introducción a los Computadores Definición: Un computador es un dispositivo electrónico que puede transmitir, almacenar, recuperar y procesar información (datos).

Más detalles

Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC

Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC Evaluación de la Plataforma de Almacenamiento de Información de Múltiples Protocolos Celerra NS20 de EMC Informe elaborado bajo contrato con EMC Corporation Introducción EMC Corporation contrató a Demartek

Más detalles

RAID nivel 5 (RAID 5): En RAID 5 los bloques de datos que se almacenan en la unidad, y la información redundante de dichos bloques se distribuye cíclicamente entre todos los discos que forman el volumen

Más detalles

Introducción Componentes Básicos Concurrencia y Paralelismo Ejemplos Síntesis Lecturas Recomendadas. Arquitectura de Computadoras

Introducción Componentes Básicos Concurrencia y Paralelismo Ejemplos Síntesis Lecturas Recomendadas. Arquitectura de Computadoras Arquitectura de Computadoras Contenidos 1 Introducción Computadora Arquitectura Partes de una arquitectura 2 Componentes Básicos CPU Jerarquía de Memoria 3 Concurrencia y Paralelismo Arquitecturas concurrentes

Más detalles

Virtualización en procesadores multinúcleo

Virtualización en procesadores multinúcleo Virtualización en procesadores multinúcleo Francisco Triviño García ftrivino@dsi.uclm.es Becario de investigación Presente y Futuro de los Sistemas de Computación Conference title 1 Índice 1. Introducción

Más detalles

Conjunto de computadores, equipos de comunicaciones y otros dispositivos que se pueden comunicar entre sí, a través de un medio en particular.

Conjunto de computadores, equipos de comunicaciones y otros dispositivos que se pueden comunicar entre sí, a través de un medio en particular. Que es una red? Conjunto de computadores, equipos de comunicaciones y otros dispositivos que se pueden comunicar entre sí, a través de un medio en particular. Cuantos tipos de redes hay? Red de área personal,

Más detalles

Introducción HPC. Curso: Modelización y simulación matemática de sistemas. Esteban E. Mocskos (emocskos@dc.uba.ar) Escuela Complutense Latinoamericana

Introducción HPC. Curso: Modelización y simulación matemática de sistemas. Esteban E. Mocskos (emocskos@dc.uba.ar) Escuela Complutense Latinoamericana Curso: Modelización y simulación matemática de sistemas Metodología para su implementación computacional Introducción HPC Esteban E. Mocskos (emocskos@dc.uba.ar) Facultad de Ciencias Exactas y Naturales,

Más detalles

Plataformas paralelas

Plataformas paralelas Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados

Más detalles

Windows 2000 Server. Manual de Windows 2000 Server

Windows 2000 Server. Manual de Windows 2000 Server Windows 2000 Server Proyecto Huascarán - Ministerio de Educación Dirección de Informática y Telecomunicaciones Área de Informática y Redes Diseño y Elaboración: Carlos A. Anchante Ch. Windows 2000 Server

Más detalles

Que es el CopV? Todo esto y mucho más es posible si utiliza nuestro sistema CopV en la red de su empresa o negocio!!

Que es el CopV? Todo esto y mucho más es posible si utiliza nuestro sistema CopV en la red de su empresa o negocio!! Que es el CopV? El CopV es un software de monitoreo en Redes producido por nuestra empresa, usted puede monitorear desde cualquier PC las actividades de todas las demás computadoras de la red de su empresa

Más detalles

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)?

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)? De qué se compone el Terminal? El dispositivo NComputing tiene un chip propietario, una placa de red, una memoria caché para el vídeo y una memoria flash para el firmware (El setup inicial, se conoce como

Más detalles

General Parallel File System

General Parallel File System General Parallel File System Introducción GPFS fue desarrollado por IBM, es un sistema que permite a los usuarios compartir el acceso a datos que están dispersos en múltiples nodos; permite interacción

Más detalles

Características del software

Características del software Características del software Descripción general de Fierro Fierro resuelve la operatoria diaria y la problemática de librerías y editoriales. Fierro fue gestado por gente que conoce el mercado del libro,

Más detalles

Facultad de Ingeniería

Facultad de Ingeniería Redes de Datos Facultad de Ingeniería Capítulo 1. Conceptos Básicos 1.1 Panorama General 1.2 Usos y aplicaciones 1.3 Topologías 1.4 Evolución de las Redes de Datos Redes de Datos 1 Capítulo 1 1.1 Conceptos

Más detalles

Introducción. Trabajo Práctico de TAI 2 - PCI Express Página 1

Introducción. Trabajo Práctico de TAI 2 - PCI Express Página 1 Introducción El Bus PCI ha sido utilizado ampliamente utilizado por mas de una década y aun se seguirá utilizando por lo menos un poco mas. Sin embargo, dado el gran avance tecnológico, tanto los procesadores

Más detalles

CONCEPTOS GENERALES SOBRE REDES LAN 1.- INTRODUCCIÓN A REDES LAN. 2.- REDES ETHERENT.

CONCEPTOS GENERALES SOBRE REDES LAN 1.- INTRODUCCIÓN A REDES LAN. 2.- REDES ETHERENT. CONCEPTOS GENERALES SOBRE REDES LAN 1.- INTRODUCCIÓN A REDES LAN. 2.- REDES ETHERENT. 1.- INTRODUCIÓN A REDES LAN (REDES DE AREA LOCAL). CONCEPTOS GENERALES SOBRE REDES LAN 1.- INTRODUCIÓN A REDES LAN

Más detalles

UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE

UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE AÑO: 2010 Qué es un servidor Blade? Blade Server es una arquitectura que ha conseguido integrar en

Más detalles

TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2

TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2 TABLA DE CONTENIDO: TABLA DE CONTENIDO: 1 DIMENSIONAMIENTO DE SERVIDORES GALEÓN 2 Introducción: 2 infraestructura Galeón: 3 Alta disponibilidad y balanceo de cargas 3 Servidores Galeón 5 Esquema de funcionamiento

Más detalles

ENCUENTA - CONTABILIDAD Net. Definiciones generales

ENCUENTA - CONTABILIDAD Net. Definiciones generales ENCUENTA - CONTABILIDAD Net Definiciones generales 2013 ENCUENTA - CONTABILIDAD Net Definiciones generales Contenido 1 GENERALIDADES... 3 2 DISTRIBUCIÓN GENERAL DE LOS ELEMENTOS DEL SISTEMA... 3 3 REQUERIMIENTOS...

Más detalles

INGENIERÍA CIVIL I NFORMÁTICA II PROF. ING. CESAR TAMARIZ FIGUEROA

INGENIERÍA CIVIL I NFORMÁTICA II PROF. ING. CESAR TAMARIZ FIGUEROA INGENIERÍA CIVIL I NFORMÁTICA II PROF. ING. CESAR TAMARIZ FIGUEROA SEGUNDA UNIDAD REDES DE COMPUTADORA DEFINICIÓN: Se puede definir una red de computadora como un sistema de comunicación que conecta ordenadores

Más detalles

server iseries Fernando Violante (fviolant@uy.ibm.com) Mauricio Silva (msilva@uy.ibm.com)

server iseries Fernando Violante (fviolant@uy.ibm.com) Mauricio Silva (msilva@uy.ibm.com) IBM server iseries Fernando Violante (fviolant@uy.ibm.com) Mauricio Silva (msilva@uy.ibm.com) Agenda Arquitectura del servidor iseries: Conceptos del sistema Arquitectura del servidor iseries Evolución

Más detalles

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters Jorge Figueroa Canales. jfigueroac@uxmcc2.iimas.unam.mx Maestría en Ciencia e Ingeniería de la Computación. Universidad

Más detalles

UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I. Licda. Consuelo Eleticia Sandoval

UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I. Licda. Consuelo Eleticia Sandoval UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I Licda. Consuelo Eleticia Sandoval OBJETIVO: ANALIZAR LAS VENTAJAS Y DESVENTAJAS DE LAS REDES DE COMPUTADORAS. Que es una red de computadoras?

Más detalles

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX En este manual se presenta el proceso de configuración de una Maquina Virtual en VirtualBox, que será utilizada para instalar un Servidor

Más detalles

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez Supercómputo Oscar Rafael García Regis Enrique Cruz Martínez 2003-I Oscar Rafael García Regis Laboratorio de Dinámica No Lineal Facultad de Ciencias, UNAM Enrique Cruz Martínez Dirección General de Servicios

Más detalles

CAPITULO III PROPUESTA DE DISEÑO

CAPITULO III PROPUESTA DE DISEÑO CAPITULO III PROPUESTA DE DISEÑO 116 3.1 Introducción. En este capítulo se presenta la descripción de las etapas funcionales requeridas para la puesta en funcionamiento del laboratorio de VoIP propuesto.

Más detalles

WINDOWS 2008 5: TERMINAL SERVER

WINDOWS 2008 5: TERMINAL SERVER WINDOWS 2008 5: TERMINAL SERVER 1.- INTRODUCCION: Terminal Server proporciona una interfaz de usuario gráfica de Windows a equipos remotos a través de conexiones en una red local o a través de Internet.

Más detalles

GUÍA DE ACCESO EXTERNO A LA PLATAFORMA ORFEO SGD ORFEO VERSION 3.9.7

GUÍA DE ACCESO EXTERNO A LA PLATAFORMA ORFEO SGD ORFEO VERSION 3.9.7 GUÍA DE ACCESO EXTERNO A LA PLATAFORMA ORFEO SGD ORFEO VERSION 3.9.7 Contenido INTRODUCCIÓN... 3 1 OBJETIVO... 3 2 REQUERIMIENTOS Y RECOMENDACIONES... 3 2.1 CARACTERÍSTICAS MÍNIMAS DEL EQUIPO DE CÓMPUTO...

Más detalles

13º Unidad Didáctica. RAID (Redundant Array of Independent Disks) Eduard Lara

13º Unidad Didáctica. RAID (Redundant Array of Independent Disks) Eduard Lara 13º Unidad Didáctica RAID (Redundant Array of Independent Disks) Eduard Lara 1 RAID: INTRODUCCIÓN Sistema de almacenamiento que usa múltiples discos duros entre los que distribuye o replica los datos.

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones TEMA 3 Tecnologías Soporte tolerante a fallos -Curso 2010 Redes de Altas Prestaciones - Indice Conceptos Topología en Alta Disponibilidad Tecnologías disponibles Tecnología

Más detalles

Arquitectura Oracle Database 11g en Windows. Un Informe Ejecutivo de Oracle Julio de 2007

Arquitectura Oracle Database 11g en Windows. Un Informe Ejecutivo de Oracle Julio de 2007 Arquitectura Oracle Database 11g en Windows Un Informe Ejecutivo de Oracle Julio de 2007 Información General... Introducción... Arquitectura de la Base de Datos Oracle en Windows... Modelos de threads...

Más detalles

Herramienta para la construcción de un cluster y la distribución de carga entre los nodos

Herramienta para la construcción de un cluster y la distribución de carga entre los nodos Herramienta para la construcción de un cluster y la distribución de carga entre los nodos Rubén A. González García 1, Gabriel Gerónimo Castillo 2 1 Universidad Juárez Autónoma de Tabasco, Av. Universidad

Más detalles

EMC SCALEIO SAN de servidor convergente definida por software

EMC SCALEIO SAN de servidor convergente definida por software EMC SCALEIO SAN de servidor convergente definida por software ASPECTOS FUNDAMENTALES Solo para software Arquitectura convergente de capa simple Escalabilidad lineal Rendimiento y capacidad según demanda

Más detalles

Version 3. Capítulo 9. Fundamentos de hardware avanzado para servidores

Version 3. Capítulo 9. Fundamentos de hardware avanzado para servidores Capítulo 9 Fundamentos de hardware avanzado para servidores Servidores para redes Un servidor es un computador en una red que es compartido por múltiples usuarios. El término servidor se refiere al hardware

Más detalles

PARTICIONES Y FORMATOS

PARTICIONES Y FORMATOS PARTICIONES Y FORMATOS 1. Función de un disco duro Un disco duro es un dispositivo que permite el almacenamiento y recuperación de grandes cantidades de información. Los discos duros forman el principal

Más detalles

PLATAFORMA CLÚSTER BASADA EN CENTOS

PLATAFORMA CLÚSTER BASADA EN CENTOS PLATAFORMA CLÚSTER BASADA EN CENTOS Área de conocimiento: Redes y Telecomunicaciones Raúl Hernández Palacios, Felipe de Jesús Núñez Cárdenas, Javier Hervert Hernández, Miriam De la Cruz Bautista. Área

Más detalles

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SUPERCÓMPUTO FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC ( ) APOBL

Más detalles

UAEM 2015, Estado de México

UAEM 2015, Estado de México CONSTRUCCIÓN DE CLUSTERS Fernando Robles Morales Ins/tuto Nacional de Medicina Genómica Enrique Cruz Mar

Más detalles

SILABO. Universidad Nacional de Ingeniería. CURSO : Conectividad y Cableado Estructurado DURACIÓN : 24 horas CÓDIGO : CONCE

SILABO. Universidad Nacional de Ingeniería. CURSO : Conectividad y Cableado Estructurado DURACIÓN : 24 horas CÓDIGO : CONCE SILABO CURSO : Conectividad y Cableado Estructurado DURACIÓN : 24 horas CÓDIGO : CONCE SUMILLA : Conectividad- Cableado Estructurado._ Es un curso teórico y práctico que permite al participante alcanzar

Más detalles

How to #1: Instalacion de CentOS 6.5 Servidor

How to #1: Instalacion de CentOS 6.5 Servidor Instituto Tecnológico de Las Américas (ITLA) Sistema Operativos 3 Luis Enmanuel Carpio Domínguez Matrícula: 2012-1206 How to #1: Instalacion de CentOS 6.5 Servidor CentOS 6 CentOS 6 es una distribución

Más detalles

Eagle e Center. Tel 57 1 6064173 Bogotá Colombia. estadístico que genera reportes gráficos y consolidados de esta información.

Eagle e Center. Tel 57 1 6064173 Bogotá Colombia. estadístico que genera reportes gráficos y consolidados de esta información. El valor de la información, definiendo información como los datos procesados bajo parámetros útiles, es determinante en los mercados actuales, donde las decisiones basadas en hechos y datos garantizan

Más detalles

Sistema de Captura Electrónica

Sistema de Captura Electrónica Sistema de Captura Electrónica Instructivo de Instalación y Configuración de Lote Server a PC Versión del Documento v2.01 INDICE INDICE... 2 Consideraciones generales de las aplicaciones... 4 Especificaciones

Más detalles

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es)

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es) Microsoft HPC V 1.0 José M. Cámara (checam@ubu.es) Introducción Microsoft HPC (High Performance Computing) es la solución de Microsoft a la computación de alto rendimiento. Está enfocado principalmente

Más detalles