Taller de Sistemas Computacionales. Introducción. Mauricio Solar. HPC en el día a día. HPC en el día a día. HPC en el día a día ÍNDICE

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Taller de Sistemas Computacionales. Introducción. Mauricio Solar. HPC en el día a día. HPC en el día a día. HPC en el día a día ÍNDICE"

Transcripción

1 ÍNDICE Taller de Sistemas Computacionales Introducción Mauricio Solar 2010 HPC? Computación Paralela y Distribuida Speedup y Ley de Amdahl Computadores Paralelos (Mem. Compartida, Mem. Distribuida) Clasificación de Flynn (SISD, SIMD, MIMD) Clusters Programación Paralela Balance de Carga HPC: High Performance Computing HPC en el día a día Definición de HPC: Por lo menos 10 veces más poder computacional que el disponible en un computador de escritorio Una definición que cambia con el tiempo. El rendimiento de HPC se incrementa por un factor de 10 cada 3 años. Los HPC de ayer son los computadores poderosos de hoy y las estaciones de trabajo de mañana. Una empresa se adjudica un gran contrato de distribución de un supermercado a nivel nacional. Cómo planificaría las rutas? Si se tiene una enorme BD con detalles de clientes. Cómo orienta la campaña de marketing para un producto nuevo? Si tiene que diseñar un nuevo barco/avión/auto. Cómo se prueba sin hacer un prototipo? Cómo verifica potenciales fallas fatales? Las compañías aéreas eligen las rutas de sus viajes dependiendo del tiempo. Cómo se puede predecir el tiempo? HPC en el día a día HPC en el día a día Una empresa se adjudica un gran contrato de distribución de un supermercado a nivel nacional. Cómo planificaría las rutas? Si se tiene una enorme BD con detalles de clientes. Cómo orienta la campaña de marketing para un producto nuevo? Si tiene que diseñar un nuevo barco/avión/auto. Cómo se prueba sin hacer un prototipo? Cómo verifica potenciales fallas fatales? Las compañías aéreas eligen las rutas de sus viajes dependiendo del tiempo. Cómo se puede predecir el tiempo? Posible Respuesta: Modelando o simulando con HPC Porqué usar simulación? Cuando el problema es demasiado: Complejo Grande / chico Caro Peligroso para hacerlo de otra forma. 1

2 Demasiado complejo Demasiado grande Modelamiento de la combustión Muchas variables Proceso muy rápido Muy grande La atmósfera se modela dividiéndola en celdas 3D. El cálculo de cada celda se repite muchas veces para modelar el paso del tiempo. Ejemplo: Toda la atmósfera en celdas de tamaño de 1milla 1milla 1milla a una altura de 10 millas (10 celdas de alto) son celdas. Si cada cálculo requiere 200 Flops. Un paso del tiempo, requiere Flops. Predecir próximos 7 días con un intervalo de 1min, un computador de 1 GFlops, tomaría 10 6 sec (sobre los 10 días). Obtener cálculo en 5 min, requiere un computador con 3.4 TFlops. Demasiado grande Demasiado chico Astrofísica: Modelando movimiento de cuerpos astronómicos Cada cuerpo es atraído hacia cada uno de los otros cuerpos por fuerzas gravitacionales. El movimiento de cada cuerpo se predice calculando la fuerza total sobre cada cuerpo. Con N cuerpos, se debe calcular N-1 fuerzas, o aproximadamente N 2 cálculos (Nlog 2 N para un algoritmo aproximado eficiente). Después de determinar las nuevas posiciones de los cuerpos, se repite el cálculo. Una galaxia puede contener, estrellas. Incluso, si cada cálculo se pudiese computar en 1 µsec (ultra optimista), una única iteración tomaría 10 9 años usando un algoritmo N 2 y casi un año para una única iteración usando un algoritmo aproximado eficiente Nlog 2 N. Diseño de drogas Demasiado caro Demasiado peligroso Producción y exploración de Petróleo Tolerancia a fallas en aeronáutica Procesamiento de Datos sísmicos (gran volumen y caros de obtener) Ayuda a identificar potenciales reservas de hidrocarbono Objetivo: Mejorar la precisión de encontrar esas reservas. Reducir la cantidad de pruebas de taladro (1/6 de las pruebas encuentra petróleo a US$20 cada una). 2

3 Qué esperamos? HPC: máquina del tiempo Desde hace muchos años ha dominado el modelo esperar : Las máquinas de escritorio han ido mejorando tan rápidamente que todo lo que hay que hacer es esperar hasta el modelo adecuado el próximo año (o década) Permite a algunos hacer ahora lo que el resto hará mas tarde : Hacer simulaciones ahora en vez de esperar 10 años Hacer simulaciones ciento de veces mas rápido Etc. Todo puede usarse como ventaja competitiva posibilidades sólo limitadas por la imaginación. HPC- solución de alto costo? HPC - resumen Computación Distribuida (CD): Existe una infraestructura ampliamente difundida de sistemas cliente-servidor que puede usarse como recursos de CD. Estos recursos están típicamente subutilizados (< 20%): Sólo se usan desde 9AM-17PM Usos livianos: word, mails, browsers Estaciones de trabajo mas poderosas que lo necesario: Las empresas tienen un gran recurso computacional pero el código más complejo/grande que pueden correr no requiere mas que un computador de escritorio. El Poder de los Computadores en Red: Representan un equipamiento significativo para HPC Los sectores de la ciencia, industria y negocios tienen un potencial significativo para aplicaciones HPC. El uso de HPC puede cambiar la forma de operar de estos sectores. El apetito por más poder computacional de los usuarios parece insaciable!! Cómo satisfacer a bajo costo esta demanda? Computación Paralela Computación Paralela Uso de más de un computador, o un computador con más de un procesador, para resolver un problema Motivos: Usualmente computación más rápida una idea muy simple n computadores operando simultáneamente pueden conseguir un resultado n veces más rápido pero se verá que no es n veces más rápido por diversas razones. Background Los computadores paralelos con más de un procesador y su programación programación paralela han estado presentes desde hace más de 50 años!! 3

4 Notación p = número de procesadores o procesos n = número de datos (entrada) S(p) = Factor Speedup Tiempo de ejecución usando un único procesador Tiempo de ejecución usando un multiprocesador con p procesadores donde T s es el tiempo de ejecución en un único procesador y T p es el tiempo de ejecución en un multiprocesador S(p) entrega el incremento en la velocidad usando un multiprocesador S(p) = T s Eficiencia = S p T p p Costo = p T p Se debe usar el mejor algoritmo secuencial. El algoritmo en la implementación paralela puede (y usualmente es) diferente. Factor Speedup Puede usarse en términos de pasos computacionales: S(p) = Número de pasos computacionales usando un único procesador Número de pasos computacionales paralelo con p procesadores Puede también extenderse la complejidad en tiempo a computaciones paralelas. Máximo Speedup Máximo speedup es usualmente p con p procesadores (Lineal). Es posible obtener speedup superlineal (mayor que p), pero usualmente existe una razón bien específica, tal como: Memoria extra en el sistema multiprocesador Algoritmo no-determinístico Ley de Amdahl máximo speedup Ley de Amdahl El factor speedup está dado por: S(p) = t s ft s +(1-f) t s /p = p 1+(p-1) f Conocida como Ley de Amdahl. 4

5 Ley de Amdahl Ley de Amdahl f = fracción del problema que es inherentemente secuencial (1 f) = fracción que es paralela Tiempo ParaleloT p : Speedup con p procesadores: T p = f + ( 1 f ) S p p 1 = 1 f f + p Límite superior del speedup (p = ) 1 S p = 1 f f + Ejemplo: p f = 2% S = 1 / 0.02 = 50 Converge a 0 S 1 = f Speedup v/s Número de procesadores Speedup serie/paralelo Serial Paralelo Incluso con un número infinito de procesadores, el máximo speedup está limitado a 1/f. Ejemplo: Con sólo un 5% de computación serial, el máximo speedup es 20, independiente del número de procesadores. Procesadores Speedup Speedup serie/paralelo Speedup superlineal - Búsqueda Buscando en cada subespacio secuencialmente: Serial Paralelo Procesadores Speedup 5

6 Speedup superlineal - Búsqueda Speedup superlineal - Búsqueda Buscando en los subespacios en paralelo: El speedup está dado por: S(p) = (x t s/p)+ t t Speedup superlineal - Búsqueda COMPUTACIÓN PARALELA Y DISTRIBUIDA Peor caso en búsqueda secuencial es cuando la solución se encuentra en el último subespacio. Entonces la versión paralela ofrece el mayor beneficio, i.e.: S(p) = ((p-1)/p) t s+ t t La peor situación para la versión paralela, es que la solución se encuentre en el primer subespacio de búsqueda, i.e.: S(p) = t t = 1 cuando tiende a cero Speedup: va a depender de cual es el subespacio en el cual se encuentra la solución, pero puede ser extremadamente grande! Varios procesadores interconectados trabajando concurrentemente P4 P5 P3 RED DE INTERCONEXIÓN P2 P1.... Pn CONNECTION MACHINE (CM) INTERNET: Conecta todos los computadores del mundo TIPOS DE FRAMEWORKS DE MULTIPROCESAMIENTO PARALELO DISTRIBUIDO ASPECTOS TECNICOS COMPUTADORES PARALELOS (USUALMENTE) TRABAJAN EN SINCRONÍA, COMPARTEN MEMORIA EN FORMA EXTENSA Y POSEEN MECANISMO DE COMUNICACIÓN MUY RÁPIDO ENTRE ELLOS. COMPUTADORES DISTRIBUIDOS SON MAS INDEPENDIENTES, LA COMUNICACIÓN ES MENOS FRECUENTE Y MENOS SÍNCRONA, Y LA COOPERACIÓN ES LIMITADA. PROPÓSITOS COMPUTADORES PARALELOS COPERARAN PARA RESOLVER MAS EFICIENTEMENTE (POSIBLEMENTE) PROBLEMAS MAS DIFICILES COMPUTADORES DISTRIBUIDOS TIENEN OBJETIVOS INDIVIDUALES Y ACTIVIDADES PRIVADAS. A VECES REQUIERE COMUNICACIÓN CON OTROS. (E.G. OPERACIONES DE BASE DE DATOS DISTRIBUIDOS). COMPUTADORES PARALELOS: COOPERACIÓN EN UN SENTIDO POSITIVO COMPUTADORES DISTRIBUIDOS: COOPERACIÓN EN UN SENTIDO NEGATIVO,, SÓLO CUANDO ES NECESARIO PARA SISTEMAS PARALELOS ESTAMOS INTERESADOS EN RESOLVER CUALQUIER PROBLEMA EN PARALELO PARA SISTEMAS DISTRIBUIDOS ESTAMOS INTERESADOS EN RESOLVER EN PARALELO SÓLO PROBLEMAS PARTICULARES, TÍPICOS EJEMPLOS SON: SERVICIOS DE COMUNICACIÓN RUTEO DIFUSIÓN (BROADCASTING) MANTENCIÓN DE LA ESTRUCTURA DE CONTROL CONSTRUCCIÓN DE ÁRBOLES DE COBERTURA ACTUALIZACIÓN TOPOLÓGICA ELECCIÓN DE LIDER ACTIVIDADES DE CONTROL DE RECURSOS BALANCEAMIENTO DE CARGA ADMINISTRACIÓN DE DIRECTORIOS GLOBALES 6

7 Tipos de Computadores Paralelos Principalmente de dos tipos: Multiprocesador con Memoria Compartida (MC) Multicomputador con Memoria Distribuida Computadores convencionales Consiste de un procesador ejecutando un programa almacenado en una memoria (principal): Instrucciones hacia el procesador Datos (desde/hacia) el procesador Cada posición de memoria principal se localiza en su dirección, que comienza desde cero hasta 2 b -1 donde b es la cantidad de bits en la dirección. Memoria Compartida (MC) Una forma natural de extender el modelo de procesador único tener múltiples procesadores conectados a múltiples módulos de memoria, tal que cada procesador pueda acceder a cualquier módulo de memoria llamada configuración de memoria compartida: Un espacio de memoria Memoria Compartida Una vista simplista de una pequeño multiprocesador con MC: Ejemplos: Pentium Dual Pentium Quad Memoria Compartida Multiprocesador Pentium Quad con MC: Multicomputadores con Paso de Mensajes Computadores conectados a través de una Red de Interconexión 7

8 Redes de Interconexión (RI) RI: Arreglo 2D (grilla) Con enlaces directos entre los computadores: Conexiones exhaustivas Grillas 2D y 3D Hipercubos ARREGLO CONECTADO EN GRILLA Enlace Procesador/Computador Uso de Switch: Crossbar Árboles Redes de Interconexión Multipasos grado = 4 (N) diámetro = 2N Existen también arreglos 3D usados en HPC (High Performance Computing) RI: Hipercubo 3D RI: Hipercubo 4D grado = 4 (log 2 N) grado = 4 (log 2 N) diámetro = diámetro = N = 2 3 PROCESADORES N = 2 4 PROCESADORES RI: Hipercubo 4D Switch: Crossbar grado = 4 (log 2 N) diámetro = N = 2 4 PROCESADORES Fueron populares en 1980 ya no. 8

9 Switch: Árbol Switch: Redes de Interconexión Multipasos Ejemplo: Red Omega 2 2 elementos de switch Redes de Interconexión: Enlaces Distancia Media Puertas/nodo Distancia Media Densidad de Número de Tolerancia a Fallas r (estructura de Normalizada Mensajes enlaces (fallas de enlaces) dn d enlaces) (L) (buses) d = 1 N 1 o N d proc s a distancia d puertas por bus r: diámetro Max(mindist n i, n j) buses) (P) (estructura de Red totalmente 1 N - 1 N N (N²- N) N - 1 interconectada Anillo (N+1)/4 2 (N+1)/2 (N+1)/4 N 2 (bidireccional) Ciclos 0.8 log 2N log 2 N D/4 3N 2 conectados en 2 Cubo Alpha k log 2 N+0.2 D(W - 1) D(W - 1)L 2L ND D(W - 1) - 1 k 0.3 to 0.5 D(W - 1) 2 Hyper 1.1 log 2N log 2 N L 2(N - 1) 3 árboles 2 MTS log 2 N log 2 N log 2 N Bus global único 1 N N N 1 N - 1 Memoria Compartida Distribuida Haciendo que la memoria principal de un grupo de computadores interconectados se vea como una memoria única con un espacio único de direcciones: Entonces se puede usar las técnicas de programación compartida. k log 2 N+0.2 W W log 2 N +0.2W W DW D 1 W - 1 Hipercubo con bus expandido k 0.3 to 0.5 k 0.3 to 0.5 Beta k log 2N+0.25 D(W- 1) D(W - 1)L L W D D(W - 1) - 1 k 0.30 to 0.37 Hipercubo 2(D+1) D 2 D D2 D-1 D Clasificación de Flynn Flynn (1966) creó una clasificación de computadores basada en el flujo de datos y de instrucciones: SISD: Single Instruction stream - Single Data stream En un computador con procesador único, se genera un flujo único de instrucciones desde el programa. Las instrucciones operan sobre un flujo único de datos. Clasificación de Flynn - MIMD MIMD: Multiple Instruction stream - Multiple Data stream En un sistema multiprocesador de propósito general -- cada procesador tiene un programa separado, y se genera un flujo de instrucciones para cada programa. Cada instrucción opera sobre diferentes datos. Los modelos de memoria compartida y de paso de mensajes pertenecen a esta clasificación. 9

10 Clasificación de Flynn - MIMD Clasificación de Flynn - SIMD MPMD: Multiple Program - Multiple Data Dentro de la clasificación MIMD, cada procesador tiene su propio programa. SIMD: Single Instruction stream - Multiple Data stream Un computador diseñado especialmente para ejecutar un flujo único de instrucciones de un programa único, pero operando sobre múltiples flujos de datos. Las instrucciones del programa son difundidas hacia mas de un procesador. Cada procesador ejecuta la misma instrucción sincrónicamente, pero usando datos diferentes. Desarrollado porque existe un número importante de aplicaciones que opera sobre arreglos de datos. Clasificación de Flynn - SIMD Clasificación de Flynn - SIMD SPMD: Single Program - Multiple Data Se escribe un programa fuente único y cada procesador ejecuta su copia personal del programa, aunque independientemente y no en forma síncrona. El programa fuente se puede construir de tal forma que parte del código es ejecutada por ciertos computadores y no otros dependiendo del identificador del computador. Computadores en Redes Plataforma Multicomputador: computadores en redes Una red de computadores se transformó en una alternativa muy atractiva a los supercomputadores supercaros y a los sistemas de computación paralela para HPC en los años 90 Algunos proyectos importantes: Proyecto de Berkeley NOW (Network of Workstations) Proyecto de la NASA Beowulf Ahora se usa el término cluster computing Clusters: ventajas claves Estaciones de trabajo de alto rendimiento y PCs disponibles a bajo costo. Últimos procesadores pueden ser fácilmente incorporados al sistema en la medida que estén disponibles. El software existente puede ser usado o modificado. 10

11 Clusters: Herramientas de Sw Clusters Beowulf Programación Paralela con Paso de Mensajes: Parallel Virtual Machine (PVM): desarrollado a finales de los 80 s. Se hizo muy popular. Message-Passing Interface (MPI): estándar definido en los 90s. Ambos proveen un conjunto de bibliotecas a nivel de usuario para intercambio de mensajes. Se usa con lenguajes de programación regulares (C, C++, ). Un grupo de computadores normales interconectados consiguen un alto rendimiento a bajo costo. Típicamente se usa interconexión normal -- Ethernet de alta velocidad, y Linux. El nombre Beowulf viene del proyecto del Centro Goddard Space Flight de la NASA Clusters: Interconexiones Clusters dedicado con master Originalmente Fast Ethernet sobre clusters de bajo costo Ethernet Gigabit un camino fácil de actualización Rendimiento mas Especializado/Alto Myrinet 2.4 Gbits/sec desventaja: proveedor único clan SCI (Scalable Coherent Interface) QNet Infiniband - puede ser importante en la medida que las interfaces de Infiniband (120/96 gbps) estarán integradas en las próximas generaciones de PCs. Clusters dedicado con master Clusters TOP ONE (2007) BlueGene/L (2007): Primer lugar TOP Teraflops GB de memoria Procesadores PowerPC MHz (2.8 Gflops) procesadores Middleware (MOSIX, OpenMOSIX, Condor, OpenSSI, etc.) Es un Sw que actúa entre el SO y las apps para proveer: una interfaz única de acceso al sistema, SSI (Single System Image), que genera la sensación de que utiliza un único computador muy potente; herramientas para optimizar y mantener el sistema: migraciónde procesos, checkpoint-restart, balanceo de carga, tolerancia a fallas, etc. escalabilidad. 11

12 Cluster de consolas de videojuegos Institute of Graphics and Parallel Processing 8 x Sony PlayStation2 100Mbit Ethernet Trabajos realizados: Renderización en tiempo real Examinación avanzada de técnicas de hardware (pixel/vertex shaders). Renderizacion de terrenos para investigaciones Cluster de consolas de videojuegos 8 x Sony PlayStation3 Muy conveniente por el precio de la consola y su alto rendimiento. (raw computing power per dollar) Cluster de consolas de videojuegos 12 x Xbox Microsoft SO: Xebian Linux V1.0.2 Sw del cluster: OpenMosix Benchmarking: LinPack Tipos de cluster Alta Disponibilidad (HA) Principal funcionalidad: controlar y actuar para que un servicio se encuentre activo durante el máximo periodo de tiempo posible, intentando brindar servicios 24 x 7. Ej.: un cluster de servidores web. Problemas que solucionan: Sistemas de información redundante Sistemas tolerantes a fallas Balanceo de carga entre varios servidores Balanceo de conexiones entre varios servidores Técnicas: se basa en excluir del sistema los puntos críticos que pueden producir una falla y la pérdida de disponibilidad de un servicio. Suelen implementar desde enlaces de red redundantes hasta disponer de N máquinas para hacer una misma tarea de manera que si caen N-1 máquinas, el servicio permanece activo con o sin pérdida de rendimiento dependiendo de la implementación. Tipos de cluster Alto Desempeño (HP) Creados para compartir el recurso más valioso de un computador, el tiempo de proceso. Se utilizan en ambientes científicos o en grandes empresas para la compilación o renderización. Cualquier operación que necesita ejecutar millones de operaciones puede usar un cluster de alto rendimiento, siempre que se encuentre un algoritmo que sea paralelizable. Problemas que solucionan: Problemas matemáticos relativos a problemas científicos. Renderizaciones de gráficos. Compilación de programas. Compresión de cualquier tipo. Descifrado de códigos. Rendimiento del SO (incluyendo en él, el rendimiento de los recursos de cada nodo). Tipos de Cluster Alta Confiabilidad (HR) Se basan en no solamente conceder servicios de alta disponibilidad, sino en ofrecer un entorno de sistema altamente confiable. Esto implica muchísima sobrecarga en el sistema por lo que son también clusters muy acoplados. En los clusters de alta disponibilidad una vez que el servicio ha caído éste se relanza, y no existe manera de conservar el estado del servidor anterior, más que mediante puntos de chequeos o checkpoints. Por otro lado, los clusters confiables tratan de mantener el estado de las aplicaciones, no simplemente de utilizar el último checkpoint del sistema y relanzar el servicio. Deberían ser una mezcla de clusters de alto rendimiento y alta disponibilidad mejorados. Actualmente, son los más difíciles de implementar, debido a limitaciones de latencia de la red, así como a la complejidad de mantener un estado global consistente. 12

13 Clusters o Supercomputadores? Cluster o Grid? Un Supercomputador es un cluster. MareNostrum (España): Procesadores duales IBM PowerPC 970FX de 64 bits a 2.2 GHz, CPUs en total. Los nodos se comunican a través de una red Myrinet de gran ancho de banda y baja latencia (latencias de 3 µsec y BW de 2Gbps o incluso 10Gbps). Tiene 20 Terabytes de memoria central y 280 Terabytes en disco. Utiliza SO Suse Linux. Capacidad de cálculo: 62,63 Teraflops. Ocupa una instalación de 160 m² y pesa kg. Grid Computing abarca grandes espacios geográficos, utilizando conexión de internet generalmente. Los cluster ocupan espacios reducidos, como salones o pisos en un edificio, utilizando redes locales de alta velocidad. En un Grid no es posible confiar en la disponibilidad de todos los nodos. En un Grid existen altos niveles de latencia de comunicación entre los nodos. Los Grids son conocidos también como Cuasi-Supercomputadores. Ejemplos: BOINC (Berkeley Open Infrastructure for Network Computing) (PS3) Programación Paralela Programación Paralela Un programa típico puede dividirse en dos partes: Secciones inherentemente secuenciales: no puede correr en paralelo. Secciones potencialmente paralelas. Trivial DESCOMPOSICIÓN Funcional (depenidente del problema) Datos Método para dividir la parte potencialmente paralela es crítico Las partes inherentemente secuenciales deben ser pequeñas Pipeline (vector) Balanceado Desbalanceado Objetivo: Mantener a todos los procesadores (igualmente) ocupados. Minimizar las comunicaciones inter-procesadores. Geométrico SSD Task Farm (Tareas Independientes) Programación Paralela Programación Paralela Dividiendo el Problema: Descomposición geométrica: Predicción del tiempo. Cuántos Procesadores? eso depende Dividir el problema tiene un costo el paralelismo involucra comunicación entre los procesadores pero el costo puede recuperarse si se obtiene suficiente ganancia en tiempo al hacer el trabajo en paralelo. cada procesador hace independientemente su propio trabajo: cálculos. Granularidad: Tamaño de las regiones de trabajo Demasiado grande: poco paralelismo Demasiado chico: comunicación 13

14 Programación Paralela Programación Paralela Balance de Carga Soledad y hacinamiento Intentar dividir el problema en forma pareja, tal que cada procesador tenga el mismo monto de trabajo. El tiempo total de ejecución limitado por la tarea más grande. Algunos problemas están naturalmente balanceados: Simulación del tiempo Intento de balancear la carga por: Una estrategia de descomposición adecuada Eligiendo un tamaño de grano adecuado Problema Desbalanceado: Procesamiento de Imágenes Descomposición geométrica entrega carga desbalanceada Solución: dividir la imagen en varias partes y usar Task farm Programación Paralela Programando Multiprocesadores con MC Task Farm: Esquema Master-Slave Tarea del Master: mantener lista de los pedazos de problema no resueltos Procesadores Slaves: solicita un pedazo de problema, lo resuelve y retorna el resultado. Threads (Hebras, hilos) el programador descompone el programa en secuencias paralelas individuales, (hebras), cada una habilitada para acceder variables declaradas fuera de la hebra. Ejemplo de Pthreads Un lenguaje de programación secuencial con directivas de compilación de preprocesamiento para declarar variables compartidas y especificar paralelismo. Ejemplo de OpenMP estándar de la industria requiere compilador OpenMP Un lenguaje de programación secuencial con sintaxis agregada para declarar variables compartidas y especificar paralelismo. Ejemplo UPC (Unified Parallel C) requiere un compilador UPC Un lenguaje de programación paralela con sintaxis para expresar paralelismo, en el cual el compilador crea el código ejecutable apropiado para cada procesador (no es común). Un lenguaje de programación secuencial que solicita a un compilador paralelo generar el código ejecutable paralelo tampoco es muy común. (mas adelante explicaremos el tema multihebras) Taller de Sistemas Computacionales Introducción Mauricio Solar

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas Clusters en Linux * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net * FACYT-UC Computación ** IUPSM Sistemas www.vaslibre.org.ve Agenda Motivación Definiciones Cluster Beowulf

Más detalles

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe Linux Week PUCP 2006 Computación de Alto Rendimiento en Linux Richard Miguel San Martín rmiguel@senamhi.gob.pe Agenda Computación Científica Computación Paralela High Performance Computing Grid Computing

Más detalles

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores CLUSTERS Antonio Antiñolo Navas Antonio.Antinolo@uclm.es 1 Arquitectura e Ingeniería de Computadores Profesor: Serafín Benito Santos ESI-UCLM Índice 1. Introducción. 2. Clasificación. 3. Ventajas y Desventajas.

Más detalles

Introducción. TEMA 3: Clusters de Computadores Personales

Introducción. TEMA 3: Clusters de Computadores Personales Introducción TEMA 3: Clusters de Computadores Personales Laboratorio de Arquitecturas Avanzadas de Computadores 5º de Ingeniería Superior de Informática 2008/09 Alberto Sánchez alberto.sanchez@urjc.es

Más detalles

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas Unidad I Fundamentos de Sistemas Distribuidos M.C. Juan Carlos Olivares Rojas Temario 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos 1.3. Ventajas y desventajas

Más detalles

Arquitectura: Clusters

Arquitectura: Clusters Universidad Simón Bolívar Arquitectura: Clusters Integrantes: - Aquilino Pinto - Alejandra Preciado Definición Conjuntos o conglomerados de computadoras construidos mediante la utilización de hardware

Más detalles

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013 FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación

Más detalles

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing Cluster Computing 1 Concepto de Cluster Cluster: Sistema de computación basado en hardware estándar conectado por una red dedicada (de altas prestaciones) dedicado a un propósito específico. [Baker00]

Más detalles

SISTEMAS OPERATIVOS II

SISTEMAS OPERATIVOS II SISTEMAS OPERATIVOS II INSTITUTO TECNOLÓGICO DE MORELIA Unidad I: Sistemas Operativos en ambientes Distribuidos Departamento de Sistemas y Computación M.C. Benito Sánchez Raya sanchezraya@hotmail.com Disponible

Más detalles

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción: arquitecturas

Más detalles

Computación de Alta Performance Curso 2008 CLUSTERS

Computación de Alta Performance Curso 2008 CLUSTERS Computación de Alta Performance Curso 2008 Basado en el artículo Cluster computing at a glance. M. Baker, R. Buyya, Software Practice and Experience 29 (6), pp. 551-576, 1999. CÓMO MEJORAR LA PERFORMANCE?

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Módulo: Modelos de programación para Big Data

Módulo: Modelos de programación para Big Data Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data

Más detalles

Plataformas paralelas

Plataformas paralelas Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados

Más detalles

4. Programación Paralela

4. Programación Paralela 4. Programación Paralela La necesidad que surge para resolver problemas que requieren tiempo elevado de cómputo origina lo que hoy se conoce como computación paralela. Mediante el uso concurrente de varios

Más detalles

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Copyright 2006 Linalco Consulting, S.L. Linalco Consulting, S.L., autor de este documento,

Más detalles

Ingeniero en Informática

Ingeniero en Informática UNIVERSIDAD DE ALMERÍA Ingeniero en Informática CLÚSTER DE ALTO RENDIMIENTO EN UN CLOUD: EJEMPLO DE APLICACIÓN EN CRIPTOANÁLISIS DE FUNCIONES HASH Autor Directores ÍNDICE 1. Introducción 2. Elastic Cluster

Más detalles

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico.

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico. Desarrollo de un cluster computacional para la compilación de algoritmos en paralelo en el Observatorio Astronómico. John Jairo Parra Pérez Resumen Este artículo muestra cómo funciona la supercomputación

Más detalles

Resolución de problemas en paralelo

Resolución de problemas en paralelo Resolución de problemas en paralelo Algoritmos Paralelos Tema 1. Introducción a la computación paralela (segunda parte) Vicente Cerverón Universitat de València Resolución de problemas en paralelo Descomposición

Más detalles

Instituto Universitario de Tecnología Antonio José de Sucre Extensión Barquisimeto

Instituto Universitario de Tecnología Antonio José de Sucre Extensión Barquisimeto Instituto Universitario de Tecnología Antonio José de Sucre Extensión Barquisimeto Robert Aguilar CI.21725458 TELEPROCESOS INTRODUCCION Voy a realizar el presente resumen sobre dos temas de la informática

Más detalles

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez Supercómputo Oscar Rafael García Regis Enrique Cruz Martínez 2003-I Oscar Rafael García Regis Laboratorio de Dinámica No Lineal Facultad de Ciencias, UNAM Enrique Cruz Martínez Dirección General de Servicios

Más detalles

Mosix2: La versión grid de Mosix para Linux-2.6

Mosix2: La versión grid de Mosix para Linux-2.6 Mosix2: La versión grid de Mosix para Linux-2.6 Juan P. Caballero Lionel Gutierrez Javier Echaiz Jorge R. Ardenghi Laboratorio de Investigación de Sistemas Distribuidos (LISiDi) Departamento de Ciencias

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

Modelo de aplicaciones CUDA

Modelo de aplicaciones CUDA Modelo de aplicaciones CUDA Utilización de GPGPUs: las placas gráficas se utilizan en el contexto de una CPU: host (CPU) + uno o varios device o GPUs Procesadores masivamente paralelos equipados con muchas

Más detalles

Clusters de Alto Rendimiento

Clusters de Alto Rendimiento Clusters de Alto Rendimiento Contenido: M. en A. Iliana Gómez Zúñiga iliana.gomez@redudg.udg.mx Expositor: L.S.I. Virgilio Cervantes Pérez virgilio@cencar.udg.mx Diseño: Lic. Genaro Ramirez genaro.ramirez@redudg.udg.mx

Más detalles

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Linux s Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Eterna necesidad Desde la invención de las computadoras el hombre constantemente ha mantenido

Más detalles

UNIVERSIDAD VERACRUZANA. Tesina. Licenciado en Sistemas Computacionales Administrativos

UNIVERSIDAD VERACRUZANA. Tesina. Licenciado en Sistemas Computacionales Administrativos UNIVERSIDAD VERACRUZANA Facultad de Contaduría y Administración Propuesta de implementación de un clúster de altas prestaciones Tesina Para obtener el Título de: Licenciado en Sistemas Computacionales

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

QUÉ ES UNA RED DE ÁREA METROPOLITANA?

QUÉ ES UNA RED DE ÁREA METROPOLITANA? QUÉ ES UNA RED DE ÁREA METROPOLITANA? Una red de área metropolitana es una red de alta velocidad (banda ancha) que dando cobertura en un área geográfica extensa, proporciona capacidad de integración de

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 3 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD3 El bien a adquirir se describe a continuación y consiste en cúmulo de supercómputo

Más detalles

Alta Disponibilidad. SISTEMAS DISTRIBUIDOS Departamento de Sistemas e Informática Escuela de Ingeniería Electrónica FCEIA

Alta Disponibilidad. SISTEMAS DISTRIBUIDOS Departamento de Sistemas e Informática Escuela de Ingeniería Electrónica FCEIA Alta Disponibilidad SISTEMAS DISTRIBUIDOS Departamento de Sistemas e Informática Escuela de Ingeniería Electrónica FCEIA Temario Disponibilidad y performance Tolerancia a Fallas y Alta Disponibilidad Soluciones

Más detalles

Alcance y descripción del servicio Backup Servidor IPLAN

Alcance y descripción del servicio Backup Servidor IPLAN Alcance y descripción del servicio Backup Servidor IPLAN 1. Introducción Backup Servidor IPLAN le permite al Cliente realizar resguardos periódicos de la información de su Servidor Virtual y/o Servidor

Más detalles

GRID COMPUTING MALLA DE ORDENADORES

GRID COMPUTING MALLA DE ORDENADORES GRID COMPUTING MALLA DE ORDENADORES Introducción Concepto Compartir potencia computacional; Aprovechamiento de ciclos de procesamiento; El Grid Computing se enmarca dentro de la tecnología de computación

Más detalles

Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final. Julio 2008

Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final. Julio 2008 Facultad de Ingeniería Universidad de la República Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final Julio 2008 Estudiantes: Santiago Iturriaga, Paulo

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software.

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. . TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. Índice 1 INTRODUCCIÓN 2 2 CARACTERÍSTICAS 2 2.1 Características del cliente...2 2.2 Características

Más detalles

Computacion de Alto Performance

Computacion de Alto Performance Computacion de Alto Performance Abraham Zamudio Abraham Zamudio Computacion de Alto Performance 1/47 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH

Más detalles

Introducción al Cluster

Introducción al Cluster Centro de Teleinformática y Producción Industrial - Regional Cauca Pág. 1 de 11 Nombre del Introducción al Cluster Historial Fecha Razón de cambio (s) Autor(es) 26 / 10 /2011 Documento Inicial, Primer

Más detalles

RAID nivel 5 (RAID 5): En RAID 5 los bloques de datos que se almacenan en la unidad, y la información redundante de dichos bloques se distribuye cíclicamente entre todos los discos que forman el volumen

Más detalles

TIPOS DE PROCESAMIENTOS

TIPOS DE PROCESAMIENTOS TIPOS DE PROCESAMIENTOS El desempeño de un computador puede tener diferentes medidas de elección para diferentes usuarios. Para un usuario individual que está ejecutando un único programa, la computadora

Más detalles

Cloud Computing and Big Data. Relación con Computación Paralela. Mauricio Solar. Qué es Big Data? ÍNDICE. Qué es Big Data?

Cloud Computing and Big Data. Relación con Computación Paralela. Mauricio Solar. Qué es Big Data? ÍNDICE. Qué es Big Data? Qué es Big Data? Cloud Computing and Big Data Relación con Computación Paralela Mauricio Solar 2015 ÍNDICE Qué es Big Data? Big Data?? HPC? Computación Paralela y Distribuida Speedup y Ley de Amdahl Computadores

Más detalles

GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC

GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC GAC-USC: Departamento de Electrónica y Computación http://www.ac.usc.es GAC-UDC: Departamento de Electrónica y Sistemas http://gac.des.udc.es

Más detalles

Arquitecturas de Hardware en Sistemas Distribuidos.

Arquitecturas de Hardware en Sistemas Distribuidos. Universidad Simón Bolívar Departamento de Computación y T. I Sistemas de Operación II CI-4821 Arquitecturas de Hardware en Sistemas Distribuidos. Prof. Yudith Cardinale Abril Julio 2012 Definición de Sistemas

Más detalles

Alcance y descripción del servicio. Backup Servidor IPLAN. IPLAN iplan.com.ar NSS S.A. Reconquista 865 C1003ABQ Buenos Aires Argentina

Alcance y descripción del servicio. Backup Servidor IPLAN. IPLAN iplan.com.ar NSS S.A. Reconquista 865 C1003ABQ Buenos Aires Argentina Alcance y descripción del servicio Backup Servidor IPLAN 1. Introducción Backup Servidor IPLAN le permite al Cliente realizar resguardos periódicos de la información de su Servidor Virtual y/o Servidor

Más detalles

Tendencias en sistemas de comunicación de altas prestaciones:

Tendencias en sistemas de comunicación de altas prestaciones: Conectan nodos en diferentes niveles del sistema (chip, tarjeta, chásis, armario,...). Desarrollado por diseñadores de arquitecturas de altas prestaciones. Comunicar computadores, clasificación redes computación:

Más detalles

Dentro de los arreglos de almacenamiento. iscsi de la serie

Dentro de los arreglos de almacenamiento. iscsi de la serie Dentro de los arreglos de almacenamiento iscsi de la serie PS de EqualLogic Basada en una arquitectura patentada de almacenamiento del mismo nivel, la serie PS EqualLogic de arreglos de almacenamiento

Más detalles

DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC

DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC José Luis Guisado Lizar http://cum.unex.es/profes/profes/jlguisado Grupo de Evolución Artificial (GEA) Universidad de Extremadura

Más detalles

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s!

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s! ATLANTE infraestructura G o b i e r n o! de d supercomputación e C a n a r i a s! v forma parte de la estrategia del Gobierno de Canarias de poner a disposición de investigadores y empresas canarios infraestructuras

Más detalles

Análisis de desempeño y modelo de escalabilidad para SGP

Análisis de desempeño y modelo de escalabilidad para SGP Análisis de desempeño y modelo de escalabilidad para SGP Este documento es producto de la experiencia de Analítica en pruebas de stress sobre el software SGP. Estas pruebas se realizaron sobre un proceso

Más detalles

Computación de alta disponibilidad

Computación de alta disponibilidad Computación de alta disponibilidad Universidad Tecnológica Nacional - FRBA Autor: Gustavo Nudelman Necesidad de un sistema HA Causas de downtime. (estudio realizado por IEEE) 10% 5% 13% Hardware 1% 1%

Más detalles

Apéndice A: Características de las Redes Locales

Apéndice A: Características de las Redes Locales Apéndice A: Características de las Redes Locales En este apéndice se muestran las principales características de hardware y software de las redes locales y de las computadoras que las componen y que se

Más detalles

Introducción a la Computación Distribuida y Condor

Introducción a la Computación Distribuida y Condor Introducción a la Computación E-Ciencia Supercomputación Cluster Tecnologías de Cluster y su Clasificación Servicios Importantes para Clusters Administración y Planificación de Tareas en Clusters Condor

Más detalles

RAID. Los detalles de las características segunda y tercera, cambian según los distintos niveles RAID. RAID 0 no soporta la tercera característica.

RAID. Los detalles de las características segunda y tercera, cambian según los distintos niveles RAID. RAID 0 no soporta la tercera característica. RAID Como se dijo anteriormente, el ritmo de mejora de prestaciones en memoria secundaria ha sido considerablemente menor que en procesadores y en memoria principal. Esta desigualdad ha hecho, quizás,

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 2 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD 2 El bien a adquirir se describe a continuación y consiste de un cúmulo de

Más detalles

Capítulo 5: Comparación con ScaLAPACK

Capítulo 5: Comparación con ScaLAPACK Capítulo 5: Comparación con ScaLAPACK En este capítulo se presentan dos aspectos importantes en cuanto a la validez y utilización de los aportes de esta tesis: 1) Aplicación de los principios de paralelización

Más detalles

Sistemas Operativos Avanzados. Trabajo Práctico Final

Sistemas Operativos Avanzados. Trabajo Práctico Final Ingeniería en Sistemas de Información Trabajo Práctico Final Procesamiento paralelo: qué tener en cuenta para aprovecharlo. Conceptos y alternativas en Linux. Smerling, Leonardo Tschanz, Raúl Año: 2001

Más detalles

Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma

Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma INFORMÁTICA Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma Informática Teoría Unidad 5 Prof. Ing Ezequiel Benavente Ciclo lectivo 2014 Definición Redes de Computadoras:

Más detalles

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES VOLUMEN II: ESPECIFICACIONES TÉCNICAS ADQUISICIÓN DE UNA INFRAESTRUCTURA DE COMPUTACIÓN

Más detalles

15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores.

15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. UNIDAD TEMÁTICA 5: MULTIPROCESADORES. 15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. 15-1 TEMA 15: ARQUITECTURA DE LOS MULTIPROCESADORES.

Más detalles

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO TUTORIAL : COMPUTACIÓN de ALTO DESEMPEÑO SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Computadores paralelos

Más detalles

computadoras que tienen este servicio instalado se pueden publicar páginas web tanto local como remotamente.

computadoras que tienen este servicio instalado se pueden publicar páginas web tanto local como remotamente. Investigar Qué es un IIS? Internet Information Services o IIS es un servidor web y un conjunto de servicios para el sistema operativo Microsoft Windows. Originalmente era parte del Option Pack para Windows

Más detalles

Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala

Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala 1. Introducción Los procesadores con dos núcleos existen actualmente, y los procesadores de cuatro están insertándose en el mercado lentamente,

Más detalles

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Qué es una Red? Es un grupo de computadores conectados mediante cables o algún otro medio. Para que? compartir recursos. software

Más detalles

Introducción a Sistemas de Información Geográfica (Resumen)

Introducción a Sistemas de Información Geográfica (Resumen) Introducción a Sistemas de Información Geográfica (Resumen) Existen términos que creemos exclusivos de los sistemas GIS, pero que anteriormente han sido acuñados por grandes personajes, como es el caso

Más detalles

Clustering y Grid Computing

Clustering y Grid Computing Clustering y Grid Computing Sánchez Enriquez, Heider Ysaías heider_esencia@hotmail.com Domingo, 30 de septiembre de 2007 Escuela de Informática Universidad Nacional de Trujillo SISTEMAS DISTRIBUIDOS 1

Más detalles

Estrategia de cluster: Alta disponibilidad y capacidad de escalación con hardware estándar en la industria.

Estrategia de cluster: Alta disponibilidad y capacidad de escalación con hardware estándar en la industria. Windows NT Sistema operativo de servidor Server Estrategia de cluster: Alta disponibilidad y capacidad de escalación con hardware estándar en la industria. Bajado desde www.softdownload.com.ar Resumen

Más detalles

UAEM 2015, Estado de México

UAEM 2015, Estado de México CONSTRUCCIÓN DE CLUSTERS Fernando Robles Morales Ins/tuto Nacional de Medicina Genómica Enrique Cruz Mar

Más detalles

Daniel Adolfo Diaz Giraldo Anderson Alberto Ochoa Estupiñán

Daniel Adolfo Diaz Giraldo Anderson Alberto Ochoa Estupiñán Implementación de un prototipo de plataforma tecnológica tipo cluster, para la computación de algoritmos realizados en mpi presentados en el campus universitario. Daniel Adolfo Diaz Giraldo Anderson Alberto

Más detalles

SESIÓN 8 TIPOS DE SISTEMAS DE MANUFACTURA

SESIÓN 8 TIPOS DE SISTEMAS DE MANUFACTURA SESIÓN 8 TIPOS DE SISTEMAS DE MANUFACTURA CONTENIDO Términos en manufactura Clasificación de sistemas de manufactura Beneficios y ejemplos de sistemas de manufactura Los componentes de un sistema de manufactura

Más detalles

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos.

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos. RAIDS MODO LINEAL Es un tipo de raid que muestra lógicamente un disco pero se compone de 2 o más discos. Solamente llena el disco 0 y cuando este está lleno sigue con el disco 1 y así sucesivamente. Este

Más detalles

Arquitecturas GPU v. 2013

Arquitecturas GPU v. 2013 v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,

Más detalles

ADMINISTRACIÓN DE SERVIDORES

ADMINISTRACIÓN DE SERVIDORES FUNDAMENTACIÓN DEL CURSO ADMINISTRACIÓN DE SERVIDORES Duración: 40 horas La labor del administrador de servidores en el mundo laboral actual, exige un alto nivel de conocimientos técnicos que deben ser

Más detalles

UNIVERSIDAD DE LOS ANDES NÚCLEO UNIVERSITARIO RAFAEL RANGEL

UNIVERSIDAD DE LOS ANDES NÚCLEO UNIVERSITARIO RAFAEL RANGEL UNIVERSIDAD DE LOS ANDES NÚCLEO UNIVERSITARIO RAFAEL RANGEL CARRERAS: Comunicación Social - Contaduría Publica Administración -Educación MATERIA: Int. a la Computación - Computación I-Introducción a la

Más detalles

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1.

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1. Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda 1. Resumen Se presentan los resultados del diseño y la construcción

Más detalles

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca A.Zamudio M. Milla Contenido de la Presentación 1 Radio Observatorio de Jicamarca 2 3 4 5 6 Índice

Más detalles

PLATAFORMA CLÚSTER BASADA EN CENTOS

PLATAFORMA CLÚSTER BASADA EN CENTOS PLATAFORMA CLÚSTER BASADA EN CENTOS Área de conocimiento: Redes y Telecomunicaciones Raúl Hernández Palacios, Felipe de Jesús Núñez Cárdenas, Javier Hervert Hernández, Miriam De la Cruz Bautista. Área

Más detalles

Unidad 1: Conceptos generales de Sistemas Operativos.

Unidad 1: Conceptos generales de Sistemas Operativos. Unidad 1: Conceptos generales de Sistemas Operativos. Tema 3: Estructura del sistema operativo. 3.1 Componentes del sistema. 3.2 Servicios del sistema operativo. 3.3 Llamadas al sistema. 3.4 Programas

Más detalles

5a. Academia de Actualización

5a. Academia de Actualización 5a. Academia de Actualización Profesional 2008 Virtualización: implicancias en la tolerancia a fallos y planes de contingencia PwC Agenda / Contenido Motivación Introducción Principales usos de las tecnologías

Más detalles

SISTEMAS OPERATIVOS AVANZADOS

SISTEMAS OPERATIVOS AVANZADOS SISTEMAS OPERATIVOS AVANZADOS TEMA 5 CLAVE: MIS 204 PROFESOR: M.C. ALEJA DRO GUTIÉRREZ DÍAZ 5. SISTEMAS OPERATIVOS AVANZADOS 5.1 Características de los sistemas 5.2 Sistemas operativos multiprocesador

Más detalles

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación REDES INFORMÁTICAS REDES LOCALES INDICE 1. Las redes informáticas 1.1 Clasificación de redes. Red igualitaria. Red cliente-servidor 2. Las redes de área local 2.1 Estructura de una LAN 2.2 Protocolos de

Más detalles

Soluciones para entornos HPC

Soluciones para entornos HPC Dr.. IT Manager / Project Leader @ CETA-Ciemat abelfrancisco.paz@ciemat.es V Jornadas de Supercomputación y Avances en Tecnología INDICE 1 2 3 4 HPC Qué? Cómo?..................... Computación (GPGPU,

Más detalles

Definición. Utilidad. Utilidad de una red 10/04/2015. Dos o más computadoras conectadas entre sí.

Definición. Utilidad. Utilidad de una red 10/04/2015. Dos o más computadoras conectadas entre sí. Definición Dos o más computadoras conectadas entre sí. Utilidad de una red Compartir recursos Archivos Impresoras Servicios Mensajería electrónica Correo Teleconferencia Salas de charla La administración

Más detalles

SISTEMAS DE MULTIPROCESAMIENTO

SISTEMAS DE MULTIPROCESAMIENTO SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función

Más detalles

Computación Científica en Paralelo

Computación Científica en Paralelo Computación Científica en Paralelo Luis Miguel de la Cruz luiggix@gmail.com www.dci.dgsca.unam.mx/lmcs Unidad de Investigación en Cómputo Aplicado DGSCA-UNAM. Posgrado en Ciencia e Ingeniería de la Computación

Más detalles

COMPUTACIÓN DE ALTA PERFORMANCE

COMPUTACIÓN DE ALTA PERFORMANCE COMPUTACIÓN DE ALTA PERFORMANCE 2011 1 TOLERANCIA A FALLOS COMPUTACIÓN DE ALTA PERFORMANCE Curso 2011 Sergio Nesmachnow (sergion@fing.edu.uy) Santiago Iturriaga (siturria@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy)

Más detalles

BACKUP SERVIDOR IPLAN INTRODUCCIÓN AL SERVICIO

BACKUP SERVIDOR IPLAN INTRODUCCIÓN AL SERVICIO BACKUP SERVIDOR IPLAN INTRODUCCIÓN AL SERVICIO 1. INTRODUCCIÓN El presente instructivo tiene como objetivo introducir brevemente el servicio Backup Servidor IPLAN, a fin de que puedas conocer las caracteristicas

Más detalles

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) Carlos Bernal, Ana Silva, Marceliano Marrón, Juan Antonio Ortega, Claudio J. Arjona Área de HPC Centro Informático Científico de

Más detalles

REDES DE TELECOMUNICACIONES

REDES DE TELECOMUNICACIONES REDES La teledistribución es un conjunto de equipo que interactúan entre sí enviando señales (datos, voz, imágenes y texto) al receptor destinatario conectados a una red. Ese sistema de compartir información

Más detalles

Las computadoras analógicas no computan directamente, sino que perciben constantemente valores, señales o magnitudes físicas variadas.

Las computadoras analógicas no computan directamente, sino que perciben constantemente valores, señales o magnitudes físicas variadas. Clasificación de las computadoras Análoga: Las computadoras analógicas no computan directamente, sino que perciben constantemente valores, señales o magnitudes físicas variadas. Características de las

Más detalles

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación.

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. TEMA: Las Redes NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. QUÉ ES UNA RED? Una red informática es un conjunto de dispositivos interconectados

Más detalles

Tema 1. Introducción a los Sistemas Paralelos y a la Programación Paralela

Tema 1. Introducción a los Sistemas Paralelos y a la Programación Paralela Tema 1. Introducción a los Sistemas Paralelos y a la Programación Paralela Programación Paralela Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Contenidos 1. Motivación y aspectos de

Más detalles

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY EL CLUSTER

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET LA PLATAFORMA GOOGLE CLOUD PLATFORM. GOOGLE APP ENGINE Pedro A. Castillo Valdivieso Universidad de Granada http://bit.ly/unia2014

Más detalles

Sistemas Escalables. Club de Investigación Tecnológica San José, Costa Rica. Theodore Hope

Sistemas Escalables. Club de Investigación Tecnológica San José, Costa Rica. Theodore Hope Sistemas Escalables Club de Investigación Tecnológica San José, Costa Rica Theodore Hope 22 de septiembre de 2009 Qué es? Escalabilidad La capacidad de dar servicio, con la misma calidad y con más recursos,

Más detalles

La Arquitectura de las Máquinas Virtuales.

La Arquitectura de las Máquinas Virtuales. La Arquitectura de las Máquinas Virtuales. La virtualización se ha convertido en una importante herramienta en el diseño de sistemas de computación, las máquinas virtuales (VMs) son usadas en varias subdiciplinas,

Más detalles

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES.

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. Autores: Abelardo Rodríguez L.*, Manuel Pérez M. **, Alberto González T. **, José Hernández

Más detalles

LAB2. Jerarquía de Memoria. Laboratorio de Arquitectura e Ingeniería de Computadores. Valentin Puente. Revisión 1.1: 02-Marzo-2010

LAB2. Jerarquía de Memoria. Laboratorio de Arquitectura e Ingeniería de Computadores. Valentin Puente. Revisión 1.1: 02-Marzo-2010 Jerarquía de Memoria Laboratorio de Arquitectura e Ingeniería de Computadores Valentin Puente 10 Revisión 1.1: 02-Marzo-2010 1 INTRODUCCIÓN Y OBJETIVOS El objetivo fundamental de esta práctica es poner

Más detalles