Programación en Memoria Compartida: OpenMP
|
|
|
- José Carlos Vega Gutiérrez
- hace 7 años
- Vistas:
Transcripción
1 Programación en Memoria Compartida: OpenMP Javier Cuenca Departamento de Ingeniería y Tecnología de Computadores Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo
2 Tipos de paralelismo Varios paradigmas de programación paralela: Diferencia de esfuerzo en escribir programas. Algunos lenguajes menos esfuerzo para el programador. Otros requieren menos trabajo pero generan un código menos eficiente. Un determinado paradigma puede ser más eficiente que otro al programar sobre determinadas arquitecturas paralelas. Distintas aplicaciones tienen diferentes tipos de paralelismo.
3 Implícito: Un lenguaje de programación secuencial y el compilador inserta las instrucciones necesarias para ejecutar el programa en un sistema paralelo. El compilador tiene que analizar y comprender las dependencias para asegurar un mapeo eficiente. Paralelismo implícito/explícito Explícito : El algoritmo paralelo debe especificar explícitamente cómo cooperan los procesadores. La tarea del compilador es sencilla. La del programador es bastante difícil.
4 Paso de mensajes/espacio de direcciones compartido Espacio de direcciones compartido: El programa se ve como una colección de procesos accediendo a una zona central de variables compartidas. Más de un proceso podría acceder a la misma zona compartida en el mismo instante produciendo resultados impredecibles. Los lenguajes proporcionan primitivas para resolver estos problemas de exclusión mutua.
5 Paso de mensajes/espacio de direcciones compartido Paso de mensajes: El programa es una colección de procesos con variables locales privadas y la posibilidad de enviar y recibir datos mediante paso de mensajes. Los computadores de espacio de direcciones compartido también se pueden programar usando el paradigma de paso de mensajes.
6 Paso de mensajes/espacio de direcciones compartido Los lenguajes de programación para memoria compartida o paso de mensajes son normalmente lenguajes secuenciales aumentados mediante un conjunto de llamadas de sistema especiales. Las llamadas producen primitivas de bajo nivel para el paso de mensajes, sincronización de procesos, exclusión mutua, etc. El problema de estos lenguajes era la portabilidad entre arquitecturas. Librerías como PVM, MPI, OpenMP, con primitivas independientes del computador.
7 Paralelismo de datos/de control Paralelismo de control: Ejecución simultánea de cadenas de instrucciones diferentes. Las instrucciones se pueden aplicar sobre la misma cadena de datos aunque normalmente se aplican a cadenas de datos diferentes. Adecuados para MIMD ya que requiere múltiples cadenas de instrucciones.
8 Paralelismo de datos/de control Paralelismo de datos: Aplicaciones en las que los datos están sujetos a idéntico procesamiento. Apropiado para máquinas SIMD. También se pueden ejecutar en computadores MIMD. Se requiere sincronización global después de cada instrucción código ineficiente. Solución: relajar la ejecución síncrona de las instrucciones Modelo SPMD: cada procesador ejecuta el mismo programa asíncronamente, ES EL QUE USAREMOS. Lenguajes de paralelismo de datos ofrecen construcciones de alto nivel para compartir información y manejar concurrencia. Programas más fáciles de escribir y comprender. El código generado por estas construcciones no es tan eficiente como el obtenido usando primitivas de bajo nivel.
9 Espacio de direcciones compartido Primitivas para asignar variables compartidas. Existen dos tipos de variables: compartidas (shared) y locales (private) Primitivas para la exclusión mutua y sincronización. Una sección crítica contiene código que sólo puede ser ejecutado por un procesador en un momento determinado. Los lenguajes proporcionan llaves (locks) para ayudar al programador a cumplir la exclusión mutua en la ejecución de secciones críticas. Las primitivas de sincronización de barreras se usan cuando los procesos necesitan sincronizarse. Cada proceso espera en la barrera a los otros procesos, y después de la sincronización todos los procesos continúan con su ejecución.
10 Espacio de direcciones compartido Primitivas para la creación de procesos Mediante una llamada al sistema que crea procesos idénticos al padre. Estos procesos comparten las variables declaradas "compartidas" por los procesos padre y las llaves declaradas e inicializadas por los procesos padre. En la mayoría de computadores de espacio de direcciones compartido, esta operación se llama fork. Cuando todos los subprocesos terminan, se mezclan usando otra primitiva, normalmente llamada join. Al principio de la ejecución, podemos tener un solo proceso (proceso maestro). Cuando el maestro necesita hacer una tarea en paralelo, crea procesos esclavos. Cuando la tarea se completa, los esclavos terminan y devuelven el control al maestro.
11 Compiladores paralelizantes Programa secuencial. El compilador se encarga de paralelizarlo. Normalmente en sistemas de memoria compartida. Paralelizan bucles: dividen el trabajo en los bucles entre los distintos procesadores Si puede haber dependencia de datos no paraleliza: para i=1 to n a[i]=b[i]+a[i-1] finpara Se puede forzar la paralelización con opciones de compilación, o con directivas (OpenMP). Generan ficheros con información de bucles paralelizados y no paralelizados, y el motivo.
12 Nociones básicas de OpenMP Modelo de programación fork-join, con generación de múltiples threads. Inicialmente se ejecuta un thread hasta que aparece el primer constructor paralelo, se crean threads esclavos y el que los pone en marcha es el maestro. Al final del constructor se sincronizan los threads y continúa la ejecución el maestro.
13 Hello world #include <omp.h> ver codigo3-11.c int main() int iam =0, np = 1; #pragma omp parallel private(iam, np) #if defined (_OPENMP) np = omp_get_num_threads(); iam = omp_get_thread_num(); #endif printf( Hello from thread %d out of %d \n, iam, np); } }
14 Sistema de trabajo En el Laboratorio de Computación Científica cada alumno una cuenta mpp14-xx, NO se puede cambiar el password El acceso se hace a través de luna Conexión con: ssh -l usuario luna.inf.um.es (o desde windows, con putty o secure shell...) Desde luna se mandan trabajos al sistema de colas. Se puede consultar el manual del cluster en la página del grupo de investigación ( manuales) Se usa la cola batch, en la que están jupiter (mientras saturno no esté funcionando), marte y mercurio. Con OpenMP se puede trabajar en un único nodo.
15 Sistema de trabajo Para compilar tenemos ejemplos de compilación con gcc y con icc. Por defecto se usa gcc. Se usa un sistema de módulos para gestionar con qué entorno se está trabajando. Una vez compilado se ejecuta como cualquier otro programa. Cuántos threads se ponen en marcha?
16 Directivas #pragma omp nombre-directiva [cláusulas]
17 Constructor parallel #pragma omp parallel [cláusulas] bloque ver codigo3-12.c Se crea un grupo de threads. El que los pone en marcha actúa de maestro. Con cláusula if se evalúa su expresión y si da valor distinto de cero se crean los threads, si es cero se hace en secuencial. El número de threads a crear se obtiene por variables de entorno o llamadas a librería. Hay barrera implícita al final de la región. Cuando dentro de una región hay otro constructor paralelo (anidamiento), cada esclavo crearía otro grupo de threads esclavos de los que sería el maestro. Cláusulas (private, firstprivate, default, shared, copyin y reduction) para indicar la forma en que se accede a las variables.
18 Constructor for #pragma omp for [cláusulas] bucle for ver codigo3-13.c Las iteraciones se ejecutan en paralelo por threads que ya existen. La parte de inicialización del for debe ser una asignación. La parte de incremento debe ser una suma o resta. La parte de evaluación es la comparación de una variable entera sin signo con un valor, utilizando un comparador mayor o menor (puede incluir igual). Los valores que aparecen en las tres partes del for deben ser enteros. Hay barrera al final a no ser que se utilice la cláusula nowait. Hay una serie de cláusulas (private, firstprivate, lastprivate y reduction) para indicar la forma en que se accede a las variables.
19 Constructor for ejemplo_for.c #include <omp.h> int main() int iam =0, np = 1, i=0; #pragma omp parallel private(iam, np,i) #if defined (_OPENMP) np = omp_get_num_threads(); iam = omp_get_thread_num(); #endif printf("hello from thread %d out of %d\n",iam,np); #pragma omp for for(i=0;i<(np*2);i++) printf("thread %d, contador %d \n",iam,i); } } }
20 Constructor for Una cláusula schedule indica la forma como se dividen las iteraciones del for entre los threads: schedule(static,tamaño) las iteraciones se dividen según el tamaño, y la asignación se hace estáticamente a los threads. Si no se indica el tamaño se divide por igual entre los threads. schedule(dynamic,tamaño) las iteraciones se dividen según el tamaño y se asignan a los threads dinámicamente cuando van acabando su trabajo. schedule(guided,tamaño) las iteraciones se asignan dinámicamente a los threads pero con tamaños decrecientes. schedule(runtime) deja la decisión para el tiempo de ejecución, y se obtienen de la variable de entorno OMP_SCHEDULE. Se pueden hacer modificaciones en ejemplo_for.c
21 Constructor sections ver codigo3-14.c #pragma omp sections [cláusulas] [#pragma omp section] bloque [#pragma omp section bloque... ] } Cada sección se ejecuta por un thread. Hay barrera al final a no ser que se utilice la cláusula nowait. Hay una serie de cláusulas (private, firstprivate, lastprivate y reduction) para indicar la forma en que se accede a las variables.
22 Constructor sections #pragma omp parallel private(iam, np,i) #pragma omp sections #pragma omp section ejemplo_sections.c printf("soy el thread %d, en solitario en la seccion 1ª \n",iam); #pragma omp section printf("soy el thread %d, en solitario en la sección 2ª \n",iam); #pragma omp section printf("soy el thread %d, en solitario en la seccion 3ª \n",iam); }//sections }//parallel
23 Constructores combinados #pragma omp parallel for [cláusulas] bucle for ver codigo3-15.c Es forma abreviada de directiva parallel que tiene una única directiva for, y admite sus cláusulas menos la nowait. #pragma omp parallel sections [cláusulas] Es forma abreviada de directiva parallel que tiene una única directiva sections, y admite sus cláusulas menos la nowait.
24 Constructores de ejecución secuencial #pragma omp single [cláusulas] bloque El bloque se ejecuta por un único thread. No tiene por qué ser el maestro. Hay barrera al final a no ser que se utilice la cláusula nowait. #pragma omp master El bloque lo ejecuta el thread maestro. bloque No hay sincronización al entrar ni salir. #pragma omp ordered bloque El bloque se ejecuta en el orden en que se ejecutaría en secuencial.
25 Constructores de ejecución secuencial #pragma omp parallel private(iam, np,i) #pragma omp single ejemplo_single.c printf("soy el thread %d, actuando en solitario dentro del primer bloque\n",iam); sleep(1); } #pragma omp single printf("soy el thread %d, actuando en solitario dentro del segundo bloque \n",iam); sleep(1); } #pragma omp single printf("soy el thread %d, actuando en solitario dentro del tercer bloque \n",iam); sleep(1); } printf("soy el thread %d, fuera de los singles\n",iam); }//parallel
26 Constructores de ejecución secuencial #pragma omp parallel private(iam, np,i) #pragma omp master ejemplo_master.c printf("soy el thread %d, actuando en solitario dentro del primer bloque\n",iam); sleep(1); } #pragma omp master printf("soy el thread %d, actuando en solitario dentro del segundo bloque \n",iam); sleep(1); } #pragma omp master printf("soy el thread %d, actuando en solitario dentro del tercer bloque \n",iam); sleep(1); } printf("soy el thread %d, fuera de los singles\n",iam); }//parallel
27 Constructores de ejecución secuencial #pragma omp parallel private(iam, np,i) #pragma omp for ordered for(i=0;i<5;i++) ejemplo_ordered.c printf("\t\tsoy el thread %d, antes del ordered en la iteracion %d\n",iam,i); #pragma omp ordered printf("soy el thread %d, actuando en la iteracion %d\n",iam,i); } }//parallel sleep(1); }
28 Constructores de sincronización #pragma omp critical [nombre] bloque Asegura exclusión mutua en la ejecución del bloque. El nombre se puede usar para identificar secciones críticas distintas. #pragma omp barrier Sincroniza todos los threads en el equipo. ver codigo3-17.c #pragma omp atomic expresión La expresión debe ser x binop=exp, x++, ++x, x-- o --x, donde x es una expresión con valor escalar, y binop es un operador binario. Asegura la ejecución de la expresión de forma atómica.
29 Constructores de sincronización #pragma omp parallel private(iam, np,i) ejemplo_critical.c #pragma omp critical printf("soy el thread %d, al inicio de la seccion critica \n",iam); } sleep(1); printf("\t\tsoy el thread %d, al final de la seccion critica \n",iam); }//parallel
30 Constructores de sincronización #pragma omp parallel private(iam, np,i) ejemplo_barrier.c printf("soy el thread %d, antes del barrier \n",iam); #pragma omp barrier printf("\t\tsoy el thread %d, despues del barrier \n",iam); }//parallel
31 Constructores de manejo de variables #pragma omp flush [lista] Asegura que las variables que aparecen en la lista quedan actualizadas para todos los threads. Si no hay lista se actualizan todos los objetos compartidos. Se hace flush implícito al acabar barrier, al entrar o salir de critical u ordered, al salir de parallel, for, sections o single. #pragma omp threadprivate (lista) Usado para declarar variables privadas a los threads.
32 Constructores de manejo de variables #pragma omp parallel private(iam, np,i) #pragma omp master x=999; #pragma omp flush(x) printf("soy el thread %d, actualizando x=999 \n\n",iam); } ejemplo_flush.c printf("soy el thread %d, antes del flush, con x=%d \n",iam,x); while (x==0) #pragma omp flush(x) } printf("\t\tsoy el thread %d, despues del flush, con x=%d \n",iam,x); }//parallel
33 Cláusulas de alcance de datos private(lista) privadas a los threads, no se inicializan antes de entrar y no se guarda su valor al salir. firstprivate(lista) privadas a los threads, se inicializan al entrar con el valor que tuviera la variable correspondiente. lastprivate(lista) privadas a los threads, al salir quedan con el valor de la última iteración o sección. shared(lista) compartidas por todos los threads. default(shared none) indica cómo serán las variables por defecto. reduction(operador:lista) se obtienen por la aplicación del operador. copyin(lista) para asignar el valor de la variable en el master a variables locales a los threads.
34 int x=1234; Cláusulas de alcance de datos #pragma omp parallel private(iam, np,i,x) printf("soy el thread %d, antes de actualizar, con x=%d \n",iam,x); x=iam*1111; ejemplo_private.c printf("\t\tsoy el thread %d, despues de actualizar, con x=%d \n",iam,x); } printf("\n Despues de pragma parallel x=%d \n\n",x);
35 int x=1234; Cláusulas de alcance de datos #pragma omp parallel firstprivate(iam, np,i,x) printf("soy el thread %d, antes de actualizar, con x=%d \n",iam,x); x=iam*1111; ejemplo_firstprivate.c printf("\t\tsoy el thread %d, despues de actualizar, con x=%d \n",iam,x); } printf("\n Despues de pragma parallel x=%d \n\n",x);
36 int x=1234; Cláusulas de alcance de datos #pragma omp parallel private(iam, np,i,x) ejemplo_lastprivate.c printf("soy el thread %d, antes de actualizar, con x=%d \n",iam,x); #pragma omp for lastprivate(x) schedule(dynamic) for(i=0;i<11;i++) x=iam*i; printf("\tsoy el thread %d, actualizando en for, i=%d x= %d\n",iam,i,x); } printf("\t\tsoy el thread %d, despues de actualizar, con x=%d \n",iam,x); } printf("\n Despues de pragma parallel x=%d \n\n",x);
37 Cláusulas de alcance de datos int x=1000; int iam =0, np = 1, i=0,j=0; printf("\n Antes de pragma parallel x=%d \n\n",x); ejemplo_reduction.c #pragma omp parallel private(iam, np,i) reduction(+:x) printf("soy el thread %d, antes de actualizar, con x=%d \n",iam,x); x=iam*10; printf("\t\tsoy el thread %d, despues de actualizar, con x=%d \n",iam,x); }//parallel printf("\n Despues de pragma parallel x=%d \n\n",x);
38 int x; Cláusulas de alcance de datos #pragma omp threadprivate(x) int main() int iam =0, np = 1, i=0,j=0; x=9999; // lo ponemos en el master #pragma omp parallel private(iam, np,i,x) copyin(x) ejemplo_copying.c printf("soy el thread %d, antes de actualizar, con x=%d \n",iam,x); }//main x=1000+iam; printf("\t\tsoy el thread %d, despues de que el master actualice, con x=%d \n",iam,x); }//parallel printf("\n Despues de pragma parallel x=%d \n\n",x);
39 Funciones de librería Poner al principio: #include <omp.h> void omp_set_num_threads(int num_threads); Pone el número de threads a usar en la siguiente región paralela. int omp_get_num_threads(void); Obtiene el número de threads que se están usando en una región paralela. int omp_get_max_threads(void); Obtiene la máxima cantidad posible de threads. int omp_get_thread_num(void); Devuelve el número del thread. int omp_get_num_procs(void); Devuelve el máximo número de procesadores que se pueden asignar al programa. int omp_in_parallel(void); Devuelve valor distinto de cero si se ejecuta dentro de una región paralela.
40 Funciones de librería int omp_set_dynamic(void); Permite poner o quitar el que el número de threads se pueda ajustar dinámicamente en las regiones paralelas. int omp_get_dynamic(void); Devuelve un valor distinto de cero si está permitido el ajuste dinámico del número de threads. int omp_set_nested(void); Para permitir o desautorizar el paralelismo anidado. int omp_get_nested(void); Devuelve un valor distinto de cero si está permitido el paralelismo anidado.
41 Funciones de librería #pragma omp parallel private(iam, np,i) #if defined (_OPENMP) np = omp_get_num_threads(); iam = omp_get_thread_num(); #endif printf("hello from thread %d out of %d \n",iam,np); omp_set_nested(1); #pragma omp parallel private(iam, np,i) #if defined (_OPENMP) np = omp_get_num_threads(); iam = omp_get_thread_num(); #endif printf("\t\thello from thread %d out of %d \n",iam,np); }//parallel }//parallel ejemplo_nested.c
42 Funciones de librería void omp_init_lock(omp_lock_t *lock); Para inicializar una llave. Una llave se inicializa como no bloqueada. void omp_init_destroy(omp_lock_t *lock); Para destruir una llave. void omp_set_lock(omp_lock_t *lock); Para pedir una llave. void omp_unset_lock(omp_lock_t *lock); Para soltar una llave. int omp_test_lock(omp_lock_t *lock); Intenta pedir una llave pero no se bloquea.
43 Funciones de librería omp_init_lock(&lck); #pragma omp parallel shared(lck) private(id) id=omp_get_thread_num(); omp_set_lock(&lck); printf("my thread id is %d.\n",id); omp_unset_lock(&lck); ejemplo_lock.c while (! omp_test_lock(&lck)) skip(id); }//while work(id); //ahora tengo el lock, entonces hago el trabajo omp_unset_lock(&lck); }//parallel omp_destroy_lock(&lck);
44 Variables de entorno OMP_SCHEDULE indica el tipo de scheduling para for y parallel for. OMP_NUM_THREADS Pone el número de threads a usar, aunque se puede cambiar con la función de librería. OMP_DYNAMIC Autoriza o desautoriza el ajuste dinámico del número de threads. OMP_NESTED Autoriza o desautoriza el anidamiento. Por defecto no está autorizado.
45 Búsqueda en array #pragma omp parallel private(i, id, p, load, begin, end) p = omp_get_num_threads(); id = omp_get_thread_num(); load = N/p; begin = id*load; end = begin+load; for (i = begin; ((i<end) && keepon); i++) if (a[i] == x) qué hay mal en este código? keepon = 0; position = i; } #pragma omp flush(keepon) } }
46 Cálculo de integral main() ver codigo3-16.c double local, pi=0.0, w; long i; w = 1.0 / N; #pragma omp parallel private(i, local) #pragma omp single pi = 0.0; #pragma omp for reduction (+: pi) for (i = 0; i < N; i++) local = (i + 0.5)*w; pi = pi + 4.0/(1.0 + local*local); } }
47 Multiplicación matrizvector void mv(double *a, int fa,int ca,int lda,double *b,int fb,double *c,int fc) int i, j; double s; #pragma omp parallel #pragma omp for private(i,j,s) schedule(static,bloque) for (i = 0; i < fa; i++) s=0.; for(j=0;j<ca;j++) s+=a[i*lda+j]*b[j]; c[i]=s; } } }
48 Tareas en OpenMP 3.0 Cambiar OpenMP de thread-centric a task-centric. Para expresar paralelismo irregular y no estructurado Para hacer paralelismo anidado de tareas sin que conlleve un estricto paralelismo anidado de threads con sus consecuentes barriers implicitos que puedan ser innecesarios. Para paralelizar bucles while. Por ejemplo recorrido de una lista de punteros de longitud no conocida Tied task: ligada a un thread fijo que la ejecutará. Puede tener pausas o hacer otra cosa, pero ese thread acabará la tarea Untied task: a cualquier thread del team el scheduler le puede asignar una untied task que esté suspendida en ese momento
49 Constructor task #pragma omp task [cláusulas] bloque Cláusulas: if (scalar expression) untied default (shared none) private (list) firstprivate (list) shared (list)
50 Sincronización y finalización de tareas #pragma omp taskwait Tarea actual se suspende hasta finalización de sus tareas hijas Útil para sincronización de tareas de grano fino Un conjunto de tareas será forzada a completarse en alguno de estos casos: En una barrier implícita de threads En una barrier explícita de threads (#pragma omp barrier) En una barrier de tareas (#pragma omp taskwait)
51 Ejemplos básicos Comparar: mul-fil-omp.cpp mul-fil-sections.cpp mul-fil-tasks.cpp Comparar: quicksort-omp.cpp quicksort-tareas.cpp quicksort-tareas-critical.cpp
52 Ejemplo: recorrido de lista, secuencial... while(my_pointer) (void) do_independent_work (my_pointer); my_pointer = my_pointer->next ; } // End of while loop...
53 Ejemplo: recorrido de lista, paralelo my_pointer = listhead; #pragma omp parallel #pragma omp single nowait while(my_pointer) #pragma omp task firstprivate(my_pointer) (void) do_independent_work (my_pointer); } my_pointer = my_pointer->next ; } } // End of single - no implied barrier (nowait) } // End of parallel region - implied barrier
54 Ejemplo: Fibonacci secuencial recursivo Secuencia de Fibonacci: 1, 1, 2, 3, 5, 8, 13, long comp_fib_numbers(int n) // Basic algorithm: f(n) = f(n-1) + f(n-2) long fnm1, fnm2, fn; if ( n == 0 n == 1 ) return(n); fnm1 = comp_fib_numbers(n-1); fnm2 = comp_fib_numbers(n-2); fn = fnm1 + fnm2; return(fn); }
55 Ejemplo: Fibonacci paralelo long comp_fib_numbers(int n) long fnm1, fnm2, fn; if ( n == 0 n == 1 ) return(1); #pragma omp task shared(fnm1) fnm1 = comp_fib_numbers(n-1);} #pragma omp task shared(fnm2) fnm2 = comp_fib_numbers(n-2);} } #pragma omp taskwait fn = fnm1 + fnm2; return(fn);
56 Threads y tareas Por defecto: una tarea t está ligada a un thread h (tied task): El thread h ejecuta código de t desde principio al final La ejecución puede no ser contigua: En los task scheduling points el thread h puede dedicarse a realizar otra tarea Task scheduling points: Pragma task tareas anidadas Pragma taskwait Barreras explícitas o implícitas Finalización de tarea Valor de threadprivate variables pueden cambiar (por obra de otra tarea ejecutada por el thread h)
57 Threads y tareas Si la tarea t no está ligada a un thread h (untied task): El thread h inicia la ejecución del código de t Otro thread distinto puede continuar la ejecución de t en cualquier momento Las mismas restricciones con variables threadprivate que en tied task Evitar cualquier referencia ligada al identificador del thread
58 OpenMP version 4.0 La que tenemos en el laboratorio es la versión 3.0 Toda información sobre la versión 4.0, otras variables, funciones y pragmas, se puede consultar en el manual de OpenMP4.0
Programación en Memoria Compartida: OpenMP
Programación en Memoria Compartida: OpenMP Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Nociones básicas Modelo de programación
Programación de Memoria Compartida - OpenMP
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Programación de Memoria Compartida - OpenMP Contenido 1 Tipos de paralelismo 2 OpenMP Ejemplo básico Directivas
Programación con OpenMP
Curso de Promoción Educativa Programación en el Supercomputador Ben Arabi Programación con OpenMP Javier Cuenca Universidad de Murcia Indice de la sesión Introducción. Nociones básicas Ejemplo inicial
PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela
PROGRAMACIÓN PARALELA Modelos de programación paralela Paradigmas de programación paralela Tipos de paralelismo Paso de mensajes Paralelismo de datos Memoria compartida Paradigmas de programación paralela
METODOLOGÍA DE LA PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela
METODOLOGÍA DE LA PROGRAMACIÓN PARALELA Modelos de programación paralela Paradigmas de programación paralela Tipos de paralelismo Paso de mensajes Paralelismo de datos Memoria compartida Tipos de paralelismo
Programación Multihilo
Proyecto Universidad-Secundaria Incorporación de contenidos de programación paralela en la rama de tecnologías informáticas Facultad Informática, Universidad de Murcia e Instituto de Enseñanza Secundaria
Paralelización de Programas Secuenciales: OpenMP
Paralelización de Programas Secuenciales: OpenMP http://www.openmp.org Manuel Arenaz [email protected] Índice Introducción a la programación paralela Programación con OpenMP Directivas de compilación Librería
OpenMP. Qué es OpenMP?
OpenMP Qué es OpenMP? Modelo de programación paralela Paralelismo de memoria compartida Soporta el paralelismo por datos Escalable Permite paralelización incremental Extensiones a lenguajes de programación
Programación Multihebra con OpenMP. José Miguel Mantas Ruiz Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada
Programación Multihebra con OpenMP José Miguel Mantas Ruiz Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Contenidos Modelo de Programación e Introducción Paralelización de bucles Gestión
1 Primitivas básicas de OpenMP
1 Primitivas básicas de OpenMP Consultar la página oficial de la plataforma OpenMP http://www.openmp.org/drupal/ Pragmas Es una directiva para el compilador que permite la definición de nuevas directivas
Programación paralela con OpenMP
Programación paralela con OpenMP Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento
Sistemas Complejos en Máquinas Paralelas
Sistemas Complejos en Máquinas Paralelas Clase 1: OpenMP Francisco García Eijó Departamento de Computación - FCEyN UBA 15 de Mayo del 2012 Memoria compartida Las mas conocidas son las máquinas tipo Symmetric
Introducción a la Programación de Memoria Compartida.. con OpenMP
Introducción a la Programación de Memoria Compartida.. con OpenMP Carlos Jaime BARRIOS HERNANDEZ, PhD. Escuela de Ingeniería de Sistemas e Informática Universidad Industrial de Santander Las herramientas
Multiprocesamiento en lenguaje C Introducción a Open Multiprocessing (OpenMP)
Multiprocesamiento en lenguaje C Introducción a Open Multiprocessing (OpenMP) Pertinencia de la enseñanza del cómputo paralelo en el currículo de las ingenierías Algunas preguntas Qué es un proceso? Qué
Cómputo paralelo con openmp y C
Cómputo paralelo con openmp y C Sergio Ivvan Valdez Peña Guanajuato, México. 13 de Marzo de 2012 Sergio Ivvan Valdez Peña Cómputo Guanajuato, paralelo conméxico. openmp y () C 13 de Marzo de 2012 1 / 27
Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia) 1 / 31
Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia)
Paralelización de problemas de recorrido de árboles Trabajadores replicados y esquema maestro esclavo
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Paralelización de problemas de recorrido de árboles Trabajadores replicados
Taller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo
Laboratorio de Paralelismo OpenMP: ejemplos y ejercicios
Laboratorio de Paralelismo OpenMP: ejemplos y ejercicios > Máquinas y directorios Vamos a trabajar con el siguiente multiprocesador SMP: PowerEdge 6850 (DELL) 4 procesadores Intel Xeon 7100 de doble núcleo
TEMA 2: PROGRAMACIÓN PARALELA (I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Guía práctica de estudio 11 Introducción a OpenMP.
Guía práctica de estudio 11 Introducción a OpenMP. Elaborado por: Revisión: Ing. Laura Sandoval Montaño Facultad de Ingeniería U.N.A.M. Guía Práctica 11 Estructura de datos y Algoritmos II Introducción
Paralelismo Relajado Paralelismo Síncrono
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Paralelismo Relajado Paralelismo Síncrono Domingo Giménez (Universidad de Murcia) 1
Paralelismo _Arquitectura de Computadoras IS603
Paralelismo _Arquitectura de Computadoras IS603 INTRODUCCION El objetivo de esta investigación, es conceptualizar las diferentes tipos de paralelismo referente al área de Arquitectura de Computadoras,
Algoritmos en Árbol y Grafo Computación Pipeline
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Algoritmos en Árbol y Grafo Computación Pipeline Domingo Giménez (Universidad
TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte).
TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC www.atc.us.es Dpto. de Arquitectura y Tecnología de Computadores. Universidad
Tema 3. Estructuras de control
Tema 3. Estructuras de control 3.1. Secuencial 3.2. Selección 3.3. Repetición 2 Objetivos Objetivos del tema: Conocer y saber la utilidad de las tres estructuras de control (secuencial, alternativa y repetitiva)
Cilk. Un entorno de programación paralela. Tomás Muñoz Rodríguez < > 17 de noviembre de 2011
Un entorno de programación paralela Tomás Muñoz Rodríguez < [email protected] > 17 de noviembre de 2011 Profesor: Domingo Jiménez Cánovas Asignatura: Metodología de la Programación Paralela Facultad de
Granularidad y latencia
Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación
SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GRADO EN ING. INFORMÁTICA. ING. COMPUTADORES PRÁCTICA 8: INTRODUCCIÓN A OPENMP.
SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GRADO EN ING. INFORMÁTICA. ING. COMPUTADORES PRÁCTICA 8: INTRODUCCIÓN A OPENMP. 1. OBJETIVOS Y PREPARACIÓN. En la actualidad los multiprocesadores en un solo chip
2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 1. Herramientas de programación paralela I: Directivas OpenMP
2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 1. Herramientas de programación paralela I: Directivas OpenMP 2 Qué es OpenMP? De dónde viene
Lección 3 Sentencias de control
3.1. INTRODUCCIÓN - Hasta aquí: ejecución secuencial de los programas. - Aquí vamos a ver: Lección 3 Sentencias de control Sentencias de control Sentencias condicionales: if- y switch-case Sirven para
Todo programa en 'C' consta de una o más funciones, una de las cuales se llama main.
LENGUAJE C CARACTERISTICAS DEL LENGUAJE 'C' El lenguaje 'C' se conoce como un lenguaje compilado. Existen dos tipos de lenguaje: interpretados y compilados. Los interpretados son aquellos que necesitan
Programación I Teoría I.
Programación I Teoría I http://proguno.unsl.edu.ar Horarios Teorías: Jueves 8:00 10:00; aula 58 (Bloque 2) Prácticas: Comisión 1: Licenciatura Martes de 10 a 13 en sala 7, bloque 2 jueves de 10 a 13 en
2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE
2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2 Contenidos Cluster de prácticas (atcgrid)
Principios de Computadoras II
Departamento de Ingeniería Electrónica y Computadoras Ing. Ricardo Coppo [email protected] Qué es un Objeto? Un objeto es una instancia de una clase Las clases actuán como modelos que permiten la creación
PARTE II PROGRAMACION CON THREADS EN C
PARTE II PROGRAMACION CON THREADS EN C II.1 INTRODUCCION Una librería o paquete de threads permite escribir programas con varios puntos simultáneos de ejecución, sincronizados a través de memoria compartida.
Divide y Vencerás Programación Dinámica
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Divide y Vencerás Programación Dinámica Domingo Giménez (Universidad de Murcia) 1 /
2.2 Nombres, Ligado y Ámbito
2.2 Nombres, Ligado y Ámbito Ligado estático y dinámico, reglas de ámbito y prueba de tipos. Conceptos Nombres e Identificadores Variables Tipos Ámbito Constantes Nombres Identificador que designa en el
Programación Orientada a Objetos Sentencias Java Parte I Ing. Julio Ernesto Carreño Vargas MsC.
Sentencias Java Parte I Ing. Julio Ernesto Carreño Vargas MsC. Variables Conceptos de Memoria Una variable es un espacio en la memoria del PC Cada variable tiene un nombre, un tipo, un tamaño y un valor
Adolfo J. Banchio. FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba. 27 04 10 Seminario de grupo 1
Paralelizar un Código usando OpenMP Adolfo J. Banchio FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba 27 04 10 Seminario de grupo 1 Contenido Introducción Paralelización: por qué OpenMP? Qué es OpenMP?
Master SIA 2012/13. Programación de Sistemas Paralelos. OpenMP: Ejercicios prácticos. Facultad de Informática. Ejercicio 1.A. pi.c
Master SIA 2012/13 Facultad de Informática Programación de Sistemas Paralelos OpenMP: Ejercicios prácticos En el directorio templates/practica de tu cuenta msiaxx tienes varios programas que hay que procesar
Tema 05: Elementos de un programa en C
Tema 05: Elementos de un programa en C M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com [email protected] @edfrancom edgardoadrianfrancom Estructuras de datos (Prof. Edgardo A. Franco) 1
CAPITULO 2: VARIABLES Y CONSTANTES
CAPITULO 2: VARIABLES Y CONSTANTES 1. TIPOS DE DATOS. Existen cinco tipos de datos atómicos en C; char: carácter, int: entero, float: real coma flotante, double: real de doble precisión y void: sin valor.
Programación Concurrente Recopilación de teoría referente a la materia
UNIVERSIDAD AMERICANA Programación Concurrente Recopilación de teoría referente a la materia Ing. Luis Müller Esta es una recopilación de la teoría referente a la asignatura Programación Concurrente, a
Soluciones a ejercicios de paralelismo y concurrencia
Soluciones a ejercicios de paralelismo y concurrencia J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores
Algoritmo, Estructuras y Programación I Ing. Marglorie Colina
Unidad II: Fundamentos de la Programación Estructurada Algoritmo, Estructuras y Programación I Ing. Marglorie Colina Estructura General de un Programa Zona de ficheros de cabecera de las librerías Zona
Programación n Orientada a Objetos Sentencias Java Parte I. Ing. Julio Ernesto Carreño o Vargas MsC.
Programación n Orientada a Objetos Sentencias Java Parte I Ing. Julio Ernesto Carreño o Vargas MsC. Variables y expresiones aritméticas Variables Conceptos de Memoria Una variable es un espacio en la memoria
Programación Concurrente
Master en Computación Programación Concurrente Bloque II: Programación concurrente en POSIX Tema 1. Introducción al estándar POSIX Tema 2. Sistema Operativo MaRTE OS Tema 4. Gestión del Tiempo Tema 5.
TEMA 7. ARRAYS (LISTAS Y TABLAS).
TEMA 7. ARRAYS (LISTAS Y TABLAS). En capítulos anteriores se han descrito las características de los tipos de datos básicos o simples (carácter, entero y coma flotante). Asimismo, se ha aprendido a definir
Laboratorio de Arquitectura de Redes. Sentencias de control en lenguaje C
Laboratorio de Arquitectura de Redes Sentencias de control en lenguaje C Sentencias de control en lenguaje C Introducción Sentencia if-else Sentencia switch Sentencia while Sentencia do-while Sentencia
Fundamentos de Programación Visual Basic
Pág. N. 1 Fundamentos de Programación Visual Basic Familia: Editorial: Tecnología de información y computación Macro Autor: Ricardo Walter Marcelo Villalobos ISBN: 978-612-304-236-3 N. de páginas: 280
Modelos de Desarrollo de Programas Y Programación Concurrente Clase N 3: 3 - Paradigmas de Programación
3 - Paradigmas de Programación En los inicios los lenguajes de programación imitaron y abstrajeron las operaciones de una computadora, lo cual trajo aparejado que el tipo de computadora para el cual fueron
Sistemas Operativos Practica 1: procesos y concurrencia.
Sistemas Operativos Practica 1: procesos y concurrencia. Objetivos: Introducir al alumno a los conceptos de programa, concurrencia, paralelismo y proceso o tarea. Manejo del concepto de concurrencia haciendo
Estructura de Datos Unidad 1: Repaso del Lenguaje Java
Estructura de Datos Unidad 1: Repaso del Lenguaje Java Introducción Java es un lenguaje de programación orientado a objetos, desarrollado por Sun Microsystems a principios de 1991, con el que se van a
Centro Asociado Palma de Mallorca. Antonio Rivero Cuesta
Centro Asociado Palma de Mallorca Antonio Rivero Cuesta La Sintaxis de Java II... 6 Estructuras de control... 7 Estructuras de selección... 8 Sentencia if... 9 Sentencia if - else... 12 Operador condicional...
Algoritmos y Estructuras de Datos Ingeniería en Informática, Curso 2º SEMINARIO DE C++ Sesión 2
Algoritmos y Estructuras de Datos Ingeniería en Informática, Curso 2º SEMINARIO DE C++ Sesión 2 Contenidos: 1. Definición de clases 2. Implementación de los métodos 3. Constructores y destructores 4. Objetos
LENGUAJE. Tema 2 Elementos de un programa
LENGUAJE Tema 2 Elementos de un programa ELEMENTOS DE UN PROGRAMA Comentarios. Identificadores. Constantes. Variables. Operadores. Sentencias o instrucciones. COMENTARIOS Los comentarios en C pueden ocupar
Informática Ingeniería en Electrónica y Automática Industrial
Informática Ingeniería en Electrónica y Automática Industrial Sentencias de control en lenguaje Sentencias de control en lenguaje Introducción Sentencia if-else Sentencia switch Sentencia while Sentencia
Programación Paralela en OpenMp
Programación Paralela en OpenMp Proyecto PAPIME PE104911 Facultad de Ingeniería Universidad Nacional Autónoma de México 1 Utilidad de realizar procesamiento paralelo en computadoras con arquitectura de
Introducción al lenguaje C
Introducción al lenguaje C Ampliación de Informática Belarmino Pulido Junquera Índice 1. Presentación del lenguaje C 2. Estructura de un programa en C 3. Tipos de datos escalares 4. Operadores básicos
Introducción general al Lenguaje C (2010/2011)
Luis Valencia Cabrera [email protected] (http://www.cs.us.es/~lvalencia) Ciencias de la Computacion e IA (http://www.cs.us.es/) Introducción general al Lenguaje C (2010/2011) Universidad de Sevilla Índice
CLUSTER FING: ARQUITECTURA Y APLICACIONES
CLUSTER FING: ARQUITECTURA Y APLICACIONES Gerardo Ares, Pablo Ezzatti Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Conceptos
1. Presentación del lenguaje C Creado en 1972 por D. Ritchie Lenguaje de propósito general Portátil o transportable (generalmente) Inicialmente de niv
Introducción al lenguaje C Informática Belarmino Pulido Junquera Índice 1. Presentación del lenguaje C 2. Estructura de un programa en C 3. Instrucciones del pre-procesador procesador 4. Tipos de datos
Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados
Programación Orientada a Objetos en C++
Unidad I Programación Orientada a Objetos en C++ Programación Orientada a Objetos en C++ Programación I - 0416202 Contenido Esta lección abarca los siguientes temas: Estructura y declaración de una clase
Es un lenguaje estructurado, tiene una abundante cantidad de operadores y tipos de datos.
Lenguaje C Un poco de historia C es un lenguaje de propósito general, es decir, se pueden desarrollar aplicaciones de diversas áreas. Dentro de sus principales características podemos mencionar que: Es
Lenguaje C. República Bolivariana de Venezuela Fundación Misión Sucre Aldea Fray Pedro de Agreda Introducción a la Programación III
República Bolivariana de Venezuela Fundación Misión Sucre Aldea Fray Pedro de Agreda Introducción a la Programación III Lenguaje C 1 Puntos previos Los códigos fuentes generados en C requieren ser compilados
TEMA 4. ESTRUCTURAS DE CONTROL
M.P. Sesmero, P. de Toledo, F.J. Ordoñez, J. Gómez-Romero, J.A. Iglesias, J.L. Mira Programación TEMA 4. ESTRUCTURAS DE CONTROL Grado en Ingeniería en Tecnologías Industriales Programación CONTENIDOS 4.1.
Fundamentos de programación JAVA
Pág. N. 1 Fundamentos de programación JAVA Familia: Editorial: Autor: Computación e informática Macro Ricardo Walter Marcelo Villalobos ISBN: 978-612-304-238-7 N. de páginas: 296 Edición: 2. a 2014 Medida:
PUNTEROS (APUNTADORES)
2010 UNAN LEON Departamento de Computación Ing. En Sistemas Sabatino Autor: Ing: Karina Esquivel Alvarado. Asignatura: Algoritmo y Estructura de Datos. PUNTEROS (APUNTADORES) TEMA 4: PUNTEROS (APUNTADORES)
1.1 Tipos de Datos Primitivos. 1.2 Tipos de datos estructurados. 1.3 Definición de estructura de datos
1.1 Tipos de Datos Primitivos 1.2 Tipos de datos estructurados 1.2.1 Arreglos unidimensionales, bidimensionales y cadenas de caracteres 1.2.2 Registros o Estructuras (unión y estructura) 1.3 Definición
Dobles: Es el caso de la instrucción if-else (punto 1.2).
1 1.Introducción Las estructuras de control son instrucciones que nos permiten controlar el flujo de ejecución del programa. Las instrucciones de control se pueden agrupar en instrucciones condicionales
Estructura de datos y Programación
Estructura de datos y Programación Tema: Conceptos Básicos- Estructuras de control - Arreglos Ing. Analia Méndez Ing. Raquel Zarco Año: 2012 ELEMENTOS DE UN PROGRAMA EN JAVA El programa Java consta de
Paradigmas de lenguajes de programación. Introducción a la programación imperativa. Lenguaje C. Programación imperativa
Paradigmas de lenguajes de programación Introducción a la programación imperativa Algoritmos y Estructuras de Datos I Paradigma: Definición del modo en el que se especifica el cómputo (que luego es implementado
