ARQUITECTURA DE SISTEMAS PARALELOS 2. 4º INGENIERÍA INFORMÁTICA. PRÁCTICA 4. PROGRAMACION PARALELA CON openmp.

Tamaño: px
Comenzar la demostración a partir de la página:

Download "ARQUITECTURA DE SISTEMAS PARALELOS 2. 4º INGENIERÍA INFORMÁTICA. PRÁCTICA 4. PROGRAMACION PARALELA CON openmp."

Transcripción

1 ARQUITECTURA DE SISTEMAS PARALELOS 2. 4º INGENIERÍA INFORMÁTICA. PRÁCTICA 4. PROGRAMACION PARALELA CON openmp. 1. OBJETIVOS Y PREPARACIÓN. En la actualidad los multiprocesadores en un solo chip (denominados habitualmente procesadores de múltiple núcleo) están extendiéndose de manera muy notable. Si queremos aprovechar las posibilidades de estos procesadores es necesario particionar nuestro código en diversos hilos de forma que puedan ejecutarse simultáneamente tanto hilos como procesadores tengamos. Con el fin de facilitar este proceso se han introducido herramientas que permiten realizar esta partición de manera sencilla sin tenerse que preocupar de crear y destruir los hilos o de gestionar las comunicaciones entre ellos de forma explicita. Dentro de estas herramientas una de las más populares es el entorno openmp que hoy en día está soportado en la mayoría de multiprocesadores con memoria compartida. En la familia 80x86 openmp está soportado los compiladores de C++ de Microsoft e Intel (Windows y Linux) y otros. La referencia de openmp podemos encontrarla en y un buen tutorial en español en OpenMP utiliza para generar el código paralelo directivas y funciones insertadas en el código C++ (o Fortran). En C la directivas usan el formato: #pragma omp directiva [comando[(parámetros)], [comando[(parámetros)] Tanto las directivas como las funciones no son tenidas en cuenta si no habilitamos la compatibilidad openmp en el compilador. En Visual Studio la opción para habilitar está compatibilidad está, dentro de las propiedades del proyecto en: Propiedades de Configuración -> C/C++ -> Lenguaje -> Compatibilidad con openmp. La práctica estudiará la optimización del código SAXPY ya empleado en la práctica 3 en un multiprocesador. Para completarlo introduciremos un nuevo ejemplo con dependencias a través del bucle: el producto escalar. Para realizar estos ejemplos sólo necesitamos las directivas de openmp referentes a la optimización de bucles for. Estas son (ver tutorial): #pragma omp parallel #pragma omp for Cláusula combinada que une las dos anteriores: #pragma omp parallel for Dentro de esta directiva se puede especificar (ver tutorial) Variables locales a cada thread (private()) y compartidas entre todos (shared()). Por defecto la variable índice del bucle es privada y las demás son compartidas. Políticas de partición de carga (static o dynamic) Posibilidad de operadores de reducción. 2. REALIZACIÓN DE LA PRÁCTICA PRUEBA 1: Comparación Inicial. 1. Obtener las características del procesador empleado usando cpuz 1.40 (descargarlo de ) 2. Abrir el entorno Visual Studio.NET y crear un proyecto de consola WIN32 vacío. Añadir un archivo de utilidad TXT y nombrarlo con extensión.c. Copiar el código fuente que se proporciona en el enunciado de esta práctica. Poner el compilador en modo release y no habilitar openmp. Apuntar los tiempos en la tabla de resultados PRUEBA 2: OpenMP básico. 1. Añadir las directivas para paralelizar los bucles del SAXPY y del producto escalar. Probar con un número de threads entre 1 y el número de núcleos (o hyperthreads) del procesador. Anotar resultados PRUEBA 3: Políticas de secuenciamiento. 1. Probar políticas de secuenciamiento estáticas y dinámicas con al menos 2 tamaños de partición de datos (chunk). Anotar resultados. Interpretación de Resultados: Realizar una interpretación cualitativa de los resultados obtenidos en las diversas pruebas en función de las características del procesador y: Habilitación o no de openmp. Número de Threads. Tamaño de los vectores. Políticas de secuenciamiento y partición.

2 Explicar las diferencias entre los tiempos del SAXPY y los del producto escalar. ARQUITECTURA DE SISTEMAS PARALELOS II. PRACTICA 4 ANÁLISIS DE INSTRUCCIONES DEL NÚCLEO MULTIMEDIA. NUM GRUPO: ALUMNOS: Procesador (Modelo /Frecuencia/Núcleos/HT) Cache(s) de nivel 1º. Cache de Nivel 2º Memoria Principal Características del Ordenador. Chipset Tabla de resultados SAXPY básico: Sin omp omp 1 thread Omp threads tiempo aceleración tiempo aceleración tiempo aceleración L1/2 elem 1.0 L1 elem 1.0 2*L1 elem 1.0 L2/4 elem 1.0 L2/2 elem 1.0 L2 elem 1.0 2*L2 elem 1.0 Tabla de resultados PE básico: Sin omp omp 1 thread Omp threads tiempo aceleración tiempo aceleración tiempo aceleración L1/2 elem 1.0 L1 elem 1.0 2*L1 elem 1.0 L2/4 elem 1.0 L2/2 elem 1.0 L2 elem 1.0 2*L2 elem 1.0

3 Tabla de resultados SAXPY (políticas secuenciamiento. Indicar Política y tamaño partición): tiempo aceleración tiempo aceleración tiempo aceleración tiempo aceleración L1/2 elem L1 elem 2*L1 elem L2/4 elem L2/2 elem L2 elem 2*L2 elem Tabla de resultados PE (políticas secuenciamiento. Indicar Política y tamaño partición): tiempo aceleración tiempo aceleración tiempo aceleración tiempo aceleración L1/2 elem L1 elem 2*L1 elem L2/4 elem L2/2 elem L2 elem 2*L2 elem Justificación de resultados:

4 ESQUELETO DEL CÓDIGO DE PRUEBA #include <stdio.h> #include <math.h> #include <omp.h> #define MHZ 3E3 #define VSIZE (512) #define REPETICIONES (1024) #define N 256 #define VSIZE*N declspec(align(16)) float x[], y[], z[], m[4] = {1.0, 2.0, 3.0, 4.0; // alinea en frontera de 16 bytes los vectores. float comp[]; //vector para comprobar resultados float a = (float) ; float b = 0.5,pe; int ciclos[2]; void codigo_c (int tam); float codigo_cpe (int tam); //inicialización con instr. SSE: x[] = {1, 2, 3, 4, 1, 2, 3, 4,.., y[i] = sqrt(x[i]) void inic (int tam); int main(void) { int i; //omp_set_num_threads(2); //Fijar numero de Threads for (i=1; i<=n; i*=2) { printf("\n::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::"); printf("\n::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::\n"); printf("\n\ncodigo C para %d elementos\n", i*vsize);

5 codigo_c (i*vsize); //codigo C en otra funcion para que no influyan las optimizaciones del compilador printf( " -> Elem primero y ultimo: %.5e, %.5e \n", y[0], y[i*vsize-1]); pe=codigo_cpe (i*vsize); printf( " -> Producto Escalar %.5e \n", pe); printf("\n\n"); return 0; //*********************************************************************** // FUNCIONES //*********************************************************************** //codigo C en otra funcion para que no influyan las optimizaciones del compilador void codigo_c (int tam) { int i, j; int min = 0x7fffffff; inic (tam); for (j=0; j<repeticiones; j++) { //Codigo C (del SAXPY O SIMILAR) //#pragma omp AÑADIR DIRECTIVA for (i=0; i<tam; i++) y[i] = a*x[i] + y[i]; // Fin codigos de prueba sub eax, [esi] sbb edx, [esi+4] if (min > ciclos[0]) min = ciclos[0]; printf( " --> %u ciclos => %.3lf useg \n", min, min / MHZ); //Guardo resultados correctos en vector comp[] for(i=0;i<tam;i++) comp[i] = y[i];

6 float codigo_cpe (int tam) { int i, j; int min = 0x7fffffff; float res; inic (tam); for (j=0; j<repeticiones; j++) { // Codigos de prueba //Codigo C (Producto escalar) res=0; //#pragma omp --- Añadir directiva for (i=0; i<tam; i++) res+=x[i] * y[i]; // Fin codigos de prueba sub eax, [esi] sbb edx, [esi+4] if (min > ciclos[0]) min = ciclos[0]; printf( " --> %u ciclos => %.3lf useg \n", min, min / MHZ); //Guardo resultados correctos en vector comp[] return res; void inic (int tam) { asm { lea eax, m lea ebx, x lea edx, y mov edi, tam shl edi, 2 mov ecx, ebx add ecx, edi movaps xmm0, [eax] sqrtps xmm1, xmm0 lp: movaps [ebx], xmm0 movaps [edx], xmm1 add ebx, 16 add edx, 16 cmp ebx, ecx jne lp

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GRADO EN ING. INFORMÁTICA. ING. COMPUTADORES PRÁCTICA 8: INTRODUCCIÓN A OPENMP.

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GRADO EN ING. INFORMÁTICA. ING. COMPUTADORES PRÁCTICA 8: INTRODUCCIÓN A OPENMP. SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GRADO EN ING. INFORMÁTICA. ING. COMPUTADORES PRÁCTICA 8: INTRODUCCIÓN A OPENMP. 1. OBJETIVOS Y PREPARACIÓN. En la actualidad los multiprocesadores en un solo chip

Más detalles

Cómputo paralelo con openmp y C

Cómputo paralelo con openmp y C Cómputo paralelo con openmp y C Sergio Ivvan Valdez Peña Guanajuato, México. 13 de Marzo de 2012 Sergio Ivvan Valdez Peña Cómputo Guanajuato, paralelo conméxico. openmp y () C 13 de Marzo de 2012 1 / 27

Más detalles

1 Primitivas básicas de OpenMP

1 Primitivas básicas de OpenMP 1 Primitivas básicas de OpenMP Consultar la página oficial de la plataforma OpenMP http://www.openmp.org/drupal/ Pragmas Es una directiva para el compilador que permite la definición de nuevas directivas

Más detalles

Sistemas Complejos en Máquinas Paralelas

Sistemas Complejos en Máquinas Paralelas Sistemas Complejos en Máquinas Paralelas Clase 1: OpenMP Francisco García Eijó Departamento de Computación - FCEyN UBA 15 de Mayo del 2012 Memoria compartida Las mas conocidas son las máquinas tipo Symmetric

Más detalles

Introducción a la Programación de Memoria Compartida.. con OpenMP

Introducción a la Programación de Memoria Compartida.. con OpenMP Introducción a la Programación de Memoria Compartida.. con OpenMP Carlos Jaime BARRIOS HERNANDEZ, PhD. Escuela de Ingeniería de Sistemas e Informática Universidad Industrial de Santander Las herramientas

Más detalles

Master SIA 2012/13. Programación de Sistemas Paralelos. OpenMP: Ejercicios prácticos. Facultad de Informática. Ejercicio 1.A. pi.c

Master SIA 2012/13. Programación de Sistemas Paralelos. OpenMP: Ejercicios prácticos. Facultad de Informática. Ejercicio 1.A. pi.c Master SIA 2012/13 Facultad de Informática Programación de Sistemas Paralelos OpenMP: Ejercicios prácticos En el directorio templates/practica de tu cuenta msiaxx tienes varios programas que hay que procesar

Más detalles

Prác%ca 1 Sesión 3 1

Prác%ca 1 Sesión 3 1 Prác%ca 1 Sesión 3 1 Obje%vo Paralelizar códigos mediante los iden%ficadores de hilos Paralelizar dos códigos secuenciales que calculen: 1. El mayor número primo del %po unsigned long long int 2. El número

Más detalles

Es una API (Aplication Program Interface) que se usa para paralelismo basado en hilos múltiples en entornos de memoria compartida

Es una API (Aplication Program Interface) que se usa para paralelismo basado en hilos múltiples en entornos de memoria compartida Algo de OPENMP Memoria Compartida Threads O hilos, se definen como flujos de instrucciones independientes, que se ejecutan separadamente del programa principal. Con estos hilos se aprovecha mucho una máquina

Más detalles

Práctica 6. El procesador

Práctica 6. El procesador Práctica 6 El procesador Material: PC y Visual Studio 2013 Duración: 2 horas Lugar: Laboratorios de prácticas (Laboratorio de Redes-Hardware) La herramienta que vamos a utilizar para el desarrollo de las

Más detalles

Guía práctica de estudio 11 Introducción a OpenMP.

Guía práctica de estudio 11 Introducción a OpenMP. Guía práctica de estudio 11 Introducción a OpenMP. Elaborado por: Revisión: Ing. Laura Sandoval Montaño Facultad de Ingeniería U.N.A.M. Guía Práctica 11 Estructura de datos y Algoritmos II Introducción

Más detalles

Tema: Lenguaje ensamblador embebido

Tema: Lenguaje ensamblador embebido Compiladores. Guía 10 1 Facultad: Ingeniería Escuela: Computación Asignatura: Compiladores Tema: Lenguaje ensamblador embebido Contenido En esta guía se presenta una breve introducción a las estructuras

Más detalles

TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte).

TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC www.atc.us.es Dpto. de Arquitectura y Tecnología de Computadores. Universidad

Más detalles

Objetivo. Introducción. Tema: GENERACION DE CODIGO. Compiladores, Guía 11 1

Objetivo. Introducción. Tema: GENERACION DE CODIGO. Compiladores, Guía 11 1 Compiladores, Guía 11 1 Tema: GENERACION DE CODIGO. Facultad : Ingeniería Escuela :Computación Asignatura:Compiladores Objetivo Reconocer las diferentes instrucciones para la generación de código.ensamblador

Más detalles

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 9 Departamento de Arquitectura y Tecnología de Computadores Universidad de Sevilla

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 9 Departamento de Arquitectura y Tecnología de Computadores Universidad de Sevilla SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 9 Departamento de Arquitectura y Tecnología de Computadores Universidad de Sevilla PROGRAMACIÓN DE COMPUTADORES DE MEMORIA DISTRIBUIDA USANDO MPI. PREPARACIÓN

Más detalles

Tutorial Configuración del entorno de compilación de lenguage C en ambientes Windows Utilizando Visual Studio

Tutorial Configuración del entorno de compilación de lenguage C en ambientes Windows Utilizando Visual Studio Tutorial Configuración del entorno de compilación de lenguage C en ambientes Windows Utilizando Visual Studio 1 Configuración del entorno Inserte un disco con Microsoft Visual Studio 2008 Express Edition

Más detalles

Multiprocesamiento en lenguaje C Introducción a Open Multiprocessing (OpenMP)

Multiprocesamiento en lenguaje C Introducción a Open Multiprocessing (OpenMP) Multiprocesamiento en lenguaje C Introducción a Open Multiprocessing (OpenMP) Pertinencia de la enseñanza del cómputo paralelo en el currículo de las ingenierías Algunas preguntas Qué es un proceso? Qué

Más detalles

Computadores y Comunicaciones. Tema 5: Software y sistemas operativos

Computadores y Comunicaciones. Tema 5: Software y sistemas operativos Computadores y Comunicaciones Tema 5: Software y sistemas operativos Febrero, 2011 Jorge Juan Chico , Julián Viejo Cortés Departamento de Tecnología Electrónica Universidad

Más detalles

OpenMP. Qué es OpenMP?

OpenMP. Qué es OpenMP? OpenMP Qué es OpenMP? Modelo de programación paralela Paralelismo de memoria compartida Soporta el paralelismo por datos Escalable Permite paralelización incremental Extensiones a lenguajes de programación

Más detalles

Francisco J. Hernández López

Francisco J. Hernández López Francisco J. Hernández López fcoj23@cimat.mx Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Sistema de Cómputo Paralelo Hardware Parallel programming:

Más detalles

Programación en Memoria Compartida: OpenMP

Programación en Memoria Compartida: OpenMP Programación en Memoria Compartida: OpenMP Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Nociones básicas Modelo de programación

Más detalles

Laboratorio de Paralelismo

Laboratorio de Paralelismo Laboratorio de Paralelismo 2010-2011 Prácticas OpenMP En el directorio de trabajo LPAR de tu cuenta mlapxx tienes cuatro programas que hay que procesar en paralelo utilizando OpenMP. En el caso de los

Más detalles

Programación paralela con OpenMP

Programación paralela con OpenMP Programación paralela con OpenMP Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento

Más detalles

Cómputo en paralelo con OpenMP 1

Cómputo en paralelo con OpenMP 1 Cómputo en paralelo con OpenMP 1 Miguel Vargas-Félix miguelvargas@cimat.mx http://www.cimat.mx/~miguelvargas CIMAT, September 2, 2015 1/34 Velocidad de los procesadores de escritorio Recientemente, la

Más detalles

Pila / Convención C / Interacción C-ASM. Ejercicios. Pila. Organización del Computador II. 21 de marzo de 2017

Pila / Convención C / Interacción C-ASM. Ejercicios. Pila. Organización del Computador II. 21 de marzo de 2017 Organización del Computador II 21 de marzo de 2017 / / Hoy vamos a ver / / Para ponernos de acuerdo... Está en memoria. RSP y RBP la definen. Crece númericamente para atrás. / / Cómo la usamos? PUSH y

Más detalles

Práctica 1. Introducción a la programación en ensamblador

Práctica 1. Introducción a la programación en ensamblador Práctica 1 Introducción a la programación en ensamblador 1. Generalidades 2. Introducción 3. Cuestiones 1. Generalidades El desarrollo de las prácticas consistirá en una breve introducción del tema por

Más detalles

Índice. 1. Introducción. 1. Introducción. Regiones Paralelas. Ejemplo

Índice. 1. Introducción. 1. Introducción. Regiones Paralelas. Ejemplo Arquitectura de Computadores: Práctica de Multiprocesadores Introducción a OpenMP Índice 2. Regiones Paralelas: a) For b) Sections 3. Distribución del trabajo 4. Gestión de datos 5. Sincronización 6. Tareas

Más detalles

Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018

Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Gilberto Díaz gilberto.diaz@uis.edu.co Universidad Industrial de Santander Centro de Súper Computación y Cálculo Científico

Más detalles

Javier Ibáñez González

Javier Ibáñez González Javier Ibáñez González Despacho 109 Edificio DSIC (1F) Tutorías bajo demanda e-mail: jjibanez@dsic.upv.es http://personales.upv.es/jjibanez Práctica P2 (OpenMP): sesiones 4 y 5 Práctica P3 (MPI): sesiones

Más detalles

Lenguaje C. República Bolivariana de Venezuela Fundación Misión Sucre Aldea Fray Pedro de Agreda Introducción a la Programación III

Lenguaje C. República Bolivariana de Venezuela Fundación Misión Sucre Aldea Fray Pedro de Agreda Introducción a la Programación III República Bolivariana de Venezuela Fundación Misión Sucre Aldea Fray Pedro de Agreda Introducción a la Programación III Lenguaje C 1 Puntos previos Los códigos fuentes generados en C requieren ser compilados

Más detalles

Laboratorio de Paralelismo OpenMP: ejemplos y ejercicios

Laboratorio de Paralelismo OpenMP: ejemplos y ejercicios Laboratorio de Paralelismo OpenMP: ejemplos y ejercicios > Máquinas y directorios Vamos a trabajar con el siguiente multiprocesador SMP: PowerEdge 6850 (DELL) 4 procesadores Intel Xeon 7100 de doble núcleo

Más detalles

TEMA 2: PROGRAMACIÓN PARALELA (I)

TEMA 2: PROGRAMACIÓN PARALELA (I) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

Reconstrucción de Código. Joxean Koret

Reconstrucción de Código. Joxean Koret Reconstrucción de Código Joxean Koret Guión Introducción Fundamentos Construcciones típicas Variables Llamadas a funciones Sentencias condicionales Bucles Ejemplos Durante la charla se irá reconstruyendo

Más detalles

Organización de computadoras. Clase 6. Universidad Nacional de Quilmes. Lic. Martínez Federico

Organización de computadoras. Clase 6. Universidad Nacional de Quilmes. Lic. Martínez Federico Organización de computadoras Clase 6 Universidad Nacional de Quilmes Lic. Martínez Federico Qué vimos? Pila Push Pop Modularizar Reusar Call y Ret Q5 Qué vimos? JMP y CALL no son lo mismo? NO Qué hay para

Más detalles

Introducción al lenguaje C

Introducción al lenguaje C Introducción al lenguaje C Programación 2 Profesorado de Informática CeRP del Suroeste, Colonia, Uruguay 15 de marzo de 2016 Programación 2 Introducción al lenguaje C 15 de marzo de 2016 1 / 34 Objetivos

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES Gerardo Ares, Pablo Ezzatti Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Conceptos

Más detalles

Computación Matricial y Paralela

Computación Matricial y Paralela Computación Matricial y Paralela Programación en Memoria Compartida Javier Cuenca Dpto. de Ingeniería y Tecnología de Computadores Domingo Giménez Dpto. de Informática y Sistemas Universidad de Murcia

Más detalles

Programación en Intel Xeon Phi

Programación en Intel Xeon Phi Programación en Intel Xeon Phi David Corbalán Navarro Máster en Nuevas Tecnologías de la Informática Índice Introducción al paralelismo Niveles de paralelismo Paradigmas de programación paralela Manycores

Más detalles

WHILE Y DO WHILE BREAK EN LENGUAJE C. BUCLES MIENTRAS. FORZAR SALIDA O TERMINACIÓN. EJEMPLO (CU00534F)

WHILE Y DO WHILE BREAK EN LENGUAJE C. BUCLES MIENTRAS. FORZAR SALIDA O TERMINACIÓN. EJEMPLO (CU00534F) Bucles en lenguaje C Bucle while y forzar detención con break APRENDERAPROGRAMARCOM WHILE Y DO WHILE BREAK EN LENGUAJE C BUCLES MIENTRAS FORZAR SALIDA O TERMINACIÓN EJEMPLO (CU00534F) Sección: Cursos Categoría:

Más detalles

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2 Contenidos Cluster de prácticas (atcgrid)

Más detalles

Multiprocesadores de Memoria Compartida

Multiprocesadores de Memoria Compartida Arquitectura (10/11) Multiprocesadores Memoria Compartida Características MMC Res Interconexión para MMC Programación MMC Tipos MMC 1 Arquitectura (10/11) Características MMC Prestaciones (MMC) = f (coste

Más detalles

EJERCICIOS CON FUNCIONES EN C. EJEMPLO CALCULAR SERIES NUMÉRICAS. REFACTORIZAR. (CU00552F)

EJERCICIOS CON FUNCIONES EN C. EJEMPLO CALCULAR SERIES NUMÉRICAS. REFACTORIZAR. (CU00552F) APRENDERAPROGRAMAR.COM EJERCICIOS CON FUNCIONES EN C. EJEMPLO CALCULAR SERIES NUMÉRICAS. REFACTORIZAR. (CU00552F) Sección: Cursos Categoría: Curso básico de programación en lenguaje C desde cero Fecha

Más detalles

Francisco Javier Hernández López

Francisco Javier Hernández López Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay

Más detalles

Objetivos y presentación del curso

Objetivos y presentación del curso Grupo ARCOS Objetivos y presentación del curso Estructura de Computadores Grado en Ingeniería Informática Estructura de Computadores en la UC3M Asignatura obligatoria de segundo curso de: Grado en Ingenería

Más detalles

Master SIA. Programación de Sistemas Paralelos. MPI: Ejercicios prácticos. Ejercicio 1. Facultad de Informática

Master SIA. Programación de Sistemas Paralelos. MPI: Ejercicios prácticos. Ejercicio 1. Facultad de Informática Master SIA Facultad de Informática Programación de Sistemas Paralelos MPI: Ejercicios prácticos Te proponemos realizar estos cuatro ejercicios. Al final, y junto con los ejercicios sobre OpenMP, hay que

Más detalles

adreça lògicacontingut (en hexadecimal) dels 8 bytes a partir de l adreça lògica

adreça lògicacontingut (en hexadecimal) dels 8 bytes a partir de l adreça lògica Solución al Problema 1 a) Suponer los siguientes contenidos de memoria: adreça lògicacontingut (en hexadecimal) dels 8 bytes a partir de l adreça lògica 0020h:0008h FC 00 1A 23 19 00 20 00 0020h:0010h

Más detalles

Práctica 4. Organización del Computador 1 12 de septiembre de Algunas consideraciones preliminares:

Práctica 4. Organización del Computador 1 12 de septiembre de Algunas consideraciones preliminares: Práctica 4 Organización del Computador 1 12 de septiembre de 2005 Algunas consideraciones preliminares: Donde aparece xxxxxxxx quiere decir que el valor correcto ya está en esa dirección de memoria Todos

Más detalles

Escuela Politécnica Superior de Elche

Escuela Politécnica Superior de Elche EXAMEN DE SISTEMAS INFORMÁTICOS INDUSTRIALES ((SOLUCIÓN) (TEORÍA)jUJ jhshshs JUNIO 2015 1. Indicar si las siguientes afirmaciones son verdaderas o falsas: (a) En C++, cuando se destruye un objeto de una

Más detalles

Programación : C (6)

Programación : C (6) Programación : C (6) Dr. J.B. Hayet CENTRO DE INVESTIGACIÓN EN MATEMÁTICAS Septiembre 2013 J.B. Hayet Programación Septiembre 2013 1 / 40 Outline 1 Directivas al preprocesador 2 Input/Output J.B. Hayet

Más detalles

La matriz ampliada A B es:

La matriz ampliada A B es: SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 7. NÚCLEOS MULTIMEDIAS. 1. OBJETIVOS Y PREPARACIÓN. En esta práctica vamos a estudiar la optimización de código mediante el uso de las extensiones multimedia

Más detalles

APÈNDIX: PROGRAMACIÓ EN C (CONVENCIONS I PUNTERS)

APÈNDIX: PROGRAMACIÓ EN C (CONVENCIONS I PUNTERS) APÈNDIX: PROGRAMACIÓ EN C (CONVENCIONS I PUNTERS) 1. Convencions en C Al llenguatge C existeixen una sèrie de convencions que cal saber per poder programar correctament les subrutines i especialment les

Más detalles

PARTE II PROGRAMACION CON THREADS EN C

PARTE II PROGRAMACION CON THREADS EN C PARTE II PROGRAMACION CON THREADS EN C II.1 INTRODUCCION Una librería o paquete de threads permite escribir programas con varios puntos simultáneos de ejecución, sincronizados a través de memoria compartida.

Más detalles

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 3. PLANIFICACIÓN ESTÁTICA AVANZADA. TMS320C6713

SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 3. PLANIFICACIÓN ESTÁTICA AVANZADA. TMS320C6713 SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 3. PLANIFICACIÓN ESTÁTICA AVANZADA. TMS320C6713 OBJETIVOS. En esta práctica se trata de estudiar dos de las técnicas de planificación estática más importantes:

Más detalles

Punteros. Programación en C 1

Punteros. Programación en C 1 Punteros Programación en C 1 Índice Variables y direcciones de memoria. Punteros definición, declaración e inicialización. Punteros declaración, asignación y dereferencia. Puntero nulo, tipo void. Aritmética

Más detalles

Programación (PRG) PRACTICA 4. Elementos de programación: estructuras de control.

Programación (PRG) PRACTICA 4. Elementos de programación: estructuras de control. Programación (PRG) PRACTICA 4. Elementos de programación: estructuras de control. Facultad de Informática Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Curso 2002/2003

Más detalles

CUDA 5.5 y Visual Studio Express 2012 para Escritorio. Primeros pasos.

CUDA 5.5 y Visual Studio Express 2012 para Escritorio. Primeros pasos. CUDA 5.5 y Visual Studio Express 2012 para Escritorio. Primeros pasos. La nueva versión de CUDA 5.5 es completamente compatible con la plataforma de desarrollo Visual Studio Express 2012 para escritorio

Más detalles

El Diseño de un Lenguaje Máquina

El Diseño de un Lenguaje Máquina Arquitectura de Ordenadores Juego de Instrucciones del Procesador Intel Pentium Abelardo Pardo abel@it.uc3m.es Universidad Carlos III de Madrid Departamento de Ingeniería Telemática El Diseño de un Lenguaje

Más detalles

Modos de Direccionamiento

Modos de Direccionamiento Arquitectura de Ordenadores Modos de Direccionamiento del Intel Pentium Abelardo Pardo abel@it.uc3m.es Universidad Carlos III de Madrid Departamento de Ingeniería Telemática Modos de Direccionamiento ADM-1

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo

Más detalles

Primeros pasos con CUDA. Clase 1

Primeros pasos con CUDA. Clase 1 Primeros pasos con CUDA Clase 1 Ejemplo: suma de vectores Comencemos con un ejemplo sencillo: suma de vectores. Sean A, B y C vectores de dimensión N, la suma se define como: C = A + B donde C i = A i

Más detalles

Granularidad y latencia

Granularidad y latencia Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación

Más detalles

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA

Más detalles

Arquitectura de Computadores Problemas (hoja 4). Curso

Arquitectura de Computadores Problemas (hoja 4). Curso Arquitectura de Computadores Problemas (hoja 4). Curso 2006-07 1. Sea un computador superescalar similar a la versión Tomasulo del DLX capaz de lanzar a ejecución dos instrucciones independientes por ciclo

Más detalles

2. Regiones Paralelas: 3. Distribución del trabajo 4. Gestión de datos 5. Sincronización. 7. Variables del entorno 8. Ejemplo Π

2. Regiones Paralelas: 3. Distribución del trabajo 4. Gestión de datos 5. Sincronización. 7. Variables del entorno 8. Ejemplo Π Arquitectura de Computadores: Práctica de Multiprocesadores Introducción a OpenMP 1. Introducción 2. Regiones Paralelas: Índice 3. Distribución del trabajo 4. Gestión de datos 5. Sincronización 6. Funciones

Más detalles

LENGUAJE. Tema 4 Vectores, Matrices y Cadenas de caracteres.

LENGUAJE. Tema 4 Vectores, Matrices y Cadenas de caracteres. LENGUAJE Tema 4 Vectores, Matrices y Cadenas de caracteres. VECTORES UNIDIMENSIONALES Los vectores (array o arreglo) unidimensionales son secuencias de valores del mismo tipo que se almacenan en localidades

Más detalles

Programación Multihebra con OpenMP. José Miguel Mantas Ruiz Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada

Programación Multihebra con OpenMP. José Miguel Mantas Ruiz Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Programación Multihebra con OpenMP José Miguel Mantas Ruiz Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Contenidos Modelo de Programación e Introducción Paralelización de bucles Gestión

Más detalles

TEMA 5. CONTROL DE FLUJO DEL PROGRAMA. Sentencia Instrucción Expresión Operadores + Operandos Sintaxis: Sentencia ;

TEMA 5. CONTROL DE FLUJO DEL PROGRAMA. Sentencia Instrucción Expresión Operadores + Operandos Sintaxis: Sentencia ; TEMA 5. CONTROL DE FLUJO DEL PROGRAMA 5.1 Sentencias Una sentencia es una expresión seguida de un punto y coma. Sentencia Instrucción Expresión Operadores + Operandos Sintaxis: Sentencia ; El ; es obligatorio

Más detalles

Hilos. Módulo 4. Departamento de Informática Facultad de Ingeniería Universidad Nacional de la Patagonia San Juan Bosco. Hilos

Hilos. Módulo 4. Departamento de Informática Facultad de Ingeniería Universidad Nacional de la Patagonia San Juan Bosco. Hilos Hilos Módulo 4 Departamento de Informática Facultad de Ingeniería Universidad Nacional de la Patagonia San Juan Bosco Hilos Revisión Modelos Multihilados Librerías de Hilos Aspectos sobre Hilos Ejemplos

Más detalles

Cómputo en paralelo con OpenMP 2

Cómputo en paralelo con OpenMP 2 Cómputo en paralelo con OpenMP 2 Miguel Vargas-Félix miguelvargas@cimat.mx http://www.cimat.mx/~miguelvargas CIMAT, September 2, 2015 1/30 Variables private y shared En el ejemplo del producto punto: double

Más detalles

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) I Presentación: Instructor M. en C. Cristhian Alejandro Ávila-Sánchez CUDA (Compute Unified Device Architecture)

Más detalles

Introducción al lenguaje C

Introducción al lenguaje C Introducción al lenguaje C Programación 2 Instituto de Computación, Facultad de Ingeniería, Universidad de la República, Uruguay 2 de marzo de 2016 Programación 2 Introducción al lenguaje C 2 de marzo

Más detalles

Paralelización de Programas Secuenciales: OpenMP

Paralelización de Programas Secuenciales: OpenMP Paralelización de Programas Secuenciales: OpenMP http://www.openmp.org Manuel Arenaz arenaz@udc.es Índice Introducción a la programación paralela Programación con OpenMP Directivas de compilación Librería

Más detalles

Prácticas de Programación Resueltas: Máquinas de Turing

Prácticas de Programación Resueltas: Máquinas de Turing Prácticas de Programación Resueltas: Máquinas de Turing 1. Realizar un programa que simule la actuación de una máquina de Turing que al serle introducida una sucesión de `1' escritos en casillas consecutivas

Más detalles

Programación I Teoría III.

Programación I Teoría III. Programación I Teoría III http://proguno.unsl.edu.ar proguno@unsl.edu.ar DATOS ESTRUCTURADOS Estructuras de Datos Hasta ahora hemos trabajado con Datos simples enteros reales Caracteres punteros Sin embargo,

Más detalles

Programas de ordenador (software)

Programas de ordenador (software) Programas de ordenador (software) Jorge Juan Chico , Julián Viejo Cortés 2011, 2014, 2015 Departamento de Tecnología Electrónica Universidad de Sevilla Usted es libre

Más detalles

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia)

Más detalles

Escuela Politécnica Superior de Elche

Escuela Politécnica Superior de Elche EXAMEN DE SISTEMAS INFORMÁTICOS INDUSTRIALES ((SOLUCIÓN) (TEORÍA)jUJ jhshshs SEPTIEMBRE 2015 1. Indicar si las siguientes afirmaciones son verdaderas o falsas: (a) En C++, una clase derivada puede acceder

Más detalles

FUNCIONES. Identificador valido. Tipo-Funcion Identificador_de_la_funcion (Tipo par1,tipo par2 )

FUNCIONES. Identificador valido. Tipo-Funcion Identificador_de_la_funcion (Tipo par1,tipo par2 ) FUNCIONES Las funciones son el medio básico de que se vale C para construir programas. Un Programa es, básicamente, una colección de funciones entre las que se incluye una especial llamada main(), la función

Más detalles

Operaciones de E/S en ANSI C

Operaciones de E/S en ANSI C Operaciones de E/S en ANSI C Las operaciones de entrada/salida estándar (realizadas habitualmente con printf y scanf) se realizan en realidad sobre ficheros que representan los dispositivos mediante los

Más detalles

APELLIDOS NOMBRE GRUPO CALIFICACIÓN FECHA

APELLIDOS NOMBRE GRUPO CALIFICACIÓN FECHA Hoja 1/10 Duración: una hora y media Resultados de aprendizaje que se evalúan en este examen: R2: Saber emplear las estructuras de control de flujo de programación para implementar algoritmos sencillos.

Más detalles

1. Introducción. 1. Introducción. Ejemplo. Regiones Paralelas. Modelo de paralelismo: Fork-Join Un maestro crea y gestiona threads según necesidad:

1. Introducción. 1. Introducción. Ejemplo. Regiones Paralelas. Modelo de paralelismo: Fork-Join Un maestro crea y gestiona threads según necesidad: Programación Paralela y Distribuida OpenMP Índice 1. Introducción 2. Regiones Paralelas: a) For b) Sections 3. Distribución del trabajo 4. Gestión de datos 5. Sincronización 6. Afinidad 7. Tareas 8. Funciones

Más detalles

Tema 3. Estructuras de control

Tema 3. Estructuras de control Tema 3. Estructuras de control 3.1. Secuencial 3.2. Selección 3.3. Repetición 2 Objetivos Objetivos del tema: Conocer y saber la utilidad de las tres estructuras de control (secuencial, alternativa y repetitiva)

Más detalles

Abstracción del Control de Flujo de Ejecución

Abstracción del Control de Flujo de Ejecución Abstracción del Control de Flujo de Ejecución Iteraciones Esp. Ing. José María Sola, profesor. Revisión 1.2.0 2017-05-07 Tabla de contenidos 1. Iteraciones... 1 1.1. Introducción... 1 1.1.1. Caso de Estudio...

Más detalles

UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 10 junio de 2006

UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 10 junio de 2006 UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 10 junio de 2006 Para la realización del presente examen se dispondrá de 2 horas

Más detalles

1. Presentación del lenguaje C Creado en 1972 por D. Ritchie Lenguaje de propósito general Portátil o transportable (generalmente) Inicialmente de niv

1. Presentación del lenguaje C Creado en 1972 por D. Ritchie Lenguaje de propósito general Portátil o transportable (generalmente) Inicialmente de niv Introducción al lenguaje C Informática Belarmino Pulido Junquera Índice 1. Presentación del lenguaje C 2. Estructura de un programa en C 3. Instrucciones del pre-procesador procesador 4. Tipos de datos

Más detalles

Programación. Test Autoevaluación Tema 3

Programación. Test Autoevaluación Tema 3 Programación Test Autoevaluación Tema 3 Autores: M. Paz Sesmero Lorente Paula de Toledo Heras Fco. Javier Ordoñez Morales Juan Gómez Romero José A. Iglesias Martínez José Luis Mira Peidro SOLUCIONES 1.

Más detalles

E s c u e l a P o l i t é c n i c a S u p e r i o r d e E l c h e

E s c u e l a P o l i t é c n i c a S u p e r i o r d e E l c h e EXAMEN DE SISTEMAS INFORMÁTICOS INDUSTRIALES (SOLUCIÓN PRÁCTICAS) La duración del examen es de 2 horas. JUNIO 2016 1. Escribir un programa en C++ y C,que mediante el uso de clases y métodos, pida al usuario

Más detalles

Sentencias iterativas

Sentencias iterativas Sentencias iterativas 1. Objetivos Al finalizar esta actividad, serás capaz de: 1. Utilizar adecuadamente la sentencia while para generar la repetición en la ejecución de grupos de sentencias 2. Motivación

Más detalles

Programación I Teoría II.

Programación I Teoría II. Programación I Teoría II http://proguno.unsl.edu.ar proguno@unsl.edu.ar MODULARIDAD FUNCIONES EN C Modularidad Principio para resolución de problemas: Dividir para reinar Modularidad Módulo Función Procedimiento

Más detalles

Los números naturales y enteros en el 80X86 y en LAN

Los números naturales y enteros en el 80X86 y en LAN Los números naturales y enteros en el 80X86 y en LAN 1. Los números naturales en el 80X86/TASM Representación Sistema de representación En el 80X86 (y en la mayoría de los procesadores), los números naturales

Más detalles

TIPOS DE DATOS ABSTRACTOS

TIPOS DE DATOS ABSTRACTOS TIPOS DE DATOS ABSTRACTOS PROGRAMACIÓN I ARISTIDES DASSO, ANA FUNES Área de Programación y Metodologías de Desarrollo del Software Departamento de Informática Facultad de Ciencias Físico-Matemáticas y

Más detalles

Introducción general al Lenguaje C (2010/2011)

Introducción general al Lenguaje C (2010/2011) Luis Valencia Cabrera lvalencia@us.es (http://www.cs.us.es/~lvalencia) Ciencias de la Computacion e IA (http://www.cs.us.es/) Introducción general al Lenguaje C (2010/2011) Universidad de Sevilla Índice

Más detalles

Ensamblador del Pentium

Ensamblador del Pentium Arquitectura de Ordenadores Juego de Instrucciones del Procesador Intel Pentium Abelardo Pardo abel@it.uc3m.es Universidad Carlos III de Madrid Departamento de Ingeniería Telemática Ensamblador del Pentium

Más detalles

Tema 13: Apuntadores en C

Tema 13: Apuntadores en C Tema 13: Apuntadores en C M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom Estructuras de datos (Prof. Edgardo A. Franco) 1 Contenido Introducción

Más detalles

ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA

ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA Tema 4: Familia x86 Carlos Garre 1 Familia x86 Contenidos Concepto de familia: la familia x86. Generaciones de la familia x86. Primera generación: 8086. Segunda generación: 80286. Tercera generación: 80386.

Más detalles

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia) 1 / 31

Más detalles

TEMA 2. LENGUAJE C. CONCEPTOS BÁSICOS Y PROGRAMACIÓN ELEMENTAL.

TEMA 2. LENGUAJE C. CONCEPTOS BÁSICOS Y PROGRAMACIÓN ELEMENTAL. Tema 2. TEMA 2. LENGUAJE C. CONCEPTOS BÁSICOS Y PROGRAMACIÓN ELEMENTAL. PARTE : VARIABLES, OPERADORES Y CONSTANTES.. INTRODUCCIÓN AL LENGUAJE C 2. PROGRAMAS BÁSICOS EN LENGUAJE C 3. DATOS EN LENGUAJE C

Más detalles

Es un lenguaje estructurado, tiene una abundante cantidad de operadores y tipos de datos.

Es un lenguaje estructurado, tiene una abundante cantidad de operadores y tipos de datos. Lenguaje C Un poco de historia C es un lenguaje de propósito general, es decir, se pueden desarrollar aplicaciones de diversas áreas. Dentro de sus principales características podemos mencionar que: Es

Más detalles

Mejoras en el Juego de Instrucciones

Mejoras en el Juego de Instrucciones Arquitectura (09/10) Mejoras en el Juego Instrucciones Procesadores CISC y RISC Procesadores SIMD Procesadores Matriciales Procesadores Vectoriales 1 Arquitectura (09/10) Influencia l Juego Instrucciones

Más detalles