Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas
|
|
|
- Trinidad San Segundo Paz
- hace 10 años
- Vistas:
Transcripción
1 Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas 19/10/10 1/33
2 Contenido Contenido Clusters Beowulf MPI (Message Passing Interface) Comunicación entre procesos Un programa simple con MPI Comunicación con bloqueo Comunicación sin bloqueo Ejecución en un cluster Depuración de programas MPI Algunos resultados MPI + OpenMP Sistemas grandes Preguntas? Bibliografía 2/33
3 Clusters Beowulf Clusters Beowulf Computadoras nodos escalvo Computadora nodo maestro Red externa Switch de red Características: Tecnología estandar Fáciles de instalar Costo reducido 3/33
4 Clusters Beowulf Existen sistemas operativos open source preparados para este tipo de arquitectura Rocks Clusters: PelicanHPC: Scientific Linux: También es posible utilizar Windows Windows HPC Server 2008: 4/33
5 Clusters Beowulf Cluster del CIMAT El Insurgente 5/33
6 MPI (Message Passing Interface) MPI (Message Passing Interface) Es una colección de funciones y programas para: Facilitar la comunicación entre procesos Ejecutar multiples veces un programa en un cluster Computadora Computadora Computadora Procesador Procesador Procesador Procesador Procesador Procesador Memoria Memoria Memoria Interfaz de red Interfaz de red Interfaz de red Switch de red Interfaz de red Interfaz de red Memoria Memoria Procesador Procesador Procesador Procesador Computadora Computadora Usualmente se ejecuta un proceso por core Tiene soporte para threads y además es posible combinarlo con OpenMP 6/33
7 MPI (Message Passing Interface) La comunicación entre procesos se realiza por medio de: Mensajes de red entre nodos (via ethernet, Myrinet, InfiniBand) Memoria compartida (polling) entre procesos en una misma computadora Mensajes por sockets locales entre procesos en una misma computadora Funciona con: C C++ Fortran 77/90/95 Es el estandard de facto para comunicaciones en clusters con aplicaciones al cómputo matemático. Implementaciones open source: MPICH2: OpenMPI: 7/33
8 Comunicación entre procesos Comunicación entre procesos Cada proceso se identifica por un número llamado rango. Desde el punto de vista del software un proceso puede enviar y recibir mensajes de/y hacia cualquier otro proceso: rango 1 rango 0 rango 2 rango N-1 rango 3 rango 4 8/33
9 Comunicación entre procesos El programador no se tiene que preocupar por el medio de comunicación. Cada nodo reserva memoria independientemente, MPI proporciona las funciones para copiar esa información a otros nodos y para recibir esa información. MPI tiene funciones para: Enviar datos nodo a nodo Recibir datos nodo a nodo Enviar datos a muchos nodos (broadcasting) Recibir datos de muchos nodos (reduction) Sincronización de procesos Lectura/escritura de datos en paralelo Manejo de threads Vamos a revisar brevemente 10 funciones básicas 4 de control y 6 de comunicación. 9/33
10 Un programa simple con MPI Un programa simple con MPI El ejemplo siguiente muestra el programa mínimo con MPI. #include <stdio.h> #include <mpi.h> int main(int argc, char** argv) { int size, rank; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &size); MPI_Comm_rank(MPI_COMM_WORLD, &rank); printf("hola mundo (size = %i, rank = %i)\n", size, rank); MPI_Finalize(); return 0; } 10/33
11 Un programa simple con MPI Compilación En Windows con GCC y MPICH2 gcc -o hola hola.cpp -l mpi En Linux con GCC y OpenMPI o MPICH2 mpicc -o hola hola.cpp Para programas en C++ mpicxx -o hola hola.cpp Ejecución El comando para ejecutar es mpiexec, hay que especificar el número de procesos y el path al programa mpiexec -n 5 hola 11/33
12 Un programa simple con MPI Funciones básicas MPI_Init(<pointer_to_int>, <pointer_to_char*>) Inicializa el proceso en MPI, bloquea la ejecución hasta que todos los procesos hayan sido inicializados. MPI_Comm_size(MPI_COMM_WORLD, <pointer_to_int>) Obtiene el número de procesos ejecutados en el grupo MPI_COMM_WORLD, éste es el grupo por default. Se pueden crear subgrupos de procesos. MPI_Comm_rank(MPI_COMM_WORLD, <pointer_to_int>) Obtiene el número de rango del proceso actual, los rangos van de 0 a size 1. MPI_Finalize() Termina la conección MPI, bloquea la ejecución hasta que todos los procesos terminen. 12/33
13 Comunicación con bloqueo Comunicación con bloqueo MPI_Send(<pointer_to_data>, <length>, <type>, <target>, <tag>, MPI_COMM_WORLD) Envia los datos en <pointer_to_data> de tamaño <length> y tipo <type> al proceso <target>. El identificador del mensaje es <tag> (un entero). MPI_Recv(<pointer_to_data>, <length>, <type>, <source>, <tag>, MPI_COMM_WORLD, MPI_STATUS_IGNORE) Recibe <length> datos de tipo <type> del proceso <source> y lo almacena en <pointer_to_data>. El identificador del mensaje es <tag> (un entero). La comunicación con bloqueo significa que la ejecución del proceso se para hasta que se envíe o reciba el mensaje. Los nombres predefinidos para los tipos de datos más comunes son: MPI_CHAR MPI_INT MPI_UNSIGNED MPI_LONG MPI_UNSIGNED_LONG MPI_FLOAT MPI_DOUBLE char int unsigned int long unsigned long float double 13/33
14 Comunicación con bloqueo El siguiente es un ejemplo de comunicación con bloqueo en el que el nodo con rango 0 actuará como maestro y los nodos con rangos 1 a N-1 actuarán como esclavos. El nodo maestro enviará un vector a cada nodo esclavo. rango 1 rango 0 rango 2 rango N-1 rango 3 rango 4 Cada esclavo tendrá que reservar memoria para el vector a recibir. 14/33
15 Comunicación con bloqueo #include <stdio.h> #include <stdlib.h> #include <mpi.h> else // Esclavos { int length; printf("slave (rank = %i)\n", rank); #define TAG_LENGTH 1 #define TAG_DATA 2 MPI_Recv(&length, 1, MPI_INT, 0, TAG_LENGTH, MPI_COMM_WORLD, MPI_STATUS_IGNORE); int main(int argc, char** argv) { int size; int rank; double* data = (double*)malloc(sizeof(double)*length); MPI_Recv(data, length, MPI_DOUBLE, 0, TAG_DATA, MPI_COMM_WORLD, MPI_STATUS_IGNORE); MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &size); MPI_Comm_rank(MPI_COMM_WORLD, &rank); if (rank == 0) // Maestro { printf("master (size = %i)\n", size); int length = 20; double* data = (double*)malloc(sizeof(double)*length); for (int r = 1; r < size; ++r) { MPI_Send(&length, 1, MPI_INT, r, TAG_LENGTH, MPI_COMM_WORLD); MPI_Send(data, length, MPI_DOUBLE, r, TAG_DATA, MPI_COMM_WORLD); } free(data); } free(data); } MPI_Finalize(); return 0; } 15/33
16 Comunicación sin bloqueo Comunicación sin bloqueo En el ejemplo siguiente es un esquema peer-to-peer. Cada nodo envía un mensaje al nodo con el siguiente rango. La comunicación no puede hacerse con bloqueo. Por qué? rango 1 rango 0 rango 2 rango N-1 rango 3 rango 4 16/33
17 Comunicación sin bloqueo En el siguiente código muestra la implementación de este ejemplo: #include <stdio.h> #include <stdlib.h> #include <mpi.h> int send_data; int recv_data; MPI_Request send_request; MPI_Request recv_request; #define TAG_MESSAGE 1 int main(int argc, char** argv) { int size; int rank; send_data = rank; MPI_Isend(&send_data, 1, MPI_INT, (rank + 1) % size, TAG_MESSAGE, MPI_COMM_WORLD, &send_request); MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &size); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Irecv(&recv_data, 1, MPI_INT, (rank + size - 1) % size, TAG_MESSAGE, MPI_COMM_WORLD, &recv_request); MPI_Waitall(1, &recv_request, MPI_STATUSES_IGNORE); printf("%2i recibio mensaje %i\n", rank, recv_data); MPI_Finalize(); return 0; } Introducimos el tipo de dato MPI_Request que es un identificador de solicitud. Sirve tanto para identificar solicitudes de envio o de recepción. 17/33
18 Comunicación sin bloqueo Las nuevas funciones utilizadas son: MPI_Isend(<pointer_to_data>, <length>, <type>, <target>, <tag>, MPI_COMM_WORLD, <pointer_to_request>) Solicita enviar <pointer_to_data> a <target>, con mensaje <tag>. La solicitud se almacena en <pointer_to_request> MPI_Irecv(<pointer_to_data>, <length>, <type>, <source>, <tag>, MPI_COMM_WORLD, <pointer_to_request>) Solicita recibir de <source> el mensaje <tag>, los datos se almacenarán en <pointer_to_data>. La solicitud se almacena en <pointer_to_request> MPI_Waitall(<request_count>, <pointer_to_requests>, MPI_STATUSES_IGNORE) Espera a que se completen todo un arreglo de solicitudes. 18/33
19 Comunicación sin bloqueo El siguiente es un ejemplo de una comunicación donde todos los nodos envian mensajes a todos los demás nodos. rango 1 rango 0 rango 2 rango N-1 rango 3 rango 4 Ahora necesitaremos arreglos de solicitudes (MPI_Request) para manejar las comunicaciones sin bloqueo. A continuación el código de este ejemplo: 19/33
20 Comunicación sin bloqueo #include <stdio.h> #include <mpi.h> else { send_request[r] = MPI_REQUEST_NULL; recv_request[r] = MPI_REQUEST_NULL; } #define TAG_MESSAGE 1 int main(int argc, char** argv) { int size; int rank; } int received = 0; do { int r; MPI_Waitany(size, recv_request, &r, MPI_STATUS_IGNORE); printf("%i recibio mensaje '%i' desde %i\n", rank, recv_data[r], r); ++received; } while (received < size - 1); MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &size); MPI_Comm_rank(MPI_COMM_WORLD, &rank); int* send_data = new int[size]; int* recv_data = new int[size]; delete [] recv_request; delete [] send_request; delete [] recv_data; delete [] send_data; MPI_Request* send_request = new MPI_Request[size]; MPI_Request* recv_request =new MPI_Request[size]; for (int r = 0; r < size; ++r) { if (r!= rank) { send_data[r] = rank* r; MPI_Isend(&send_data[r], 1, MPI_INT, r, TAG_MESSAGE, MPI_COMM_WORLD, &send_request[r]); MPI_Irecv(&recv_data[r], 1, MPI_INT, r, TAG_MESSAGE, MPI_COMM_WORLD, &recv_request[r]); } MPI_Finalize(); return 0; } 20/33
21 Comunicación sin bloqueo La nueva función utilizada es: MPI_Waitany(<request_count>, <pointer_to_requests>, <pointer_to_int>, MPI_STATUS_IGNORE) Espera a que se complete una solicitud de un arreglo de solicitudes. El número de solicitud cumplida se almacena en <pointer_to_int>. 21/33
22 Ejecución en un cluster Ejecución en un cluster Necesitamos un archivo hosts compute-0-0 compute-0-1 compute-0-2 compute-0-3 compute-0-4 Ejemplo de archivo de hosts La ejecución sería con: mpiexe -n 5 -hostfile hosts <ejecutable> De esta forma se ejecutaría una instancia del programa (proceso) en cada computadora. 22/33
23 Ejecución en un cluster Multiples procesos por nodo Es posible ejecutar varios procesos por nodo. Usando MPICH2 necesitamos un archivo machines compute-0-0:1 compute-0-1:4 compute-0-2:4 compute-0-3:4 compute-0-4:4 La ejecución sería: mpiexe -n 17 -machinefile machines <ejecutable> Usando OpenMPI se usa el archivo hosts con el formato: compute-0-0 slots=1 compute-0-1 slots=4 compute-0-2 slots=4 compute-0-3 slots=4 compute-0-4 slots=4 La ejecución sería: mpiexe -n 17 -hostfile hosts <ejecutable> 23/33
24 Ejecución en un cluster El estado del cluster 24/33
25 Depuración de programas MPI Depuración de programas MPI Depurar programas con MPI puede ser difícil, procesos ejecutándose en varias computadoras al mismo tiempo, muchos gigabytes de información, problemas de sincronización, etc. La forma más simple de hacer esto es hacer que los programas impriman mensajes. Hay debugers comerciales: TotalView (GNU-Linux/Unix) Microsoft Visual Studio Professional Edition (Windows) También puede hacerse con herramientas gratuítas/libres como el GNU Debugger (GDB) y el Microsoft Visual Studio Express Edition. A continuación vamos a mostrar varios trucos para depurar programas con MPI. Estos trucos solo funcionarán con unos pocos procesos (probablemente menos de cinco) ejecutándose en le misma computadora. Esto puede ser suficiente para pruebas conceptuales del código. 25/33
26 Depuración de programas MPI GNU-Linux/Unix Tenemos que ejecutar el GDB de tal manera que sea éste el que llame nuestro programa. Para hacer esto visualmente más cómodo, vamos a ejecutar cada instacia del GDB en una ventana diferente. Primero hay que crear un archivo con los comandos para inicializar el GDB. Por ejemplo, el archivo gdb.txt pone breakpoints en las funciones Master y Slave, además ejecutará el programa utilizando in.dat y out.dat como argumentos. b Master b Slave r in.dat out.dat Para correr tres instancias de un programa llamando al GDB tres veces, cada una en una terminal diferente: mpiexec -n 3 xterm -e gdb -q -tui -x gdb.txt./programa 26/33
27 Depuración de programas MPI La siguiente imagen muestra la ejecución de este ejemplo: 27/33
28 Depuración de programas MPI Windows Tenemos que ejecutar el Visual Studio varias veces, una vez por cada instancia del programa. Para depurar es necesario que el código fuente del programa esté ubicado en el directorio donde se compilo el programa. Hay que crear un archivo batch que contenga los parametros, la ruta del ejecutable, off set MPI = "c:\program Files\MPICH2\bin\mpiexec.exe" set IDE = "c:\program Files\Visual Studio\Common7\IDE\VCExpress.exe" set EXE = "c:\development\program.exe" set IN = "c:\development\test\in.dat" set OUT = "c:\development\test\out.dat" %MPI% -n 3 %IDE% /SafeMode /debugexe %EXE% %IN% %OUT% La base de datos de símbolos del programa (archivo.pdb) debe estar en el mismo directorio que el ejecutable. 28/33
29 Depuración de programas MPI La siguiente imagen muestra la ejecución de este ejemplo: 29/33
30 Algunos resultados MPI + OpenMP Algunos resultados MPI + OpenMP Number of threads Total time [s] Edificio 3 264, , ,684 69,255,522 1e Parallel cholesky Total iterations Iteration time [s] Time [s] Problem: Dimension: Elements: Nodes: Variables: nnz(a): Global tolerance Partitions Overlapping Solver La memoria total: 13,438,244,806 [bytes] Memoria nodo maestro: 308,703,548 [bytes] Memoria en nodos esclavo: 486,279,305 [bytes] Threads 30/33
31 Sistemas grandes Sistemas grandes Ecuaciones 3,970,662 14,400,246 32,399,048 41,256,528 63,487,290 78,370,466 82,033,206 Tiempo [h] Memoria [GB] Procesadores PCs Tiempo [horas] ,970,662 14,400,246 32,399,048 41,256,528 63,487,290 78,370,466 82,033,206 Número de ecuaciones 31/33
32 Preguntas? Preguntas? 32/33
33 Bibliografía Bibliografía [Ster95]T. Sterling, D. J. Becker, D. Savarese, J. E. Dorband, U. A. Ranawake, C. V. Packer. BEOWULF: A Parallel Workstation For Scientific Computation. Proceedings of the 24th International Conference on Parallel Processing, [MPIF08]Message Passing Interface Forum. MPI: A Message-Passing Interface Standard, Version 2.1. University of Tennessee, /33
Cómputo en paralelo con MPI
Cómputo en paralelo con MPI Miguel Vargas-Félix [email protected] CIMAT, October 9, 2015 1/35 Clusters Beowulf Master node External network Slave nodes Network switch Características: Tecnología estandar
Brevísimo tutorial de MPI (Message Passing Interface) MC. Miguel Vargas Félix
Brevísimo tutorial de MPI (Message Passing Interface) MC. Miguel Vargas Félix [email protected] http://www.cimat.mx/~miguelvargas 19/10/10 1/34 Contenido Contenido Clusters Beowulf MPI (Message Passing
MPI es un estándar de programación en paralelo mediante paso de mensajes que permite crear programas portables y eficientes.
Programación paralela en MPI MPI es un estándar de programación en paralelo mediante paso de mensajes que permite crear programas portables y eficientes. Introducción a MPI MPI fue creado en 1993 como
Programación en Paralelo con MPI en Clusters Linux
Programación en Paralelo con MPI en Clusters Linux Francisco Javier Rodríguez Arias 13 de marzo de 2006 Problema y Motivación En física se requiere hacer muchos cálculos. Para eso se hacen programas de
Introduccion al Lenguaje C. Omar Andrés Zapata Mesa Grupo de Fenomenología de Interacciones Fundamentales, (Gfif) Universidad de Antioquia
Introduccion al Lenguaje C Omar Andrés Zapata Mesa Grupo de Fenomenología de Interacciones Fundamentales, (Gfif) Universidad de Antioquia Introducción C es un lenguaje de programación creado en 1972 por
Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca
Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca A.Zamudio M. Milla Contenido de la Presentación 1 Radio Observatorio de Jicamarca 2 3 4 5 6 Índice
Descomposición de dominios
Descomposición de dominios Miguel Vargas 27/10/10 1/29 Contenido Contenido Solución de ecuaciones diferenciales con descomposición de dominios Dominios sin traslape, complemento de Schur Método alternante
Objetivo: Introducción conceptual y aplicación básica de los lenguajes del lado del servidor.
Sesión 03: Lenguajes web del servidor Competencias a Conseguir: - Conocer el entorno de trabajo a nivel de servidores web. - Instalación del localhost (Servidor Local). - Repaso general de PHP y ejercicios
Tutorial: Primeros Pasos con Subversion
Tutorial: Primeros Pasos con Subversion Introducción Subversion es un sistema de control de versiones open source. Corre en distintos sistemas operativos y su principal interfaz con el usuario es a través
Computacion de Alto Performance
Computacion de Alto Performance Abraham Zamudio Abraham Zamudio Computacion de Alto Performance 1/47 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH
Arquitectura de Computadores: Exámenes y Controles
2º curso / 2º cuatr. Grado en Ing. Informática Doble Grado en Ing. Informática y Matemáticas Arquitectura de Computadores: Exámenes y Controles Examen de Prácticas AC 05/07/2013 resuelto Material elaborado
UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 19 de junio de 2007
UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 19 de junio de 2007 Para la realización del presente examen se dispondrá de 2 1/2
INTRODUCCIÓN A LA PROGRAMACIÓN DE COMPUTADORES DE MEMORIA DISTRIBUIDA USANDO MPI SISTEMAS PARALELOS Y DISTRIBUIDOS
INTRODUCCIÓN A LA PROGRAMACIÓN DE COMPUTADORES DE MEMORIA DISTRIBUIDA USANDO MPI 1 Y DISTRIBUIDOS GRADO EN INGENIERÍA INFORMÁTICA INGENIERÍA DE COMPUTADORES ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA
Preliminares. Tipos de variables y Expresiones
Preliminares. Tipos de variables y Expresiones Felipe Osorio Instituto de Estadística Pontificia Universidad Católica de Valparaíso Marzo 5, 2015 1 / 20 Preliminares Computadoras desarrollan tareas a un
Novedades en Q-flow 3.02
Novedades en Q-flow 3.02 Introducción Uno de los objetivos principales de Q-flow 3.02 es adecuarse a las necesidades de grandes organizaciones. Por eso Q-flow 3.02 tiene una versión Enterprise que incluye
Tema: Arreglos de Objetos en C++.
Programación II. Guía 5 1 Facultad: Ingeniería Escuela: Computación Asignatura: Programación II Tema: Arreglos de Objetos en C++. Objetivos Específicos Describir la implementación de arreglos de Objetos.
Identificadores, palabras reservadas, tipos de datos, operadores aritméticos y el sistema estándar de salida en Java
Identificadores, palabras reservadas, tipos de datos, operadores aritméticos y el sistema estándar de salida en Java Identificadores Las variables se utilizan en programación para almacenar temporalmente
Paso de Borland Turbo C (bajo DOS) a Anjuta (Linux) 1.
Paso de Borland Turbo C (bajo DOS) a Anjuta (Linux) 1. Anjuta es un entorno de desarrollo de C que podemos encontrar en cualquier distribución de GNU/Linux. Si nuestra distribución no dispone de ella,
SOLUCION EXAMEN junio 2006
SOLUCION EXAMEN junio 2006 1. Explique razonadamente si las siguientes afirmaciones son verdaderas o falsas: I) (1 p) En UNIX únicamente se distinguen dos tipos de procesos: los procesos de usuario y los
SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 9 Departamento de Arquitectura y Tecnología de Computadores Universidad de Sevilla
SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC. PRÁCTICA 9 Departamento de Arquitectura y Tecnología de Computadores Universidad de Sevilla PROGRAMACIÓN DE COMPUTADORES DE MEMORIA DISTRIBUIDA USANDO MPI. PREPARACIÓN
Introducción a la Programación en MATLAB
Introducción a la Programación en MATLAB La programación en MATLAB se realiza básicamente sobre archivos M, o M-Files. Se los denomina de esta forma debido a su extensión.m. Estos archivos son simple archivos
El lenguaje de Programación C. Fernando J. Pereda <[email protected]>
El lenguaje de Programación C Fernando J. Pereda Por qué aprender C? Portable y muy extendido Estándar (C89, C99) El lenguaje de los sistemas Un lenguaje fácil (no, no es broma) Por
Instalación de Winisis en Windows 8 (64 bits) usando Virtual Box Oracle Ernesto Spinak 10/07/2013 borrador 1
Instalación de Winisis en Windows 8 (64 bits) usando Virtual Box Oracle Ernesto Spinak 10/07/2013 borrador 1 Introducción Winisis es una aplicación Windows que usa librerías de programación para sistemas
Bienvenidos a la presentación, producción de informes y depuración (debugging). En esta unidad discutiremos la producción de informes utilizando la
Bienvenidos a la presentación, producción de informes y depuración (debugging). En esta unidad discutiremos la producción de informes utilizando la tecnología.net y la aplicación de técnicas de depuración
Instalación de OpenMPI
Instalación de OpenMPI Programación Distribuida y Paralela Universidad de Granada Departamento del LSI Por: Daniel Guerrero Martínez Sergio Rodríguez Lumley 1 Índice de contenido Instalación de OpenMPI...3
Familia de Windows Server 2003
Familia de Windows Server 2003 Windows Server 2003 está disponible en cuatro ediciones. Cada edición se ha desarrollado para una función de servidor específica, como se describe en la tabla siguiente:
Capítulo 3 Usando GUIDE. 3.1 Acerca de GUIDE
Capítulo 3 Usando GUIDE 3.1 Acerca de GUIDE Las interfaces gráficas de usuario (GUI - Graphical User Interface en inglés), es la forma en que el usuario interactúa con el programa o el sistema operativo
Apéndice 5 Manual de usuario de ColeXión. ColeXión 1.0. Manual de usuario
Apéndice 5 Manual de usuario de ColeXión ColeXión 1.0 Manual de usuario Índice 1. Qué es ColeXión?... 2 2. Requerimientos del sistema... 3 3. Instalación de ColeXión... 3 4. Creación de un nuevo esquema...
FUNDAMENTOS DE PROGRAMACION CON C#
Capítulo 1 FUNDAMENTOS DE PROGRAMACION CON C# El lenguaje C# C# (léase, en inglés C sharp, y en español C almohadilla) es un lenguaje de programación que permite el desarrollo de aplicaciones para Internet,
LABORATORIO 9. Replicación de base de datos en SQL Server
LABORATORIO 9. Replicación de base de datos en SQL Server GUÍA DE LABORATORIO Nº 9 Actividad de Proyecto No. 11: ESTABLECER PLANES DE SINCRONIZACIÓN PARA BASE DE DATOS Y OBJETOS DISTRIBUIDOS. Estructura
Programación Orientada a Objetos con Java
Programación Orientada a Objetos con Java M.C. Jorge Eduardo Ibarra Esquer [email protected] Sobrecarga de métodos Java permite la definición de dos o más métodos que tengan el mismo nombre, dentro de la
Creación y administración de grupos de dominio
Creación y administración de grupos de dominio Contenido Descripción general 1 a los grupos de Windows 2000 2 Tipos y ámbitos de los grupos 5 Grupos integrados y predefinidos en un dominio 7 Estrategia
Cluster Beowulf/MPI en Debian
1- Configuración de la red: Cluster Beowulf/MPI en Debian En este artículo utilizamos la topología estrella para la configuración del Cluster. La configuración lo haremos suponiendo que ya tenemos una
1. Visualización de datos con Octave
1. Visualización de datos con Octave Versión final 1.0-19 agosto 2002 Octave es un poderoso software de cálculo numérico. En este documento explicamos un subconjunto realmente pequeño de sus comandos,
Introducción a PHP. * No es necesario declarar previamente las variables.
Introducción a PHP La programación de sitios web cada día está más orientada al desarrollo de páginas dinámicas y aplicaciones, o sea sitios donde el usuario pueda interactuar con la web. Dentro de los
Arquitectura de sistema de alta disponibilidad
Mysql Introducción MySQL Cluster esta diseñado para tener una arquitectura distribuida de nodos sin punto único de fallo. MySQL Cluster consiste en 3 tipos de nodos: 1. Nodos de almacenamiento, son los
Práctica 00: Compilador
Práctica 00: Compilador El objetivo de esta práctica es aprender a utilizar el compilador y el entorno de desarrollo instalado en las aulas de la Escuela Técnica Superior de Ingeniería ICAI. 1. Compiladores
Instalación del Software Magaya
Instalación del Software Magaya INSTALACIÓN DEL SOFTWARE MAGAYA INTRODUCCIÓN A LA INSTALACIÓN DEL SOFTWARE MAGAYA Introducción a la Instalación del Software Magaya Este tema de instalación explica las
El lenguaje C. #define MAX LINEA 1000 /* maximo tamanio de linea de entrada */
Principios de Programación El lenguaje C 1. Variables locales y globales 1.1. Variables locales Las funciones permiten al programador modularizar un programa. Todas las variables declaradas en las definiciones
Computación Matricial y Paralela
Computación Matricial y Paralela Programación híbrida Javier Cuenca Dpto. de Ingeniería y Tecnología de Computadores Domingo Giménez Dpto. de Informática y Sistemas Universidad de Murcia http://dis.um.es/~domingo
Entre los más conocidos editores con interfaz de desarrollo tenemos:
Herramientas de programación Para poder programar en ensamblador se precisa de algunas herramientas básicas, como un editor para introducir el código, un ensamblador para traducir el código a lenguaje
DBSURE. Disponemos de una copia de la base de datos de forma remota, que podemos contabilizar como segundo juego de copias.
DBSURE Introducción Una base de datos Oracle en Standby es una copia exacta de una base de datos operativa en un servidor remoto, usada como backup, como copia para consulta, recuperación de desastres,
Prof. Dr. Paul Bustamante
Prácticas de C++ Practica Nº 10 Informática II Fundamentos de Programación Prof. Dr. Paul Bustamante INDICE 1.1 EJERCICIO 1: MI PRIMER FICHERO EN BINARIO... 1 1.2 EJERCICIO 2: LEYENDO MI PRIMER FICHERO
Lenguaje de Programación: Go
Centro de Investigación y de Estudios Avanzados del I.P.N 9 de Noviembre de 2011 Go Es un lenguaje de programación de propósito general que es promovido por: Rob Pike, Robert Griesemer, Ken Thompson, Russ
Sistemas Operativos Windows 2000
Sistemas Operativos Contenido Descripción general 1 Funciones del sistema operativo 2 Características de 3 Versiones de 6 Sistemas Operativos i Notas para el instructor Este módulo proporciona a los estudiantes
Anexo B. Comunicaciones entre mc y PC
Anexo B Comunicaciones entre mc y PC En este apartado se hará hincapié en los comandos para el manejo del módulo de comunicaciones desde el PC. Conociendo estos comando se podrá realizar una aplicación
Introducción a la programación orientada a objetos
Introducción a la programación orientada a objetos 1. Introducción a la programación orientada a objetos 2. Las clases 3. El tipo Struct 4. Diferencias entre Class y Struct 5. Pilares de la Programación
PRESENCIAL TEMAS 5 Y 6 SAD. Victor Martin
PRESENCIAL TEMAS 5 Y 6 SAD Victor Martin Índice a) TEMA 5 PROXY... 2 Que líneas tengo que poner en el fichero de configuración de SQUID para:... 2 b) TEMA 6... 4 1) Describir los elementos que forman parte
Instalación de cygwin-x. Pablo Sanz Mercado.
Instalación de cygwin-x. Pablo Sanz Mercado. 1 Cuando utilizamos un ordenador con sistema operativo Microsoft para acceder a recursos de sistemas Linux, por ejemplo si queremos acceder a los recursos de
Punteros. Definición Un puntero es un dato que contiene una dirección de memoria.
Punteros Definición Un puntero es un dato que contiene una dirección de memoria. NOTA: Existe una dirección especial que se representa por medio de la constante NULL (definida en ) y se emplea
DOCENTES FORMADORES UGEL 03 PRIMARIA
DOCENTES FORMADORES UGEL 03 PRIMARIA 1. Recursos y Aplicaciones del Servidor La página de inicio del servidor (http://escuela) contiene los enlaces a las aplicaciones instaladas en el servidor, un enlace
Guía de instalación y configuración de IBM SPSS Modeler Social Network Analysis 16
Guía de instalación y configuración de IBM SPSS Modeler Social Network Analysis 16 Contenido Capítulo 1. Introducción a IBM SPSS Modeler Social Network Analysis.... 1 Visión general de IBM SPSS Modeler
Universidad Tecnológica del Valle del Mezquital. Desarrollo de Aplicaciones Web. Manual JSP
Universidad Tecnológica del Valle del Mezquital Desarrollo de Aplicaciones Web Manual JSP Presentado por: Amellaly Perez Ramirez Ana Maday Perez Montoya Eduardo Perez Ignacio Jairo Mohedano Mejia Maricela
Entorno de Programación Visual Studio 6
Entorno de Programación Visual Studio 6 Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria [email protected] Programación en C 1 Proceso de Programación Edición
Instalación de un nodo (cliente) - GIA
Instalación de un nodo (cliente) - GIA Instalación de un puesto cliente GIA Opcion 1 - (Para aquellos clientes que ya tienen otros nodos configurados) 1- Copiar la carpeta Borland desde un equipo que este
INSTALACIÓN DEL PROGRAMA
En caso que le marque la instalación error por falta de algún archivo, ir a las páginas de la 10 a la 13, Nota. INSTALACIÓN DEL PROGRAMA 1. Coloque el CD en la unidad correspondiente. 2. Abrir el explorador
Sistema de Captura Electrónica
Sistema de Captura Electrónica Instructivo de Instalación y Configuración de Lote Server a PC Versión del Documento v2.01 INDICE INDICE... 2 Consideraciones generales de las aplicaciones... 4 Especificaciones
MANUAL DE INSTALACIÓN DEL SISTEMA LMS LMS: LEARNING MANAGEMENT SYSTEM
ANEXO A MANUAL DE INSTALACIÓN DEL SISTEMA LMS LMS: LEARNING MANAGEMENT SYSTEM 1 Modelo de implementación del sistema LMS en ASP.NET El modelo de implementación usado para el sistema LMS esta basado simplemente
Información del Producto: XenData X1500 LTO-5 Digital Video Archive System
Información del Producto: XenData X1500 LTO-5 Digital Video Archive System Actualizado: 23 de mayo de 2012 Presentación El sistema XenData X1500 proporciona archivo rentable de ficheros de video en cintas
Cómo compilar y ejecutar programas en ĺınea de comandos
Cómo compilar y ejecutar programas en ĺınea de comandos Universidad Complutense de Madrid I.E.S. Antonio de Nebrija (Móstoles) http://www.programa-me.com 1 Cómo compilar y ejecutar programas en línea de
TP 0 - Implementación de codificador y estructura básica. BitsTranslation. 1.0
TP 0 - Implementación de codificador y estructura básica. BitsTranslation. 1.0 Gabriel Ostrowsky, Padrón Nro. 90.762 [email protected] Juan Manuel Gonzalez Durand, Padrón Nro. 91.187 [email protected]
Uso de Visual C++ Pre-Practica No. 3
Pre-Practica No. 3 Uso de Visual C++ Microsoft Visual C++ 2010 es una versión de Visual Studio específica para el lenguaje de programación C++. Es un entorno de desarrollo muy completo y profesional. Por
General Parallel File System
General Parallel File System Introducción GPFS fue desarrollado por IBM, es un sistema que permite a los usuarios compartir el acceso a datos que están dispersos en múltiples nodos; permite interacción
Sistemas Operativos Práctica 3
Sistemas Operativos Práctica 3 Ing. Andrés Bustamante [email protected] Ingeniería de Sistemas Facultad de Ingeniería Universidad de la Amazonia 2009 1. Objetivo El objetivo de la práctica es que
INDICE. 1. Introducción... 4. 2. El panel Entities view... 5. 3. El panel grafico... 6. 4. Barra de botones... 6. 4.1. Botones de Behavior...
MANUAL DE USUARIO INDICE 1. Introducción... 4 2. El panel Entities view... 5 3. El panel grafico... 6 4. Barra de botones... 6 4.1. Botones de Behavior... 7 4.2. Botones de In-agents... 8 4.3. Botones
Almacenamiento virtual de sitios web HOSTS VIRTUALES
Almacenamiento virtual de sitios web HOSTS VIRTUALES El término Hosting Virtual se refiere a hacer funcionar más de un sitio web (tales como www.company1.com y www.company2.com) en una sola máquina. Los
Elementos requeridos para crearlos (ejemplo: el compilador)
Generalidades A lo largo del ciclo de vida del proceso de software, los productos de software evolucionan. Desde la concepción del producto y la captura de requisitos inicial hasta la puesta en producción
"Binary Diffing" visual en Linux con Radare2 "UNA IMAGEN DICEN MÁS QUE MIL PALABRAS"
"Binary Diffing" visual en Linux con Radare2 Binary Diffing o simplemente Bindiffing es una técnica utilizada para la visualización de código (mayormente en ensamblador) y así detectar patrones de conducta,
Manual de usuario de IBAI BackupRemoto
Manual de usuario de IBAI BackupRemoto Índice Cliente de IBAI BackupRemoto... 3 Descarga del cliente de IBAI BackupRemoto... 4 Instalación del cliente de IBAI BackupRemoto... 5 Instalación sobre Microsoft
Acronis License Server. Guía del usuario
Acronis License Server Guía del usuario TABLA DE CONTENIDO 1. INTRODUCCIÓN... 3 1.1 Generalidades... 3 1.2 Política de licencias... 3 2. SISTEMAS OPERATIVOS COMPATIBLES... 4 3. INSTALACIÓN DE ACRONIS LICENSE
Instrucciones de instalación de IBM SPSS Modeler Server 16 para Windows
Instrucciones de instalación de IBM SPSS Modeler Server 16 para Windows Contenido Instrucciones para la instalación.... 1 Requisitos del sistema........... 1 Instalación............... 1 Destino...............
SIIGO PYME PLUS. Proceso de Recuperación. Cartilla I
SIIGO PYME PLUS Proceso de Recuperación Cartilla I Tabla de Contenido 1. Presentación 2. Qué es el Proceso de Recuperación? 3. Cuál es el Objetivo del Proceso de Recuperación? 4. Cuáles son los Pasos que
Agente local Aranda GNU/Linux. [Manual Instalación] Todos los derechos reservados Aranda Software www.arandasoft.com [1]
Todos los derechos reservados Aranda Software www.arandasoft.com [1] Introducción El Agente Aranda para sistemas Linux se encarga de recolectar la siguiente información en cada una de las estaciones de
OPTICAL DISC ARCHIVE FILE MANAGER ODS-FM1
OPTICAL DISC ARCHIVE FILE MANAGER ODS-FM1 (for ODS-L10) INSTALLATION GUIDE [Spanish] 1st Edition Marcas comerciales Microsoft, Windows e Internet Explorer son marcas comerciales registradas de Microsoft
Manual de Instalación. Sistema FECU S.A.
Manual de Instalación Sistema FECU S.A. Índice Requerimientos de hardware... 3 Requerimientos de software... 3 Bajar programas desde Internet... 4 Manual de Usuario... 5 Archivos de instalación FECU S.A....
Introducción a las redes de computadores
Introducción a las redes de computadores Contenido Descripción general 1 Beneficios de las redes 2 Papel de los equipos en una red 3 Tipos de redes 5 Sistemas operativos de red 7 Introducción a las redes
Instalación de un Super-Servidor de procesamiento paralelo basado en MPI
LABORATORIO: Simulación y Mecánica Computacional TRABAJO: Instalación de un Super-Servidor de procesamiento paralelo basado en MPI Idioma: Español Plataforma de Hardware: AMD64 Sistema Operativo: Debian
MANUAL PARA CREAR UNA RED CON MAQUINAS VIRTUALES
MANUAL PARA CREAR UNA RED CON MAQUINAS VIRTUALES GUÍA DE LABORATORIO Nº 9 Actividad de Proyecto No. 11: ESTABLECER PLANES DE SINCRONIZACIÓN PARA BASE DE DATOS Y OBJETOS DISTRIBUIDOS. Estructura de contenidos.
Capítulo 1 Introducción a la Computación
Capítulo 1 Introducción a la Computación 1 MEMORIA PRINCIPAL (RAM) DISPOSITIVOS DE ENTRADA (Teclado, Ratón, etc) C P U DISPOSITIVOS DE SALIDA (Monitor, Impresora, etc.) ALMACENAMIENTO (Memoria Secundaria:
AGREGAR UN EQUIPO A UNA RED Y COMPARTIR ARCHIVOS CON WINDOWS 7
Tutoriales de ayuda e información para todos los niveles AGREGAR UN EQUIPO A UNA RED Y COMPARTIR ARCHIVOS CON WINDOWS 7 Como agregar a una red existente un equipo con Windows 7 y compartir sus archivos
1. Manejo de memoria estática 2. Manejo de memoria dinámica
1. Manejo de memoria estática 2. Manejo de memoria dinámica *La administración de memoria de una computadora es una tarea fundamental debido a que la cantidad de memoria es limitada. *El sistema operativo
RESUMEN DE CONCEPTOS BASICOS DE PROGRAMACION JAVA
UNED Centro Asociado de Cádiz RESUMEN DE CONCEPTOS BASICOS DE PROGRAMACION JAVA 1. OBJETOS Cualquier elemento del programa es un objeto. Un programa es un conjunto de objetos que se comunican entre sí
CAPITULO 9. Diseño de una Base de Datos Relacional Distribuida
9.1 Operaciones CAPITULO 9 Diseño de una Base de Datos Relacional Distribuida Las consultas distribuidas obtienen acceso a datos de varios orígenes de datos homogéneos o heterogéneos. Estos orígenes de
Tutorial de Eclipse CDT
Tutorial de Eclipse CDT Instalación y manejo básico para proyectos de C/C++ en Linux Preparado por: Mauricio Vásquez Revisado por: Sebastián Isaza
Cómputo en paralelo con OpenMP 1
Cómputo en paralelo con OpenMP 1 Miguel Vargas-Félix [email protected] http://www.cimat.mx/~miguelvargas CIMAT, September 2, 2015 1/34 Velocidad de los procesadores de escritorio Recientemente, la
Como ejecutar el programa PRUF. Cía. HASAR saic
-- Programa pruf.exe -- 1 Uso dell prrogrrama PRUF..EXE El programa pruf.exe ha sido pensado para que resulte un buen asistente para el programador durante la etapa de desarrollo y/o adaptación de su aplicación,
Manual del programador
Apéndice A Manual del programador A.1. Introducción En este capítulo vamos a dar un repaso general a toda la estructura que compone la aplicación de forma que el usuario se familiarice con ella y sobre
APROVECHAR LA BASE DE DATOS BIBLIOGRÁFICOS REBECA CON EL PRO- GRAMA ABIES.
APROVECHAR LA BASE DE DATOS BIBLIOGRÁFICOS REBECA CON EL PRO- GRAMA ABIES. QUÉ ES REBECA? REBECA es una base de datos que contiene registros bibliográficos en formato Ibermarc. Está concebida como una
Proyecto 3 Programación de aplicaciones Cliente/Servidor
Universidad Simón Bolívar Departamento de Computación y T.I. Taller de Redes de Computadoras I Enero-Marzo 2010 Proyecto 3 Programación de aplicaciones Cliente/Servidor Objetivos: Modificar el proyecto
Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows
Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows Lo primero que hay que tener en cuenta para poder hacer nuestro primer programa en C++ es que necesitamos ciertas herramientas
Organización del Centro de Cálculo
Organización del Centro de Cálculo Problemas Septiembre 2007 40 servidores sin identificar Ubicación de Servidores aleatoria Servidores cayéndose constantemente Ni un servidor en rack Red y cableado a
Acceso al Disco Compartido y Dispositivos USB y DVD
Acceso al Disco Compartido y Dispositivos USB y DVD Los Técnicos Académicos de las carreras de Matemáticas y Actuaría del Departamento de Matemáticas en el Tlahuizcalpan, ponen a su disposición este mini-manual,
DATOS EN SERVIDOR DE RED PROCEDIMIENTO PARA INSTALACIÓN Y CONFIGURACIÓN DE BASES DE DATOS EN SERVIDORES DE RED
DATOS EN SERVIDOR DE RED PROCEDIMIENTO PARA INSTALACIÓN Y CONFIGURACIÓN DE BASES DE DATOS EN SERVIDORES DE RED 23/10/2012 Maldonado Software MSW MM[Escribir texto] Página 0 PRERREQUISITOS INSTALACIÓN DE
Capítulo 5 Programación del algoritmo en LabVIEW
Programación del algoritmo en LabVIEW En este capítulo se describen las funciones que se emplearon para implementar el control PID wavenet en LabVIEW. El algoritmo wavenet fue implementado en LabVIEW para
