46 HP ProLiant SL165z G7 Compute node (node configuration)

Tamaño: px
Comenzar la demostración a partir de la página:

Download "46 HP ProLiant SL165z G7 Compute node (node configuration)"

Transcripción

1 Características Acceso Envío de trabajos Sistema de ficheros Compiladores Características: Hardware El sistema SVG instalado en el CESGA está formado por: 40 servidores blade: 36 DELL PE 1955 con doble procesador quad-core Intel Xeon 5310 a 1.6GHz con 4GB de memoria principal y un disco de 72GB SAS a 10,000rpm y 4 servidores blade DELL PE 1955 con doble procesador quad-core Intel Xeon 5355 a 2.66GHz con 8GB de memoria principal y dos discos de 72GB SAS a 10,000rpm. Todos estos nodos están interconectados mediante Gigabit Ethernet a un servidor de datos 2950 con 2 procesadores Xeon 5130 a 2GHz y 4GB de memoria e 1800GB de disco SCSI en configuración RAID 5 Actualización 2011 En Marzo 2011 se ha puesto en produccion la siguiente ampliacion del sistema: 46 HP ProLiant SL165z G7 Compute node (node configuration) Processor Memory Storage Networking 2 x AMD Opteron Processor GHz, 12MB Level 3 Cache, 80W, 12 cores per processor 32 GB (17 nodes) & 64 GB (27 nodes) 1 x 500GB 3G SATA 7.2K NHP 2 Embedded Dual Port Intel 1GbE NICs (4 total NICs) 4 HP DL 385 G7 - Visualization node (node configuration) Processor Memory Storage 2 x AMD Opteron Processor Model GHz, 12MB Level 3 Cache, 80W 64 GB PC3-1333R 1 x 2TB 3G SATA 7.2K NHP

2 46 HP ProLiant SL165z G7 Compute node (node configuration) Networking Vis. Card 2 Embedded Dual Port Intel 1GbE NICs (4 total NICs) ATI Firepro V7800 Total Processor Memory Storage Networking Performance Power consumption CPU hours Perf./KW 1,200 cores 2.2GHz 2,400 GB 31 TB NFS GbE & Dedicated MPI GbE 10,240 GFlops 21KW 10 Million hours 487GFlops/KW Acceso: Se accede al sistema a través de svgd.cesga.es siguiendo las instrucciones que se detallan a continuación: 1. Conectarse a svgd.cesga.es de la forma habitual 2. Lanzar una sesión interactiva: compute --arch amd 3. Cargar los modulos necesarios de compiladores, aplicaciones, etc. NOTAS: module av muestra los modulos disponibles module help <módulo> muestra una ayuda básica sobre como utilizar el módulo Envío de trabajos al sistema de colas: El envio de trabajos es similar al anterior svg. Trabajos secuenciales:

3 qsub -l arch=amd,num_proc=1,s_rt=10:00:00,s_vmem=2g,h_fsize=20g trabajo.sh Trabajos paralelos: qsub -l arch=amd,num_proc=1,s_rt=010:00:00,s_vmem=2g,h_fsize=20g -pe mpi 6 test.sh Debe tenerse en cuenta que los trabajos paralelos se ejecutan dentro de un único nodo y por tanto están restringidos a 24 slots mpi como máximo. Los limites son los siguientes (por trabajo): Maxima cantidad de memoria: 63GB Maximo numero de cores: 24 Maximo tamaño de scratch: 700GB Sistemas de ficheros: El sistema SFS esta accesible desde la actualizacion del SVG a traves del directorio /sfs/$home Para transferir datos entre Finis Terrae y SVG, el home del SVG esta accesible desde el Finis Terrae en el directorio $HOMESVG Compiladores y herramientas de desarrollo: Combinaciones de compiladores, librerías BLAS/LAPACK y MPI disponibles: Compiladores Open64. OPEN64 (RECOMENDADO) Compiladores de PGI. PGI Compiladores de intel. Intel Compiladores GNU. GNU OPEN64 (RECOMENDADO): Para utilizar los compiladores de Open64 debe cargarse el módulo correspondiente: module load open64: Carga los compiladores de Open64

4 Para compilar códigos, deberá utilizarse los siguientes comandos: opencc fichero.c (códigos en C) opencc fichero.c (códigos en C++) openf90 fichero.f90 (códigos en FORTRAN 90) openf95 fichero.f95 (códigos en FORTRAN 95) Algunas opciones de compilación importantes son: -O2 Nivel de optimización por defecto; equivalente a -O. Realiza un conjunto de optimizaciones globales. -O3 -O2 con algunas optimizaciones más agresivas; en particular, -O3 activa LNO. -Ofast -LNO -ipa -fb-create -fb-opt -apo -mso -march Se expande en -O3, -ipa, y algunas otras optimizaciones más agresivas. Habilita las optimizaciones en bucles anidados, incluyendo vectorización y generación de instrucciones prefetch. Realiza análisis y optimizaciones interprocedimentales. Optimiza a través de funciones y límites del fichero. Activa optimizaciones profile-guided (dirigidas por retroalimentación). Requiere compilaciones separadas. Habilita la paralelización automática de bucles. Realiza optimizaciones de escalabilidad en procesadores multicore. Genera instrucciones para un tipo de procesador específico. -mp Activa el soporte para OpenMP (versión 2.5) -HP Especifica el número de huge pages (2MB) usados por los segmentos bss, data, text and heap. Esta característica puede no estar disponible en todos los sistemas operativos. Información más detallada sobre la utilización de los compiladores de Open64 y la optimización de las aplicaciones se puede encontrar en: Fortran intrinsics: El soporte de los procedimientos intrinsecos en fortran se controla mediante la opción -intrinsic= Para incluir en la compilación todas las intrínsecas soportadas se debe usar -intrinsic=every

5 Adicionalmente es posible sólo incluir la función necesaria: -intrinsic=<función>. Por ej: - intrinsic=rand incluiría la extensión GNU rand ( Librerías matemáticas ACML (BLAS/LAPACK/FFT): ACML proporciona un conjunto de rutinas matemáticas optimizadas para aplicaciones de cálculo intensivo. Constan de los siguientes componentes principales: Una implementación completa de nivel 1, 2 y 3 de Basic Linear Algebra Subrutines (BLAS), con rutinas optimizadas para alto rendimiento en procesadores AMD Opteron. Un paquete completo de las rutinas de álgebra lineal (LAPACK). Además de tener las ventajas de disponer de BLAS optimizadas, un conjunto de rutinas LAPACK se han optimizado para conseguir un rendimiento considerablemente mayor que las implementaciones LAPACK estándar. Fast Fourier Transforms (FFTs) en tipos de datos single, double, single-complex and doublecomplex. Generadores de números aleatorios, tanto en simple como en doble precisión. Para utilizar estas librerías matemáticas es necesario cargar el módulo correspondiente: module load acml/4.4.0_open64 Para linkar un programa que necesite estas librerías es necesario seguir la siguiente fórmula general: openf90 test.f90 -o test -lacml Si se quiere utilizar la versión OpenMP de estas librerías debemos cargar el módulo: module load acml/4.4.0_open64_openmp y linkar siguiendo esta fórmula: openf90 -mp test.f -o test -lacml_mp NOTA: Soporte OpenMP sólo disponible para las rutina BLAS Compilación y ejecución con OpenMP Tanto el compilador de Fortran como de C soportan OpenMP. Para compilar un programa que necesite utilizar OpenMP se ha de utilizar la opción -openmp o -mp. Por ejemplo, para compilar el programa test.f con OpenMP utilizar el comando: openf90 -openmp programa.f -o programa, o bien, openf90 -mp programa.f -o programa

6 Por defecto, el número de hilos que se arrancan es igual al número de procesadores. Para controlar el número de hilos que se ejecutan, utilizar la variable OMP_NUM_THREADS=<número de hilos>. Por ejemplo, en la shell ksh o bash el siguiente comando limitará el número de hilos a 6: export OMP_NUM_THREADS=6 Si se ejecuta en batch, esa variable tendrá un valor igual al número de procesadores seleccionados en el qsub con la opción -l num_proc. Compilación y ejecución con MPICH2 Para utilizar MPICH2 debe cargarse el módulo correspondiente: module load mpich2 Al cargar este módulo se cargan automáticamente los compiladores Open64, que serán los que se utilizarán por defecto: mpicc, compila código MPI en C, utilizando el compilador de Open64 opencc mpicxx, compila código MPI en C++, utilizando el compilador de Open64 opencc mpif90, compila código MPI en Fortran 90, utilizando el compilador de Open64 openf90 Si se desea utilizar otros compiladores, es necesario cargar el módulo correspondiente al compilador: mpich2/1.3.2p1-gnu: Compiladores GNU gcc/g++/gfortran mpich2/1.3.2p1-pgi: Compiladores PGI pgcc/pgcc/pgf90 Para ejecutar la aplicación se pueden usar estos comandos indistintamente: mpirun mpiexec A estos comandos se le debe indicar el número de procesos a utilizar (opción -np) y el ejecutable con sus parámetros. El fichero de nodos es asignado por el sistema de colas y su ubicación es $TMPDIR/machines. Ejemplo: mpirun -np 4./mpi_program Librerías matemáticas paralelas ScaLAPACK: ScaLAPACK (Scalable LAPACK) es una librería que incluye un subconjunto de rutinas LAPACK rediseñado para computadores paralelos de memoria distribuida. Actualmente está escrito en

7 estilo Single-Program-Multiple-Data usando pasos de mensaje explícitos para la comunicación entre procesos. Se asume que las matrices se colocan siguiendo una descomposición cíclica de bloque de dos dimensiones. ScaLAPACK está diseñada para computación heterogénea y es portable a cualquier computador que soporte MPI. Para utilizar estas librerías matemáticas es necesario cargar el módulo correspondiente: module load scalapack Para linkar un programa que necesite estas librerías es necesario seguir la siguiente fórmula general: mpif90 example.f -o example -lscalapack -lblacsf77init_mpi-linux-0 - lblacs_mpi-linux-0 -lblacsf77init_mpi-linux-0 -lacml Se ejecuta igual que cualquier programa MPI: mpirun -f $TMPDIR/machines -np 4./example PGI Se recomienda la utilización de los compiladores de Open64, aunque también existe la posibilidad de utilizar los compiladores de PGI. Para utilizar los compiladores de PGI debe cargarse el módulo correspondiente: module load pgi: Carga todo el entorno de PGI Para compilar códigos, deberá utilizarse los siguientes comandos: pgcc fichero.c (códigos en C) pgcc fichero.c (códigos en C++) pgf77 fichero.f (códigos en FORTRAN 77) pgf90 fichero.f90 (códigos en FORTRAN 90) pgf95 fichero.f95 (códigos en FORTRAN 95) Algunas opciones de compilación importantes son: -O<level> -fast -Minline -Mvect=prefetch Especifica el nivel de optimización del código. <level> puede ser 0, 1, 2, 3 ó 4. -O2 es la opción que se toma por defecto. Incluye -O2, -Munroll y otras opciones más agresivas. Habilita inlining de funciones. Instruye para generar instrucciones prefetch cuando se encuentran bucles vectorizables

8 -Mipa=fast, inline -Mpfi Realiza análisis y optimizaciones interprocedimentales. También habilita inlining automático de procedimientos. Activa optimizaciones dirigidas por retroalimentación del perfil. -Mpfo -Munroll -mp -Mconcur Desenrolla bucles, ejecutando múltiples estancias del bucle en cada iteración. Activa el soporte para OpenMP El compilador utilizará múltiples procesadores para ejecutar los bucles que determina que son paralelizables. Información más detallada sobre la utilización de los compiladores de PGI y la optimización de las aplicaciones se puede encontrar en: Librerías matemáticas ACML (BLAS/LAPACK/FFT): Al cargar el módulo de PGI ya está disponible la librería ACML optimizada para este compilador. Para linkar un programa que necesite estas librerías es necesario seguir la siguiente fórmula general: pgf90 test.f -o test -lacml y si se quiere utilizar la versión OpenMP de estas librerías: pgf90 -mp test.f -o test -lacml_mp Compilación y ejecución con OpenMP Tanto el compilador de Fortran como de C soportan OpenMP. Para compilar un programa que necesite utilizar OpenMP se ha de utilizar la opción -openmp o -mp. Por ejemplo, para compilar el programa test.f con OpenMP utilizar el comando: pgf90 -openmp programa.f -o programa, o bien, pgf90 -mp programa.f -o programa Por defecto, el número de hilos que se arrancan es igual al número de procesadores. Para controlar el número de hilos que se ejecutan, utilizar la variable OMP_NUM_THREADS=<número de hilos>. Por ejemplo, en la shell ksh o bash el siguiente comando limitará el número de hilos a 6: export OMP_NUM_THREADS=6

9 Si se ejecuta en batch, esa variable tendrá un valor igual al número de procesadores seleccionados en el qsub con la opción -l num_proc. Compilación y ejecución con MPI de PGI NOTA: Temporalmente el uso de MPI incluido en la distribución de PGI está deshabilitado debido a la imposibilidad de integración en el sistema de colas. Alternativa: Usar mpich2 Los compildores de PGI incorporan soporte para MPI-1, pero no para MPI-2. Al cargar el módulo de PGI se carga automáticamente el soporte de MPI-1: mpicc, compila código MPI en C, utilizando el compilador de PGI pgcc mpicxx, compila código MPI en C++, utilizando el compilador de PGI pgcc mpif77, compila código MPI en Fortran 77, utilizando el compilador de PGI pgf77 mpif90, compila código MPI en Fortran 90, utilizando el compilador de PGI pgf90 Otra forma alternativa de compilar con MPI es utilizar los compiladores de PGI y añadir el flag - Mmpi. Ejemplo: pgcc test_mpi.c -Mmpi -o test_mpi es equivalente a mpicc test_mpi.c -o test_mpi Para ejecutar la aplicación hay que usar el comando mpirun. A este comando se le debe indicar el número de procesos a utilizar (-np), el fichero de nodos a utilizar (-machinefile) y el ejecutable con sus parámetros. El fichero de nodos es asignado por el sistema de colas y su ubicación es $TMPDIR/machines. Ejemplo: mpirun -machinefile $TMPDIR/machines -np 4./mpi_program Para el uso de MPI-2 es necesario usar mpich2 cargando el módulo correspondiente a los compiladores PGI: module load mpich2/1.3.2p1-pgi Al cargar este módulo se cargan automáticamente los compiladores PGI: mpicc, compila código MPI en C, utilizando el compilador PGI pgcc mpicxx, compila código MPI en C++, utilizando el compilador PGI pgcc mpif90, compila código MPI en Fortran 90, utilizando el compilador PGI pgf90 Para ejecutar la aplicación se pueden usar estos comandos indistintamente: mpirun mpiexec

10 A estos comandos se le debe indicar el número de procesos a utilizar (opción -np) y el ejecutable con sus parámetros. El fichero de nodos es asignado por el sistema de colas y su ubicación es $TMPDIR/machines. Ejemplo: mpirun -np 4./mpi_program Librerías matemáticas paralelas ScaLAPACK: NOTA: Debido a la imposibilidad de integración del MPI de PGI con el sistema de colas temporalmente se inhabilita el uso de scalapack con estos compiladores. Por favor si es necesario hacer una petición por correo electrónico a aplicaciones@cesga.es Los compildores de PGI también incorporan estas librerías matemáticas. La forma más sencilla de linkar un programa que necesite estas librerías es utilizar el flag - Mscalapack: pgf90 example.f -o example -Mmpi -Mscalapack, o bien, mpif90 example.f -o example -Mscalapack Ejecutar con: mpirun -machinefile $TMPDIR/machines -np 4./example Nota: No hay versión disponible de ScaLAPACK para los compiladores PGI y mpich2 Intel Uso habitual en el CESGA GNU Uso habitual en Scientific Linux 6 Referencias:

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas Paralelismo MPI Paso de mensajes Francisco García Sánchez Departamento de Informática y Sistemas Contenido Introducción 1) Uso de MPI 2) Multiplicación de matrices 3) Ordenación por mezcla 4) Programación

Más detalles

Códigos de Química Computacional en el CESGA (Gaussian, GAMESS, NWCHEM)

Códigos de Química Computacional en el CESGA (Gaussian, GAMESS, NWCHEM) Códigos de Química Computacional en el CESGA (Gaussian, GAMESS, NWCHEM) Aurelio Rodríguez, Técnico de Aplicaciones aurelio@cesga.es HARDWARE Componentes básicos Rendimiento de disco y memoria Uso de memoria

Más detalles

Presentación de Open MPI

Presentación de Open MPI Presentación de Open MPI Qué es Open MPI? Se trata de una API de código abierto desarrollada para facilitar la programación paralela y/o distribuida que: Implementa el estándar MPI. Permite la distribución

Más detalles

CAR. http://acarus.uson.mx/cursos2013/car.htm

CAR. http://acarus.uson.mx/cursos2013/car.htm CAR http://acarus.uson.mx/cursos2013/car.htm Sistemas de CAR en la UNISON Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Aracely Dzul Campos Daniel Mendoza Camacho Yessica Vidal Quintanar

Más detalles

Acceso y portal de usuarios. VPN. Mayo 2017

Acceso y portal de usuarios. VPN. Mayo 2017 Taller práctico Hackathon: Acceso a Finis Terrae II Acceso y portal de usuarios. VPN Mayo 2017 Acceso al FT Conexión por SSH En Linux/Mac: ssh your-username@ft2.cesga.es En Windows: Abrir una sesión con

Más detalles

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar. CAR Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar http://acarus2.uson.mx Infraestructura de Hardware Software Conexiones remotas http://acarus2.uson.mx

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados

Más detalles

Cálculo Estructural, Fluídos e Magnetismo Ansys 5.7

Cálculo Estructural, Fluídos e Magnetismo Ansys 5.7 1 2 Temas SD SVG SC Cálculo Estructural, Fluídos e Magnetismo Ansys 5.7 X Cálculo Molecular Amber 8.0 X X X Gaussian 98 X X X Gaussian 03 X X X Dalton X X X CPMD X X X GAMESS X X X Molden X X NWCHEM X

Más detalles

Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf

Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf Infraestructura CloudPYME Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf ÍNDICE Arquitectura CloudPyme V1.0 Usuario/Cliente/Empresa

Más detalles

Clúster ctcomp2. Diego Rodríguez Martínez

Clúster ctcomp2. Diego Rodríguez Martínez Clúster ctcomp2 Diego Rodríguez Martínez Centro Singular de Investigación en Tecnoloxías da Información CITIUS Universidade de Santiago de Compostela citius.usc.es Índice 1 Introducción 2 Acceso a ctcomp2

Más detalles

R y HPC. (Uso de R en el CESGA). Aurelio Rodríguez V Xornadas R Galicia 28 de Octubre 2018 Santiago de Compostela

R y HPC. (Uso de R en el CESGA). Aurelio Rodríguez V Xornadas R Galicia 28 de Octubre 2018 Santiago de Compostela R y HPC. (Uso de R en el CESGA). Aurelio Rodríguez V Xornadas R Galicia 28 de Octubre 2018 Santiago de Compostela Uso FT Login nodes e.g. fs6801 SSH ssh X ft.cesga.es Batch job compute sbatch run.sh squeue

Más detalles

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2 Contenidos Cluster de prácticas (atcgrid)

Más detalles

Balance Dinámico de Carga en Super-Cómputo

Balance Dinámico de Carga en Super-Cómputo Balance Dinámico de Carga en Super-Cómputo Dr. Manuel Aguilar Cornejo Presentación elaborada por: Juan Santana Santana 1 Introducción Balance dinámico de carga Librería DLML Algoritmo utilizando una topología

Más detalles

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES MÁSTER EN NUEVAS TECNOLOGÍAS EN INFORMÁTICA Diciembre 2010 Introducción Por qué utilizar Matlab paralelo? MATLAB es

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Computación Cientíca en Clusters

Computación Cientíca en Clusters Computación Cientíca en Clusters Administración de plataformas paralelas Juan Piernas Cánovas Febrero de 2010 Computación Cientíca en Clusters Febrero de 2010 1 / 25 Índice 1 Estructura del curso 2 Introducción

Más detalles

Técnicas de Computación Científica

Técnicas de Computación Científica Técnicas de Computación Científica Intro Prácticas FIM 2008/9 Vicente Martín v0.1 Tarzan: Multicomputador con nodos SMP En la IBM SP2 cada nodo es una estación de trabajo con su propio espacio de direcciones

Más detalles

Sage 50c Premium / Standard Requisitos mínimos

Sage 50c Premium / Standard Requisitos mínimos Sage 50c Premium / Standard Requisitos mínimos Sage 02/11/2016 Page 1 of 5 Sage 50c y sus requisitos mínimos Los requisitos mínimos orientativos son: Para un puesto local y remoto, los requerimientos mínimos

Más detalles

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar. CAR Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar http://acarususonmx 1 Sistema de Colas http://acarususonmx 2 Antes de comenzar Pasos

Más detalles

Universidad de Murcia. Facultad de Informática. Guía rápida del cluster HETEREOSOLAR. Grupo de Computación Cientfíca y Computación Paralela

Universidad de Murcia. Facultad de Informática. Guía rápida del cluster HETEREOSOLAR. Grupo de Computación Cientfíca y Computación Paralela Universidad de Murcia Facultad de Informática Guía rápida del cluster HETEREOSOLAR 2014 Grupo de Computación Cientfíca y Computación Paralela ÍNDICE Guía rápida cluster hetereosolar Índice 1. Características

Más detalles

Guía de usuario del clúster ctcomp2. Diego R. Martínez. v1.2 [Septiembre 2013] citius.usc.es

Guía de usuario del clúster ctcomp2. Diego R. Martínez. v1.2 [Septiembre 2013] citius.usc.es Guía de usuario del clúster ctcomp2 Diego R. Martínez v1.2 [Septiembre 2013] citius.usc.es Contenidos 1 Acceso al clúster ctcomp2........ 3 2 Gestión de software con modules... 5 3 Compilación...............

Más detalles

PORTAFOLIO DE PRODUCTOS

PORTAFOLIO DE PRODUCTOS PORTAFOLIO DE PRODUCTOS Servidores Dell Productos Prodiojjsld destinados para Pequeñas y medianas Empresas que hacen uso Intensivo de la información, local Y centrados en la web. Enfrentarse a los desafíos

Más detalles

Una Biblioteca Numérica Paralela para UPC

Una Biblioteca Numérica Paralela para UPC 1/32 Una Biblioteca Numérica Paralela para UPC Jorge González-Domínguez 1 *, María J. Martín 1, Guillermo L. Taboada 1, Juan Touriño 1, Ramón Doallo 1, Andrés Gómez 2 1 Grupo de Arquitectura de Computadores

Más detalles

Sage 50c Premium / Standard / Essential Requisitos mínimos

Sage 50c Premium / Standard / Essential Requisitos mínimos Sage 50c Premium / Standard / Essential Requisitos mínimos Sage 30/01/2018 Page 1 of 5 Sage 50c y sus requisitos mínimos Los requisitos mínimos orientativos son: Para un puesto local y remoto, los requerimientos

Más detalles

Sage 50c Premium / Standard / Essential Requisitos mínimos

Sage 50c Premium / Standard / Essential Requisitos mínimos Sage 50c Premium / Standard / Essential Requisitos mínimos Sage 03/04/2018 Page 1 of 6 Sage 50c y sus requisitos mínimos Los requisitos mínimos orientativos son: Para un puesto local y remoto, los requerimientos

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY EL CLUSTER

Más detalles

2. UNION TEMPORAL SED INTERNACIONAL - HARDWARE ASESORIAS Y SOFTWARE. HP DX 5150 MINITORRE 1. DELL COLOMBIA INC.

2. UNION TEMPORAL SED INTERNACIONAL - HARDWARE ASESORIAS Y SOFTWARE. HP DX 5150 MINITORRE 1. DELL COLOMBIA INC. 3. EVALUACIÓN ESPECIFICACIONES TÉCNICAS 3.1. PC TIPO BASICO Marca, modelo, referencia Pentium IV 640 de 3.2 Ghz HT o superior TIPO BÁSICO Especificar, torre o minitorre o desktop con posibilidad de funcionar

Más detalles

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de

Más detalles

SERVIDORES.

SERVIDORES. ServidoresLenovo Torre Thinkserver TS140 Servidor torre de un solo procesador. Incluye un disco de 2TB. Soporta Solo SATA Procesador: (1) ntel Xeon E31226V3 3.30GHz, 8MB L3 Cache (Maximo 1 Procesador)

Más detalles

Javier Ibáñez González

Javier Ibáñez González Javier Ibáñez González Despacho 109 Edificio DSIC (1F) Tutorías bajo demanda e-mail: jjibanez@dsic.upv.es http://personales.upv.es/jjibanez Práctica P2 (OpenMP): sesiones 4 y 5 Práctica P3 (MPI): sesiones

Más detalles

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández gines.guerrero@ditec.um.es Grupo de Arquitecturas y Computación Paralela

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

Arquitecturas de Altas Prestaciones y Supercomputación

Arquitecturas de Altas Prestaciones y Supercomputación Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción

Más detalles

Requisitos Técnicos de actualización de Cluster Heterogéneo

Requisitos Técnicos de actualización de Cluster Heterogéneo PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA LA CONTRATACIÓN, POR PROCEDIMIENTO NEGOCIADO CON PUBLICIDAD, DEL SUMINISTRO DE AMPLIACIÓN DEL SISTEMA DE SUPERCOMPUTACIÓN HETEROGÉNEO QUE ADQUIRIÓ EL BSC-CNS EN EL

Más detalles

ALIEN: clúster de cálculo intensivo

ALIEN: clúster de cálculo intensivo ALIEN: clúster de cálculo intensivo ALIEN es una máquina de cálculo formada por un clúster de ordenadores Dell. Es un entorno multitarea y multiusuario con sistema operativo Red Hat Linux y con el conjunto

Más detalles

CONTENIDO. Página 1 de 10

CONTENIDO. Página 1 de 10 CONTENIDO 1. INFRAESTRUCTURA ACTUAL DE SERVIDORES 2. ESPACIO FÍSICO ACTUAL 3. AIRES ACONDICIONADOS 4. EXTINCIÓN DE INCENDIOS Y PISO FALSO 5. RESPALDO DE ENERGÍA 6. NUEVA UBICACIÓN DEL CENTRO DE DATOS 7.

Más detalles

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. 12 de 2015 ANEXO 02 INFRAESTRUCTURA ACTUAL

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. 12 de 2015 ANEXO 02 INFRAESTRUCTURA ACTUAL 1. Infraestructura Actual Actualmente la infraestructura de la UMNG se encuentra distribuida de la siguiente manera: Servidor Marca Procesador Sistema Operativo CPUs Memoria Discos Capacidad Network Cards

Más detalles

2. CARACTERÍSTICAS MÍNIMAS DEL EQUIPO OBJETO DE LA ADQUISICIÓN

2. CARACTERÍSTICAS MÍNIMAS DEL EQUIPO OBJETO DE LA ADQUISICIÓN PLIEGO DE PRESCRIPCIONES TÉCNICAS QUE HA DE REGIR LA LICITACIÓN, MEDIANTE PROCEDIMIENTO ABIERTO, PARA EL SUMINISTRO, LA INSTALACIÓN Y LA PUESTA EN MARCHA DE UN CLÚSTER DE COMPUTACIÓN PARA FUNDACIÓN DONOSTIA

Más detalles

Nociones básicas de computación paralela

Nociones básicas de computación paralela Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad

Más detalles

Facilidad de cálculo científico. Universitat Jaume I

Facilidad de cálculo científico. Universitat Jaume I Facilidad de cálculo cientíco Universitat Jaume I Índice de contenido Introducción...3 Infraestructura...3 Hardware...3 Software...4 Comenzando a utilizar el sistema de colas...5 Concepto...5 Órdenes básicas...5

Más detalles

ANEXO CONVOCATORIA 74/2016. Renglón Especificación Técnica Imagen

ANEXO CONVOCATORIA 74/2016. Renglón Especificación Técnica Imagen ANEXO CONVOCATORIA 74/2016 RENGLONES 1 Renglón N 1: Servidor de aplicaciones con capacidad y compatibilidad de virtualización. Cantidad: 2 (DOS). Características generales. Servidor de aplicaciones con

Más detalles

MPP. MIMD Computador Masivamente Paralelo

MPP. MIMD Computador Masivamente Paralelo MPP MIMD Computador Masivamente Paralelo BLUE GENE/Q Introducción Se trata del tercer representante de una serie que comenzó con el Blue Gene/L y continuó con el Blue Gene/P. Son máquinas desarrolladas

Más detalles

Seminario de Utilización del Laboratorio de ITR

Seminario de Utilización del Laboratorio de ITR Seminario de Utilización del Laboratorio de ITR Mario Aldea Rivas Departamento de Electrónica y Computadores Universidad de Cantabria GRUPO DE COMPUTADORES Y TIEMPO REAL Mario Aldea Rivas 1 Estructura

Más detalles

Estructura Interna de La PC. 1. Microprocesadores 2. I/O ( Entrada / Salida) 3. Memoria

Estructura Interna de La PC. 1. Microprocesadores 2. I/O ( Entrada / Salida) 3. Memoria Estructura Interna de La PC 1. Microprocesadores 2. I/O ( Entrada / Salida) 3. Memoria Estructura Interna de La PC Estructura Interna de La PC Estructura Interna de La PC Estructura Interna de La PC Estructura

Más detalles

Optimización del framework de paralelización de tareas COMPSs

Optimización del framework de paralelización de tareas COMPSs Optimización del framework de paralelización de tareas COMPSs Autor: Gabriel Reus Rodríguez Consultor: Ivan Rodero Enero 2015 Universitat Oberta de Catalunya Índice Introducción Qué es COMPSs? Objetivos

Más detalles

TIER 0 TIER 1 TIER 2

TIER 0 TIER 1 TIER 2 www.bsc.es + Equipos + Capacidad TIER 0 Centros europeos TIER 1 Centros nacionales TIER 2 Centros regionales y universidades 2 BARCELONA SUPERCOMPUTING CENTER 4 5 6 7 8 9 10 11 12 Raw Data 1-2TB por ejecución

Más detalles

Supercomputador LUSITANIA

Supercomputador LUSITANIA Desde el año 2009, CénitS [1] gestiona el [2], el primer supercomputador de Extremadura, alojado en Trujillo. Desde su puesta en marcha ha proporcionado a investigadores, innovadores y tecnólogos un recurso

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

Instalación del segundo Root-Server en REACCIUN y actualización de sus políticas de enrutamiento

Instalación del segundo Root-Server en REACCIUN y actualización de sus políticas de enrutamiento Instalación del segundo Root-Server en REACCIUN y actualización de sus políticas de enrutamiento Gregorio Manzano R. Jefe de Redes y Telecomunicaciones Red Académica de Venezuela REACCIUN @greg_reacciun

Más detalles

Instalación de MPE. (MPI Parallel Environment) Programación Distribuida y Paralela. Departamento del LSI. Universidad de Granada

Instalación de MPE. (MPI Parallel Environment) Programación Distribuida y Paralela. Departamento del LSI. Universidad de Granada Instalación de MPE (MPI Parallel Environment) Programación Distribuida y Paralela Universidad de Granada Departamento del LSI Por: Daniel Guerrero Martínez Sergio Rodríguez Lumley 1 Índice de contenido

Más detalles

ANEXO II: ESPECIFICACIONES TÉCNICAS

ANEXO II: ESPECIFICACIONES TÉCNICAS ANEXO II: ESPECIFICACIONES TÉCNICAS Anexo II EXPEDIENTE Nº 071 Título contrato: Adquisición de Equipos de Cómputo y Servidores para la APCI LOTE 1: 16 EQUIPOS DE CÓMPUTO Número ofrecidas Notas, observaciones,

Más detalles

COMPUTACIÓN DE ELEVADAS PRESTACIONES: INFRAESTRUCTURAS, CASOS DE ÉXITO Y APLICACIONES PRÁCTICAS

COMPUTACIÓN DE ELEVADAS PRESTACIONES: INFRAESTRUCTURAS, CASOS DE ÉXITO Y APLICACIONES PRÁCTICAS Dirección General de Telecomuniaciones y Sociedad de la Información COMPUTACIÓN DE ELEVADAS PRESTACIONES: INFRAESTRUCTURAS, CASOS DE ÉXITO Y APLICACIONES PRÁCTICAS Facultad de Ciencias (Badajoz): 19 Noviembre

Más detalles

Supercomputación basada en estándares para el desarrollo de la I+D+I

Supercomputación basada en estándares para el desarrollo de la I+D+I Supercomputación basada en estándares para el desarrollo de la I+D+I Madrid,12 Marzo 2009 Agenda Presentación CESGA Evolución Tecnológica y sistemas disponibles Presentacion SVG Ampliación 2004 Ampliación

Más detalles

GUÍA BÁSICA DE USO DEL CLUSTER HPC LOVELACE

GUÍA BÁSICA DE USO DEL CLUSTER HPC LOVELACE CLUSTER HPC LOVELACE Guía básica de utilización v.1.0 20/01/2016 GUÍA BÁSICA DE USO DEL CLUSTER HPC LOVELACE Este documento tiene como objetivo proporcionar los datos y aspectos básicos para la conexión

Más detalles

Mendieta. Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC WHPC13

Mendieta. Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC WHPC13 Mendieta Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC 1 Antes que nada ssh user@200.16.18.210 2 Especificaciones - Nodo Supermicro 1027GR-TRF 1U de altura Dual socket 2011 Fuentes de 1820W

Más detalles

Arquitecturas GPU v. 2015

Arquitecturas GPU v. 2015 v. 2015 http://en.wikipedia.org/wiki/graphics_processing_unit http://en.wikipedia.org/wiki/stream_processing http://en.wikipedia.org/wiki/general-purpose_computing_on_graphics_processing_ units http://www.nvidia.com/object/what-is-gpu-computing.html

Más detalles

ADENDA No. 4 PLIEGO DE CONDICIONES

ADENDA No. 4 PLIEGO DE CONDICIONES ADENDA No. 4 PLIEGO DE CONDICIONES INVITACIÓN PÚBLICA PARA CONTRATAR EL SUMINISTRO, LA CONFIGURACIÓN, LA INSTALACIÓN Y LA PUESTA EN FUNCIONAMIENTO DE UNA SOLUCIÓN DE VIRTUALIZACIÓN PARA LA UNIVERSIDAD

Más detalles

Rawel E. Luciano B Sistema Operativo III. 1- Instalación de Open SUSE Server. José Doñe

Rawel E. Luciano B Sistema Operativo III. 1- Instalación de Open SUSE Server. José Doñe Nombre: Rawel E. Luciano B. Matricula: 2011-2281 Materia: Sistema Operativo III How to: 1- Instalación de Open SUSE Server Profesor: José Doñe Introducción El proyecto OpenSUSE es fruto de un esfuerzo

Más detalles

2. CARACTERÍSTICAS MÍNIMAS DEL EQUIPO OBJETO DE LA ADQUISICIÓN

2. CARACTERÍSTICAS MÍNIMAS DEL EQUIPO OBJETO DE LA ADQUISICIÓN PLIEGO DE PRESCRIPCIONES TÉCNICAS QUE HA DE REGIR LA LICITACIÓN, MEDIANTE PROCEDIMIENTO ABIERTO, PARA EL SUMINISTRO, LA INSTALACIÓN Y LA PUESTA EN MARCHA DE UN CLÚSTER DE PROCESADORES XEON Y DISCOS DE

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Requisitos técnicos para participantes. Especificaciones de Hardware, Software y Comunicaciones. Bolsa Nacional de Valores, S.A.

Requisitos técnicos para participantes. Especificaciones de Hardware, Software y Comunicaciones. Bolsa Nacional de Valores, S.A. Requisitos técnicos para participantes Especificaciones de Hardware, Software y Comunicaciones Versión Bolsa Nacional de Valores, S.A. Febrero 2017 1 Tabla de Contenido 1. Introducción... 3 2. Glosario...

Más detalles

Uso del supercomputador Ben Arabí

Uso del supercomputador Ben Arabí Uso del supercomputador Ben Arabí CENTRO DE SUPERCOMPUTACIÓN José Ginés Picón López Técnico de aplicaciones Murcia a 11 de Marzo de 2011 Uso del supercomputador Ben Arabí Descripción de la Arquitectura

Más detalles

Electromagnetismo y Supercomputación

Electromagnetismo y Supercomputación Electromagnetismo y Supercomputación Luis Landesa, José Manuel Taboada Universidad de Extremadura, Computación de Elevadas Prestaciones Infraestructuras, casos de éxito y aplicaciones prácticas Badajoz/Cáceres

Más detalles

Francisco Javier Hernández López

Francisco Javier Hernández López Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay

Más detalles

Cosmos WorkShop. Software de actualización firmware Cosmos v2.2 rev5 Julio 2012

Cosmos WorkShop. Software de actualización firmware Cosmos v2.2 rev5 Julio 2012 Cosmos WorkShop Software de actualización firmware Cosmos v2.2 rev5 Julio 2012 MTS0006000 30/07/2012 ÍNDICE DE CONTENIDOS Índice de contenidos 2 Requisitos del sistema 3 Introducción 3 Instalación y configuración

Más detalles

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Supercomputadores 2 Qué es un supercomputador? Top500

Más detalles

UNIVERSIDAD MILITAR NUEVA GRANADA ANEXO T2 INFRAESTRUCTURA ACTUAL

UNIVERSIDAD MILITAR NUEVA GRANADA ANEXO T2 INFRAESTRUCTURA ACTUAL 1. Infraestructura Actual Actualmente la infraestructura de la UMNG se encuentra distribuida de la siguiente manera: Servidor Marca Procesador SunFire X4540 AMD Quad-Core Opteron 2384 @ 2700 MHz Sistema

Más detalles

HP StorageWorks X9000 Network Storage System. Héctor García Consultor Preventa

HP StorageWorks X9000 Network Storage System. Héctor García Consultor Preventa HP StorageWorks X9000 Network Storage System Héctor García Consultor Preventa Pool de almacenamiento masivo de ficheros HP StorageWorks X9000 Network Storage Systems Servicio de ficheros de alta escalabilidad,

Más detalles

CENTRO DE SUPERCOMPUTACIÓN

CENTRO DE SUPERCOMPUTACIÓN Uso del supercomputador Ben Arabí CENTRO DE SUPERCOMPUTACIÓN José Ginés Picón López Técnico de aplicaciones Murcia a 2 de Febrero de 2012 Uso del supercomputador Ben Arabí Descripción de la Arquitectura

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para

Más detalles

RESUMEN DE SUBASTA. 1 Paquete de 4 Servidores HP ProLiant Equipos diversos > Servidores. Para coordinación de visitas comunicarse al (511)

RESUMEN DE SUBASTA. 1 Paquete de 4 Servidores HP ProLiant Equipos diversos > Servidores. Para coordinación de visitas comunicarse al (511) RESUMEN DE SUBASTA 1 Paquete de 4 Servidores HP ProLiant Equipos diversos > Servidores Inicio de subasta: Empresa: Modalidad de subasta: 02:44 pm 16-05-2018 Inversiones F&B Martillo Virtual Con Precio

Más detalles

PROCEDIMIENTO ABIERTO PARA LA ADJUDICACIÓN DEL CONTRATO DE SUMINISTRO DE UN SISTEMA DE ALMACENAMIENTO DE INFORMACIÓN CENTRALIZADO PARA EL SENADO

PROCEDIMIENTO ABIERTO PARA LA ADJUDICACIÓN DEL CONTRATO DE SUMINISTRO DE UN SISTEMA DE ALMACENAMIENTO DE INFORMACIÓN CENTRALIZADO PARA EL SENADO PROCEDIMIENTO ABIERTO PARA LA ADJUDICACIÓN DEL CONTRATO DE SUMINISTRO DE UN SISTEMA DE ALMACENAMIENTO DE INFORMACIÓN CENTRALIZADO PARA EL SENADO PLIEGO DE PRESCRIPCIONES TÉCNICAS ÍNDICE 1. OBJETO 2 2.

Más detalles

Windows 7 (Professional, Enterprise o Ultimate), Windows 8 (Pro, Pro WMC, Enterprise), Windows 10 (Professional, Enterprise)*.

Windows 7 (Professional, Enterprise o Ultimate), Windows 8 (Pro, Pro WMC, Enterprise), Windows 10 (Professional, Enterprise)*. Requisitos de Hardware y Software Para instalar y ejecutar Profit Plus en su equipo como una estación cliente, debe tener mínimo las siguientes características: Computador Intel Dual Core. 2 GB de memoria

Más detalles

Windows 7 (Professional, Enterprise o Ultimate), Windows 8 (Pro, Pro WMC, Enterprise), Windows 10 (Professional, Enterprise)*.

Windows 7 (Professional, Enterprise o Ultimate), Windows 8 (Pro, Pro WMC, Enterprise), Windows 10 (Professional, Enterprise)*. Requisitos de Hardware y Software Para instalar y ejecutar Profit Plus en su equipo como una estación cliente, debe tener mínimo las siguientes características: Computador Intel Dual Core. 2 GB de memoria

Más detalles

Sesión 7. Cálculo Paralelo en Elmer

Sesión 7. Cálculo Paralelo en Elmer Sesión 7. Cálculo Paralelo en Elmer M. Meis y F. Varas Departamento de Matemática Aplicada II Universidad de Vigo Introducción a Elmer, sofware libre de simulación numérica multifísica A Coruña, 27 de

Más detalles

Guía básica para el uso de Leftraru

Guía básica para el uso de Leftraru Guía básica para el uso de Leftraru Infraestructura Leftraru Infiniband FDR 56Gbps Red ilo para adm. hw. Red servicio 1 Gbps +200 TB almacenamiento DDN Lustre 128 nodos slims 4 nodos fats 12 Xeon Phi Racks

Más detalles

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. 12 de 2015 ANEXO 02 INFRAESTRUCTURA ACTUAL

UNIVERSIDAD MILITAR NUEVA GRANADA INVITACIÓN PÚBLICA No. 12 de 2015 ANEXO 02 INFRAESTRUCTURA ACTUAL 1. Infraestructura Actual Actualmente la infraestructura de la UMNG se encuentra distribuida de la siguiente manera: Servidor Marca Procesador Sistema Operativo CPUs Memoria Discos Capacidad Network Cards

Más detalles

Organización del Centro de Cálculo

Organización del Centro de Cálculo Organización del Centro de Cálculo Problemas Septiembre 2007 40 servidores sin identificar Ubicación de Servidores aleatoria Servidores cayéndose constantemente Ni un servidor en rack Red y cableado a

Más detalles

ANEXO TÉCNICO EXPEDIENTE

ANEXO TÉCNICO EXPEDIENTE ANEXO TÉCNICO EXPEDIENTE 0005-0400-2017-000053 PLIEGO DE PRESCRIPCIONES TÉCNICAS PARTICULARES PARA LA CONTRATACIÓN DE LA AMPLIACIÓN DE INFRAESTRUCTURA SERVIDORA DEL CPD DE GOBIERNO DE NAVARRA Órgano de

Más detalles

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA

Más detalles

Instalación de TAU. (Tuning and Analysis Utilities) Programación Distribuida y Paralela. Departamento del LSI. Universidad de Granada

Instalación de TAU. (Tuning and Analysis Utilities) Programación Distribuida y Paralela. Departamento del LSI. Universidad de Granada Instalación de TAU (Tuning and Analysis Utilities) Programación Distribuida y Paralela Universidad de Granada Departamento del LSI Por: Daniel Guerrero Martínez Sergio Rodríguez Lumley 1 Índice de contenido

Más detalles

Guía básica para el uso de Leftraru

Guía básica para el uso de Leftraru Guía básica para el uso de Leftraru Arquitectura Leftraru Infiniband FDR 56Gbps Red ilo para adm. hw. Red servicio 1 Gbps +200 Tb almacenamiento DDN Lustre 128 nodos slims 4 nodos fats 12 Xeon Phi Racks

Más detalles

Granularidad y latencia

Granularidad y latencia Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación

Más detalles

Basic Linear Algebra Subprograms (BLAS) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006

Basic Linear Algebra Subprograms (BLAS) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Basic Linear Algebra Subprograms () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Índice Qué es la biblioteca? Organización de Funcionalidad

Más detalles

Técnicas de Computación Científica

Técnicas de Computación Científica Técnicas de Computación Científica Intro Prácticas FIM 2010/11 Vicente Martín v0.1a Tarzan: Multicomputador con nodos SMP En la IBM SP2 cada nodo es una estación de trabajo con su propio espacio de direcciones

Más detalles

REQUISITOS DEL SISTEMA

REQUISITOS DEL SISTEMA Sistemas de Informática Jurídica INFOLEX 7 DOCUMENTACION REQUISITOS DEL SISTEMA Departamento: Documentación Autores: DLD,FLD Versión: 2.0 Sistemas de Informática Jurídica 902 090 001 www.jurisoft.es info@jurisoft.es

Más detalles

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:

Más detalles

Computación Paralela Heterogénea y Homogénea para la Resolución de Problemas Estructurados de Álgebra Lineal

Computación Paralela Heterogénea y Homogénea para la Resolución de Problemas Estructurados de Álgebra Lineal Máster en Computación Paralela y Distribuida Tesis de Máster Computación Paralela Heterogénea y Homogénea para la Resolución de Problemas Estructurados de Álgebra Lineal Numérica Miguel Óscar Bernabeu

Más detalles

XPRI Team. Edición no lineal rápida, flexible y colaborativa para grupos de trabajo. Descripción general. XPRI Team 1

XPRI Team. Edición no lineal rápida, flexible y colaborativa para grupos de trabajo. Descripción general. XPRI Team 1 XPRI Team Edición no lineal rápida, flexible y colaborativa para grupos de trabajo Descripción general Colabora fácilmente y de forma rentable con el sistema de edición no lineal orientado a equipos: el

Más detalles

1 General Usuario... 8

1 General Usuario... 8 FAQ Índice de contenidos 1 General... 3 1.1 Qué es COMPUTAEX?...3 1.2 Qué es CénitS?...3 1.3 Qué es LUSITANIA?...3 1.4 Qué objetivos se persiguen desde la Fundación COMPUTAEX?...3 1.5 Qué es un supercomputador?...4

Más detalles

Seminario de Programación en Ada

Seminario de Programación en Ada Seminario de Programación en Ada Tutorial básico del entorno de desarrollo GPS GRUPO DE COMPUTADORES Y TIEMPO REAL Michael González, J. Javier Gutiérrez, Héctor Pérez Tijero 1 Estructura del laboratorio

Más detalles

UNIVERSIDAD DE VALLADOLID

UNIVERSIDAD DE VALLADOLID UNIVERSIDAD DE VALLADOLID Pliego de prescripciones técnicas para contratar el suministro e instalación de dos cabinas de almacenamiento SAN para actualizar el equipamiento existente en CPD del STIC y dotar

Más detalles

Directora: Dra. Anna Morajko.

Directora: Dra. Anna Morajko. Universitat Autònoma de Barcelona Departament d'arquitectura de Computadors i Sistemes Operatius Directora: Dra. Anna Morajko. Claudia Rosas Mendoza 2008 2009 2009 Auge de las aplicaciones científicas

Más detalles

Proyecto de Inversiones PMS

Proyecto de Inversiones PMS Proyecto de Inversiones PMS Instalación PMS-i Instalación en Servidor Requerimientos: Motor de base de datos : MSSQL Server, Oracle ó Informix Espacio en disco 10GB asignado exclusivamente a base de datos

Más detalles

PRESENTACION DEL PRODUCTO FACTURACION ELECTRONICA INTEGRADA

PRESENTACION DEL PRODUCTO FACTURACION ELECTRONICA INTEGRADA PRESENTACION DEL PRODUCTO FACTURACION ELECTRONICA INTEGRADA Lima, Octubre 2016 Señores: CLIENTES DE CONTASIS Factura Electrónica Integrada - FEI CONTASIS, es una de las 02 formas que brinda SUNAT para

Más detalles

Plataformas recomendadas

Plataformas recomendadas Plataformas recomendadas 1. Plataformas hardware recomendadas para el Servidor y Cliente............. 3 2. Capacidad del subsistema de disco.................................. 5 3. Sistemas operativos compatibles...................................

Más detalles

SanDisk DAS Cache: rendimiento de OLTP

SanDisk DAS Cache: rendimiento de OLTP DOCUMENTACIÓN TÉCNICA SanDisk DAS Cache: rendimiento de OLTP 951 SanDisk Drive, Milpitas, CA 95035 2014 SanDIsk Corporation. Todos los derechos reservados. www.sandisk.com Introducción En este documento

Más detalles