Clúster de computación científica: Instalación y optimización

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Clúster de computación científica: Instalación y optimización"

Transcripción

1 Departament d Enginyeria Informàtica i Matemàtiques Clúster de computación científica: Instalación y optimización TITULACIÓN: Ingeniería Técnica en Informática de Sistemas AUTORES: Fran Casino Cembellín DIRECTORES: Sergio Gómez, Pau Erola. FECHA: Diciembre / 2009.

2 Clúster de computacióncientífica: Instalación y optimización Autor: Fran Casino Cembellín Proyecto final de carrera Curso 2009/2010 Directores de proyecto: Sergio Gómez Jiménez Pau Erola Cañellas 2

3 Índice RESÚMENES... 6 CASTELLANO... 6 CATALÀ... 7 ENGLISH... 8 OBJETIVOS Y ESPECIFICACIONES DEL PROYECTO... 9 DISEÑO PRE-SELECCIÓN Y ROCKS CLUSTERS CONSIDERACIONES INICIALES Que tenemos? Datos iniciales importantes Algunos detalles previos sobre la instalación Sobre el orden de boot en la BIOS DESARROLLO INSTALACIÓN DEL FRONTEND CONFIGURACIÓN DEL FRONTEND Pre-configuración Detalles post-instalacion Configuramos idioma y teclado Reconfiguracion de la red eth0 y eth Gestión de usuarios Creación de cuentas de usuario Modificación de cuentas de usuario Eliminación de cuentas de usuario Instalacion de compiladores Script compiladores Instalacion de gnat GPL Ampliación de paquetes de la distribución Instalación desde la distribución Activar acceso público vía web a nuestro frontend INSTALACIÓN DE LOS NODOS Instalación Configuración final de los nodos Sincronizar nodos Instalacion de nodos a posteriori Reinstalacion de los nodos

4 Algunas comprobaciones Ejecución en varios nodos GUÍA DE FUNCIONAMIENTO ROLL : AREA Tripwire Cambiar la dirección del mail de información de tripwire chkrootkit Roll:Ganglia Cluster Top Configuración de Ganglia Activar pleno funcionamiento de Ganglia Roll: HPC Uso de HPC y MPI Usar mpirun para OpenMPI Usar mpirun para MPICH Roll: SGE Introducción al sistema de colas El planificador de tareas SGE Enviar trabajos serie en SGE Enviar trabajos en paralelo en SGE Enliminar trabajos en paralelo en SGE Monitorizando trabajos SGE Gestionando colas SGE Gestionando SGE usando Qmon PROBLEMAS Y CONTRATIEMPOS DEL PROYECTO Dia a Dia de la instalación y problemas Problemas con la IP de Odisea en la intranet No coincidencia de IP s ( dhcp incorrecto ) Problemas con la versión 5.1 de Rocks Clusters Bugs en archivos Reconfiguracion de la red eth0 y eth Problemas con nodos i switchs Boot Dhcp erróneo en nodos Switch KVM & Dell technical service Switch Red interna & Dell technical service JUEGO DE PRUEBAS EJECUCIÓN DE BENCHMARKS CONCLUSIONES VALORACIONES PERSONALES Como experiencia El uso de Linux es mejor Es caro pero efectivo

5 Problemas configuración Aprendizaje RECURSOS UTILIZADOS APÉNDICE Y BIBLIOGRAFÍA Manuales y links Páginas Web Sobre SGE : Sobre ROCKS : Sobre DELL : Información adicional : Manuales de usuario Información y cultura Instalación e información sobre el software Archivos necesarios Scripts y código

6 Resúmenes Castellano El objetivo global de este proyecto es conseguir que el clúster del grupo de investigación Algorithms Embedded in Physical Systems (ALEPHSYS) del Departamento de Ingenieria Informática y Matemáticas (DEIM) de la Universidad Rovira i Virgili (URV) funcione correctamente y sea capaz de ejecutar procesos en paralelo. Para conseguirlo he tenido de desglosar el trabajo en varias fases de manera que habrá cinco fases diferenciadas. En la primera fase, el trabajo fue de búsqueda de información sobre distribuciones para clústeres, valoración de sus cualidades e impedimentos y la selección de la mejor y más preparada de ellas. Con este trabajo llegué a la conclusión de que ROCKS CLUSTERS era la mejor opción por software, documentación y popularidad. La segunda fase englobó la parte más larga, ya que debía mirarme y estudiarme todo el software disponible de ROCKS, elegir la distribución que mejor se adaptara a nuestro clúster (actualmente la v5.2) y elaborar un completo informe de qué software especifico de computación contenía, que software hacía falta instalar o ampliar, y la elaboración de un resumen de sus principales paquetes o ROLLS. En la siguiente, mi objetivo era instalar el servidor o frontend i configurarlo correctamente. También tenía que instalar los nodos de forma automatizada mediante PXE i configurar el sistema de colas SGE de Sun que se encargara de la gestión de los trabajos en el clúster. Con esto el clúster quedaría instalado. En la última fase, simplemente hacía falta comprobar el correcto funcionamiento del clúster ejecutando un juego de pruebas i su correcta monitorización en la web vía ganglia. Este test se ha realizado con unos benchmarks NAS que utilizan MPI. Tanto la ejecución de las aplicaciones como su escalabilidad han sido satisfactorios. 6

7 Català L objectiu global d aquest projecte es aconseguir que el clúster del grup de investigació Algorithms Embedded in Physical Systems (ALEPHSYS) del Departament d Enginyeria Informàtica i Matemàtiques (DEIM) de la Universitat Rovira i Virgili (URV) funcioni correctament i sigui capaç d'executar processos paral lels. Per aconseguir-ho vaig haver de dividir el treball en un total de cinc fases. A la primera fase, el treball va ser de cerca d informació sobre distribucions per a clústers, valoració de les seves qualitats i impediments, i la selecció de la millor i més preparada de totes elles. La conclusió va ser que ROCKS CLUSTERS era la millor opció per software disponible, documentació i popularitat. La segona fase va englobar la part més llarga, ja que m havia de mirar y estudiar tot el software disponible de ROCKS, escollir la versió que millor s adaptés al nostre clúster (actualment la v5.2) i elaborar un complet informe de quin software específic de computació tenia, quin feia falta instal lar o ampliar i la elaboració d un resum dels seus principals paquets o ROLLS. A la següent, el meu objectiu era instal lar el servidor o frontend i configurar-lo correctament. També havia d'instal lar els nodes de forma automatitzada mitjançant PXE i configurar el sistema de cues SGE de Sun que s'encarregarà de la gestió dels treballs al clúster. Amb això el cluster quedaria instal lat. A la última fase, simplement calia comprovar el correcte funcionament del clúster executant un joc de proves i la seva correcta monitorització a la web via ganglia. Aquest testeig l'hem realitzat amb els benchmarks NAS que utilitzen MPI. Tant l'execució de les aplicacions com la seva escalabilitat han estat satisfactoris. 7

8 English The global objective of this project is to reach that ALEPHSYS s (Algorithms Embedded in Physical Systems ) research group cluster from DEIM department at Rovira I Virgili university ( URV ) works correctly and is able to compute parallel processes. In order to obtain it I had to detach the work in several phases so there are five differentiated ones. In first stage, the work was search for information on distributions for clusters, evaluate its qualities and lacks and select the best and most prepared of them. With this work we decided that ROCKS CLUSTERS was the best option by software, documentation and popularity. The second phase included the most long work time, since I had to look for and study all the software available for ROCKS, also I had to choose the best distribution for our cluster (at the moment v5.2) and finally I had to elaborate a complete report of what computational software was contained and the elaboration of a summary of its main packages or ROLLS. In the following one, my objective was to install the server or frontend and to configure it correctly. Also I had to install nodes using PXE and configure Sun Grid engine s queue system in order to manage all jobs sent to the cluster. With that, ALEPHSYS s cluster would be installed. In the last one the work was to verify that cluster was working correctly and ganglia was well monitoring. To obtain that certainty we executed a NAS benchmark based on MPI. Both results and scability of the cluster were all correct. 8

9 Objetivos y especificaciones del proyecto El término clúster se aplica a los conjuntos de computadoras conectadas mediante la utilización de redes y que se comportan como si fuesen una única computadora. Hoy en día juegan un papel importante en la solución de problemas de las ciencias, las ingenierías y del comercio moderno., pués permiten la escalabilidad horizontal de los recursos de computación con un coste linealmente proporcional. Debido a la mala configuración actual del clúster del grupo de investigación Algorithms Embedded in Physical Systems (ALEPHSYS) del Departament d Enginyeria Informàtica i Matemàtiques (DEIM) de la Universitat Rovira i Virgili (URV), ha surgido la necesidad de cambiar la instalación actual por otra más avanzada y mejor configurada para aprovechar así todos los recursos del clúster ( escalabilidad, confiabilidad, paralelización ). El clúster de ALEPHSYS es un rack (armario de ordenadores) que consta de 15 máquinas, cada una de ellas con un doble procesador de 2 núcleos a 2,4 GHZ y 4 GB de RAM. Por lo tanto cada máquina tiene 4 cpus y esto hace un total de 60 cpus, que es el total de procesadores del clúster. A esto hay que añadir que todas las maquinas tienen doble interfaz de red ( red interna y red externa ). La red interna del clúster trabaja a 1 Gigabit por segundo ( las tarjetas de red son GigaLan ) y la conexión a internet de la red externa solo es posible realizarla desde el servidor, 9

10 por lo tanto la única maquina que tiene las 2 interfaces conectadas es la del servidor. El resto está conectado a un switch que gestiona el tráfico de la red interna del cluster. El acceso desde una fuente externa al clúster es imposible si no se hace mediante un túnel o desde la propia intranet ya que la red de la URV tiene unos firewalls muy restrictivos. De todas formas el clúster tiene un alto nivel de seguridad ya que esta desarrollado sobre Linux, que presume de ser el sistema operativo más seguro, y además cuenta con herramientas propias de diagnóstico y monitorización de seguridad como por ejemplo Area 51. Una vez determinado el equipo, el problema era la elección del software. De entre los candidatos destacaban ClusterKnopix, OSCAR, ROCKS CLUSTERS pero debido a su potencial y continuo desarrollo ROCKS fue la opción elegida. El software que instalaremos será la distribución Linux ROCKS CLUSTERS en su versión 5.2 y para que esto sea posible con relativa facilidad se ha diseñado este documento. El objetivo de este documento es explicar al lector, desde cero y sin grandes conocimientos iniciales, cómo instalar el software ROCKS clúster en un clúster propio, configurarlo y obtener información sobre lo que puede hacer, el software que tiene y como usarlo. Las diferentes secciones del documento contienen toda la información necesaria para realizar la instalación y deben ser consideradas por orden ( al menos en términos de instalación y configuración ) ya que el siguiente apartado presupone el anterior. No obstante y buscando la máxima claridad he diferenciado las diversas partes del documento para englobar así las que son de instalación previa, configuración, instalación de software adicional y uso, entre otras. Finalmente se adjunta un apéndice en formato electrónico ( archivos pdf ) donde se puede encontrar todo tipo de documentación acerca de ROCKS CLUSTERS para posibles dudas o problemas que puedan surgir y que no vengan reflejados en este documento. 10

11 Diseño Pre-selección y Rocks Clusters Rocks es una distribución para clústeres de código abierto, basada en Linux que permite la construcción y uso de clústeres y de otros sistemas basados en la idea de la paralelización y la ejecución concurrente de aplicaciones. Frente a otros sistemas como por ejemplo Clusterknoppix u OSCAR ( el que anteriormente utilizábamos en este cluster) Rocks cuenta con un apoyo de masas mucho mayor y se actualiza constantemente, usando software mucho mas avanzado y optimizado. Rocks clusters está basado en CentOS (Community ENTerprise Operating System) es un clon a nivel binario de la distribución Linux Red Hat Enterprise Linux RHEL, compilado por voluntarios a partir del código fuente liberado por Red Hat, por lo tanto todos los comandos serán típicos de esa distribución.* Rocks Clusters tiene una serie de Rolls ( paquetes de software ) que permiten la gestión, monitorización y uso efectivo de la estructura. Entre ellos, aparte de permitir y garantizar el buen funcionamiento del clúster, existen varios que se usan específicamente en medicina u otros campos científicos. El software de ROCKS siempre es ampliable y por supuesto compatible con cualquier software para Linux que fuera compatible con CentOS. Es una de las distribuciones actuales más moderna y preparada para gestionar un clúster. 11

12 *Fuente wikipedia Consideraciones iniciales Que tenemos? El clúster que queremos optimizar es un PowerEdge SC1435 que posee 15 nodos ( servidor ) que montan una placa base de 2 sockets para CPU, cada socket con un AMD de doble núcleo en su haber. Es importante tener en cuenta las especificaciones de la máquina para así saber si es mas óptimo aplicar unas configuraciones u otras o bien para el uso del software. En este caso solo el servidor lleva lector de cd/dvd. La capacidad del disco duro y la RAM son más que suficientes en todos los nodos, si observamos los requisitos mínimos para la instalación. Datos iniciales importantes Antes de instalar la nueva versión de ROCKS 5.2, miraremos la configuración del clúster. Según la configuración actual del clúster tenemos los siguientes datos FQHN = odisea.recerca.intranet.urv.es El FQHN hace referencia al hostname completo de Odisea. La configuración del clúster ( en su versión antigua con OSCAR ) tiene asignadas las siguientes ip en su red interna - odisea: nodo01: nodo02: nodo14: Las DNS i la puerta de enlace son: 12

13 DNS-> ( la obtenemos haciendo cat /etc/resolv.conf ) Puerta de Enlace-> ( la obtenemos con el comando route ) NOTA: todas estas especificaciones se mantendrán, excepto las ip de la red interna ya que ROCKS las asignara automáticamente. Algunos detalles previos sobre la instalación Siempre que se hace referencia al servidor o al frontend estaremos hablando de la misma máquina. Los nodos o clientes son el resto de maquinas. Rocks asume que la interfaz identificada como 'eth1' por el kernel será aquella que está conectada a la red externa y la 'eth0' a la red privada del clúster. Esto nos obligara a realizar una post-configuracion de las conexiones Ethernet para garantizar que se corresponden las interfaces con el cableado. El instalador de Rocks usa por defecto una configuración de teclado en inglés. Para teclados latinoamericanos o en español el símbolo arroba se encuentra con la combinación de teclas SHIFT+2. Sobre el orden de boot en la BIOS Para el correcto funcionamiento la secuencia de boot de la BIOS debería ser esta 1. CDROM 2. Hard Disk 3. On-board Network Device (PXE) Rocks proporciona una utilidad para que la BIOS se salte el boot del disco duro y provoque el boot PXE ( /boot/kickstart/clúster-kickstart-pxe). Para una reinstalación masiva en clústeres grandes, PXE no tiene una Buena escalabilidad. Para ello, Rocks tiene una imagen del kernel en el disco duro. 13

14 Desarrollo Instalación del frontend Insertamos el DVD de rocks y reiniciamos el servidor Una vez reiniciado veremos aparecer la siguiente pantalla ( boot del DVD ): En esta pantalla escribiremos build y pulsaremos enter para iniciar el instalador. Despues de esto nos aparecerá la pantalla de instalación: 14

15 Clicaremos sobre 'CD/DVD-based Roll'. A continuación se abrirá la bandeja DVD y saldrá la siguiente pantalla: 15

16 En nuestro caso, simplemente tendremos que volver a cerrar la bandeja. En caso de haber usado CDs habría que introducir el CD principal del kernel. Seleccionaremos el kernel y los rolls necesarios y clicaremos en submit Los rolls que nos interesaran serán los siguientes: Area 51 Ganglia hpc Java Sun Grid Engine (SGE) Os Base Kernel Web-server Una vez elegido todo se nos mostrara una pantalla donde aparecerán los rolls que habíamos seleccionado. Si es todo correcto, clicaremos en submit o siguiente. 16

17 A continuación tendremos la siguiente pantalla: Ahora completaremos el formulario con la información básica del clúster. Hay que decir que el único parámetro realmente obligatorio es el FQHN. Fully Qualified Host Name (FQHN): el nombre completo del frontend tal y como es reconocido en la red externa.. Este parámetro es importante por qué será utilizado en muchos aspectos de la configuración del clúster y sus herramientas. odisea.recerca.intranet.urv.es Clúster Name: Nombre del Clúster completo. Podemos usar mayúsculas y minúsculas. El nombre completo será usado para identificar el clúster en piezas de software como Ganglia y otras. En nuestro caso Odisea Certificate organization : (organización a la que pertenece el clúster), Certificate Locality (ciudad), Certificate state (estado o departamento en el que esta la ciudad), Certificate country (abreviatura del país ). Contact: de contacto (usar uno válido) URL: dirección de la página del clúster o de la organización a la que pertenece. Lattitude/Longitude: latitud y longitud geográfica de la locación en la que se encuentra el clúster en el formato N S##.## E W###.## 17

18 En esta pantalla tenemos la configuración de eth0 que refiere a la red interna entre frontend y los nodos del clúster. Nos permite especificar la ip y la máscara de red que en nuestro caso serán las siguientes : IPADDR= NETMASK= En la siguiente pantalla también se nos permite escoger la ip de la conexión eth1 que es la que conecta el frontend con el exterior. Los parámetros serán seleccionados automáticamente por DHCP. IPADDR= NETMASK= Seleccionamos Gateway( puerta de enlace ) y las DNS Al igual que pasó con la dirección eth1, las DNS y las Gateway serán seleccionadas automáticamente. GATEWAY= DNS= En la pantalla que sigue a continuación establecemos un password de Root y lo confirmaremos. Finalmente y antes del particionado configuramos el servidor ntp. Podemos dejar el que viene por defecto o escribir otro como por ejemplo es.pool.ntp.org. La zona horaria será obviamente la correspondiente a nuestra situación geográfica. 18

19 En la siguiente pantalla se nos permite configurar el particionado, lo configuraremos automáticamente. 19

20 A continuación se formateara el disco y se copiara todo el software del DVD Una vez esté todo copiado, comenzara la instalación y cuando el sistema haya terminado el servidor se reiniciara. 20

21 Configuración del frontend Una vez instalado completamente el frontend se puede proceder a ajustar algunos detalles de la configuración de la máquina y la preparación de la distribución que será instalada en los nodos. Pre-configuración Detalles post-instalacion Cuando el servidor se haya reiniciado nos daremos cuenta de varios detalles. Los principales son errores de red que hacen que varias cosas fallen ( las cuales serán solucionadas a continuación ): -Ganglia - eth1 interface ( no tendremos internet ) -NTP server Iniciamos sesión como root y ponemos el password. Ahora vemos el escritorio de CentOs 5.0 y como todo esta cargado correctamente. El idioma por defecto es el inglés. Previo a cualquier paso, al abrir una terminal por primera vez con cualquier usuario se nos pedirá guardar un archivo de configuración generado por el servidor. Lo correcto es elegir como destino el mismo que se nos propone. Configuramos idioma y teclado Abrimos un terminal ( si es la primera vez se nos pedirá algo asi ) : It doesn't appear that you have set up your ssh key. This process will make the files: /root/.ssh/id_rsa.pub /root/.ssh/id_rsa /root/.ssh/authorized_keys 21

22 Generating public/private rsa key pair. Enter file in which to save the key (/root/.ssh/id_rsa): Escribiremos /root/.ssh/id_rsa y presionaremos enter. Para configurar el idioma para que sea español o catalán simplemente abrimos un terminal y escribimos : system-config-language Para cambiar el teclado que por defecto está en ingles : system-config-keyboard, o tambien podemos hacerlo manualmente en herramientas del sistema. Una vez hecho esto, reiniciamos para que se apliquen los cambios de idioma. Reconfiguracion de la red eth0 y eth1 El problema principal de nuestro sistema es que utiliza 4 interfaces de red. Las tarjetas son vistas por Linux como dobles de manera que generan conflictos para rocks. Rocks asigna por defecto la eth0 a la red interna del cluster i eth1 para la red externa. Por lo tanto tendremos que activar y configurar la eth0 i la eth1. Para ello haremos lo siguiente: En la carpeta etc/sysconfig/network-scripts abriremos los scripts de eth0 i eth1, en ellos es posible que veamos una línea referente a la etiqueta TYPE. Lo que debemos hacer es eliminar la entrada con la etiqueta TYPE del archivo si la había y poner al principio de los scripts TYPE= Ethernet A continuación abriremos una terminal y escribiremos System-config-network Una vez dentro haremos click en la interfaz 1 ( eth1 ) y le diremos que queremos que sea estatica. A continuación activaremos la interfaz eth0 ( que obtendrá la ip estáticamente ) y la interfaz eth1 haciendolas asi operativas. Tambien tenemos que activar la casilla activar cuando se inicie el ordenador en las dos interfaces. Por ultimo asegurarnos de que las direcciones MAC de los dispositivos eth0 y eth1 se corresponden con las del sistema ( la MAC de eth0 acaba en e8 y la de eth1 en e9 ). Podemos volver a reiniciar o ejecutar el script-restarting y veremos como ya nos funciona toda la red, Ganglia, ntp y podemos acceder a internet. 22

23 Gestión de usuarios Creación de cuentas de usuario Esto se logra mediante el uso del comando de Linux useradd: # useradd usuario Este comando crea una entrada para el usuario en los archivos /etc/passwd, /etc/shadow, /etc/group (por defecto se crea un grupo por usuario). Adicionalmente crea el home directory /export/home/usuario y copia allí el contenido del directorio /etc/skel (archivos de configuración básicos). Una vez creada la cuenta es necesario que asignemos correctamente la ubicación del home directory. Por defecto useradd fija el home directory en el /export/home. Sin embargo para que el usuario encuentre su home directory en otros nodos este debe ser cambiado a /home. Para hacerlo se debe usar el comando usermod: # usermod -d /home/usuario usuario 2) Asignación de una contraseña. La contraseña se asigna normalmente usando el comando passwd: # passwd usuario 1. Creación de la cuenta con useradd. 2. Fijación de la contraseña con passwd 3. Ejecución del comando: # rocks sync users rocks sync users realiza automáticamente la sincronización de las cuentas y los archivos de usuarios en todo el clúster. Cuando abramos por primera vez una terminal con un usuario se nos pedirá algo parecido a esto: It doesn't appear that you have set up your ssh key. This process will make the files: /home/fcasino/.ssh/id_rsa.pub /home/fcasino/.ssh/id_rsa 23

24 /home/fcasino/.ssh/authorized_keys Generating public/private rsa key pair. Enter file in which to save the key (/home/fcasino/.ssh/id_rsa): Aqui escribiremos exactamente lo que nos pone (/home/fcasino/.ssh/id_rsa) Created directory '/home/fcasino/.ssh'. Enter passphrase (empty for no passphrase): Enter same passphrase again: Your identification has been saved in /home/fcasino/.ssh/id_rsa. Your public key has been saved in /home/fcasino/.ssh/id_rsa.pub. The key fingerprint is: 19:9c:75:a4:f9:09:31:3d:ef:1e:ff:7b:e6:e9:cd:a5 Una vez creada la cuenta con este mecanismo siempre será apropiado verificar que la cuenta de usuario funcione correctamente. Modificación de cuentas de usuario Una vez creada las propiedades de una cuenta de usuario (exceptuando su nombre o login ) pueden ser modificadas. Las propiedades más comúnmente sujetas a modificación incluyen la contraseña y el grupo o grupos a los que pertenece la cuenta. Para modificar por ejemplo el grupo al que pertenece un usuario se utiliza el comando usermod: # usermod -g <gid> usuario Donde <gid> es el identificador del grupo al que se desea pertenezca el usuario. Una vez modificada alguna de las propiedades de la cuenta deben sincronizarse nuevamente los archivos de configuración en el clúster. En este caso por simplicidad puede usarse el comando service para hacerlo: # service 411 commit Tenga en cuenta que de no hacer la sincronización manual, 411 realiza una sincronización automática cada hora. 24

25 Eliminación de cuentas de usuario La eliminación de una cuenta de usuario se realiza en 3 pasos: 1) Eliminación de la cuenta. Para ello se usa el comando userdel: # userdel usuario 2) Desmontado del home directory # umount /home/usuario # rocks run host compute umount /home/usuario 3) Eliminación del home directory: # rm -rf /export/home/usuario Es importante remarcar que si eliminamos un usuario realizamos una acción irreversible, toda la información de sus carpetas quedara borrada, asi que es aconsejable hacer una copia de seguridad en caso que fuera necesario. Se adjunta un script que facilita esta tarea. 25

26 Instalacion de compiladores Script compiladores Para ampliar la funcionabilidad del cluster, he creado un script automático que instalara una serie de software y compiladores, que en muchos casos ya están instalados en la distribución pero que aún así actualizaremos cuando sea necesario. El código del script es el siguiente: #!/bin/bash # instala lapack gmp i compiladores yum install gcc gcc-c++ gcc-gfortran yum install gcc-gnat yum install lapack lapack-devel blas blas-devel yum install gmp gmp-devel #GMP gives you access to the fast GMP library for fast big integer math. rpm -Uvh mpack el5.rf.x86_64.rpm # Esta es la ultima version pero se puede comprobar en la web El script instala por lo tanto los siguiente : Gcc & librerias Gcc++ & librerias Gfortran & librerías Gnat, ada & librerias Libgomp & libstdc Blas Lapack Para ejecutarlo, en la carpeta donde este el script, escribimos #./scriptlapackgmp --yes 26

27 Se puede ver que lo que ya esta instalado se va actualizando Tambien podemos observar que lapack estaba instalado. 27

28 Instalacion de gnat GPL Ahora instalaremos gnat-gpl x86_64-pc-linux-gnu-bin. Para hacerlo simplemente desempaquetamos y en el script doinstall modificamos ${TMPDIR:=`pwd`} por ${TMPDIR:=`/tmp`} y lo ejecutamos, aceptando los destinos por defecto. Finalmente nos aparecerá algo así: GNAT GPL is now installed. To launch it, you must put /usr/gnat/bin in front of your PATH environment variable. The following commands enable you to do this: PATH=/usr/gnat/bin:$PATH; export PATH (Bourne shell) setenv PATH /usr/gnat/bin:$path (C shell) Thank you for installing GNAT GPL Edition! Para acabar escribiremos en un terminal lo siguiente : PATH=/usr/gnat/bin:$PATH; export PATH 28

29 Ampliación de paquetes de la distribución. Instalación desde la distribución Más apropiado que instalar en posteriormente el paquete, es incluir el paquete directamente en la distribución que se instala en cada uno de los nodos. La ventaja evidente de este procedimiento estriba en el hecho que después de una reinstalación de los nodos estará garantizado que el paquete se instale automáticamente sin requerir que se ejecuten tareas extras. Para incluir un paquete en la distribución que prepara rocks para los nodos se debe seguir el procedimiento descrito a continuación. Rocks tiene un espacio especialmente dedicado a las contribuciones adicionales de los usuarios a la distribución instalada. El espacio está habilitado en el directorio / export/home/install/contrib/<versión>/<arch>/: # ls -l /export/home/install/contrib/4.2.1/i386 total 8 drwxr-xr-x 2 root root 4096 Nov 1 14:24 RPMS drwxr-xr-x 2 root root 4096 Nov 1 14:24 SRPMS Allí se pueden colocar los RPMS que se desea agregar a la distribución. En nuestro caso por ejemplo: # cp -rf gnuplot i386.rpm /export/home/install/contrib/4.2.1/i386/rpms Copiar el archivo rpm allí no es suficiente. Ahora es necesario configurar la distribución para que incluya el nuevo paquete y después reconstruir una nueva versión de la misma. La inclusión del paquete se hace a través de un archivo de configuración xml que debe prepararse en el directorio /export/home/install/site-profiles/<versión>/nodes: # ls -l /export/home/install/site-profiles/4.2.1/nodes total 4 -rw-rw-r-- 1 root root 1964 Sep 25 00:29 skeleton.xml El archivo skeleton.xml ofrece una plantilla para la preparación del nuevo archivo de configuración que deberá llamarse 'extend-compute.xml'. Para preparar este archivo debemos preparar una copia de skeleton.xml: # cd /export/home/install/site-profiles/4.2.1/nodes # cp skeleton.xml extend-compute.xml 29

30 Y editar este último archivo: extend-compute.xml:... <changelog> </changelog> <main> <!-- kickstart 'main' commands go here, e.g., partitioning info --> </main> <!-- There may be as many packages as needed here. Just make sure you only uncomment as many package lines as you need. Any empty <package></package> tags are going to confuse rocks and kill the installation procedure --> <!-- <package> insert your 1st package name here and uncomment the line</package> --> <!-- <package> insert your 2nd package name here and uncomment the line</package> --> <!-- <package> insert your 3rd package name here and uncomment the line</package> -->... Para incluir el nuevo paquete (o nuevos paquetes) se deberá agregar en la sección main del xml una línea con la etiqueta <package> indicando SOLAMENTE el nombre del paquete (sin el número de la versión u otra información que venga con el archivo rpm). Después de editarlo en nuestro ejemplo el archivo extend-compute.xml deberá lucir así: extend-compute.xml:... <changelog> </changelog> <main> <!-- kickstart 'main' commands go here, e.g., partitioning info --> </main> <package>gnuplot</package>... De existir más de un rpm se agregará una línea por cada rpm que se desea instalar. Una vez configurado se debe reconstruir la distribución usando el comando de rocks: # rocks create distro Cleaning distribution Resolving versions (base files) including "kernel" (4.2.1,i386) roll... including "area51" (4.2.1,i386) roll... including "java" (4.2.1,i386) roll... including "condor" (4.2.1,i386) roll... including "web-server" (4.2.1,i386) roll... including "base" (4.2.1,i386) roll... including "grid" (4.2.1,i386) roll... including "sge" (4.2.1,i386) roll... including "hpc" (4.2.1,i386) roll... including "ganglia" (4.2.1,i386) roll... including "os" (4.2.1,i386) roll... Including critical RPMS... El comando construye la estructura completa del directorio /export/home/install/rocks-dist. 30

31 La estructura de ese directorio incluye enlaces simbólicos a los paquetes que serán instalados en los nodos. Estos enlaces simbólicos se encuentran en el subdirectorio lan/i386/redhat/rpms de rocks-dist. Es una buena idea verificar que se encuentren allí enlaces simbólicos a los nuevos paquetes: # ls -ld rocks-dist/lan/i386/redhat/rpms/gnuplot i386.rpm lrwxrwxrwx 1 root root 62 Nov 14 06:40 rocks-dist/lan/i386/redhat/rpms/gnuplot i386.rpm -> / home/install/contrib/4.2.1/i386/rpms/gnuplot i386.rpm Una vez preparada la instalación se garantiza que en lo sucesivo los nodos contendrán los paquetes adicionales seleccionados. Es importante que una vez se reconstruye la distribución se pruebe al menos con la reinstalación de uno de los nodos que la distribución funciona correctamente. Para reinstalar fácilmente un nodo del clúster se puede recurrir a mecanismos de automatización que vienen instalados con Rocks y que usan el sistema kickstart ( descrito en el apartado de Consideraciones previas ). Ahora solo hace falta esperar. Es mejor si se tiene acceso a la consola del nodo para verificar si se producen errores fatales durante la re instalación (lo que lamentablemente no es difícil debido a la relativa fragilidad de los archivos de configuración xml que usa rocks para configurar la distribución). En caso de producirse errores deberá revisarse el archivo extendcompute.xml y reconstruir nuevamente la distribución en caso de cambios importantes a este archivo. 31

32 Activar acceso público vía web a nuestro frontend Para poder acceder vía web al clúster podemos configurar una serie de parámetros. Sea como sea, el roll Apache nos protegerá las partes importantes del clúster. Editaremos /etc/sysconfig/iptables, descomentando las siguientes líneas si estaban comentadas:... # Uncomment the lines below to activate web access to the clúster. #-A INPUT -m state --state NEW -p tcp --dport https -j ACCEPT #-A INPUT -m state --state NEW -p tcp --dport www -j ACCEPT... other firewall directives... Como root, reiniciamos el servicio iptables $ service iptables restart Usamos el comando hostname para obtener el nombre de nuestro frontend e intentamos acceder vía web para comprobar su correcto funcionamiento. Una vez se ha completado el procedimiento anterior ya podemos comenzar la instalación de los nodos. 32

33 Instalación de los nodos Hay que reconstruir la distribución para que todos los nodos queden actualizados con los cambios de software realizados en el servidor hasta este momento, ejecutaremos el comando: #cd /export/rocks/install #rocks create distro A continuación ya podremos instalar los nodos. Instalación Hacemos login en el frontend como root. Ejecutamos en un terminal: # insert-ethers Es el programa que captura por DHCP los nodos y los da de alta en la base de datos MySQL de RocksRun: Seleccionamos Compute y clicamos OK. 33

34 Entonces veremos la siguiente pantalla: Esta pantalla indica que insert-ethers está esperando a recibir los nodos. Encenderemos el primer nodo. El BIOS boot order de los nodos, para que todo vaya bien, tiene que ser: PXE (Network Boot), CD, Hard Disk. Cuando el frontend reciba la señal DHCP de un nodo veremos algo como esto: 34

35 La pantalla indica que insert-ethers ha recibido la petición DHCP del nodo, lo ha insertado en la base de datos y ha actualizado todos los archivos de configuración ( entre ellos /etc/hosts, /etc/dhcpd.conf y las DNS). Cuando esto termine veremos la siguiente pantalla: En la imagen se ve como insert-ethers ha descubierto un nodo. El ( ) a la derecha de compute-0-0 indica que el nodo aún no ha pedido el archivo kickstart.es normal, veremos esto por cada nodo sincronizado. El asterisco indica la consecución del archivo kickstart y que el nodo ha empezado a instalarse. Cuando todos los nodos tengan el (*), presionaremos f8 para salir de insert-ethers. 35

36 Configuración final de los nodos Sincronizar nodos Finalmente configure el sistema 411 para que sincronice en todos los nodos además de los archivos de configuración por defecto (/etc/passwd, /etc/group, etc.) otros archivos que pueda ser de utilidad compartir a través del clúster (p.e. /etc/profile, /etc/bashrc, /etc/ld.so.conf, etc.) 1) Usando service: # service 411 commit Commiting changes to login files using Wrote: /etc/411.d/etc.shadow Size: 2727/1840 bytes (encrypted/plain) Alert: sent on channel :8649 with master Este mecanismo solamente actualiza los archivos de configuración que han cambiado recientemente. 2) Usando make: # make -C /var/411 Que es equivalente a 1) con la diferencia de que se puede forzar la sincronización de todos los archivos usando la regla force : # make -C /var/411 force Instalacion de nodos a posteriori Simplemente comentar que se pueden instalar nodos posteriormente al primer uso de insert-ethers. Para ello simplemente ejecutaremos el comando insert-ethers y encenderemos nodo a nodo, los nodos que queramos añadir, siguiendo la mecánica que describimos anteriormente. El único requisito es que no estuvieran ya añadidos debido a que el sistema no los reconocerá. También se adjunta un script para borrar la base de datos de los nodos y poderlos reinstalar todos otra vez. 36

37 Reinstalacion de los nodos Cuando realicemos cambios o actualizaciones importantes en el servidor, es necesario sincronizar el software con los nodos, para ello los reinstalaremos: Reconstruiremos como la primera vez la distribución para que todos los nodos queden actualizados con los cambios de software realizados en el servidor hasta este momento: #cd /export/rocks/install #rocks create distro Y a continuacion para reinstalar todos los nodos: # rocks set host pxeboot compute action=install # ssh compute "shutdown -r now" Tambien se puede especificar la reinstalación de un nodo en concreto, especificando su nombre: # rocks set host pxeboot compute-0-0 action=install # ssh compute-0-0 "shutdown -r now" Algunas comprobaciones Si la instalación de los nodos es exitosa entonces no hace falta mayor cosa para comenzar a utilizar el Clúster. Por precaución se pueden realizar algunas pruebas sencillas para verificar que todo esté funcionando normalmente en la plataforma. 1. El comando rocks host funciona correctamente? # rocks run host hostname No: Los nodos piden password de root. Ocurrió algún problema con la creación de la clave pública y privada del root. Ningún nodo responde. El proceso de instalación de los nodos no se completo exitosamente. 37

38 2. Examine la salida de 'qstat -f'. Si la salida no es normal o muestra algunos nodos en estado 'au': # qstat -f Revise que los nodos estén funcionando 3. Un usuario puede conectarse exitosamente en el frontend? # ssh No: Revise que el usuario si exista El usuario no encuentra su home directory: revise el archivo de configuración / etc/auto.home y recargue el servicio de autofs Después del reload el usuario todavía no encuentra su home directory: apague los nodos y reinicie el frontend. Después de reiniciar el frontend, encienda los nodos. 4. Una vez adentro del frontend, puede el usuario conectarse transparentemente a otros nodos? No: Al usuario se le pide password y una vez ingresa no se encuentra su home directory: re sincronice los archivos de configuración en todo el clúster y reinicie en todo el clúster el servicio autofs. 38

39 Ejecución en varios nodos Obtener las direcciones MAC de todos los nodos ( también sirve de ejemplo para ver como ejecutar comandos en varios nodos ) : ~]# rocks run host " ifconfig -a head -1 " compute-0-11: eth0 compute-0-10: eth0 compute-0-3: eth0 compute-0-2: eth0 compute-0-0: eth0 compute-0-6: eth0 compute-0-12: eth0 compute-0-1: eth0 compute-0-5: eth0 compute-0-8: eth0 compute-0-7: eth0 compute-0-9: eth0 compute-0-4: eth0 compute-0-13: eth0 Link encap:ethernet HWaddr 00:1D:09:08:EF:3B Link encap:ethernet HWaddr 00:1D:09:09:13:BD Link encap:ethernet HWaddr 00:1D:09:08:EC:7A Link encap:ethernet HWaddr 00:1D:09:08:EC:7D Link encap:ethernet HWaddr 00:1D:09:08:EC:AD Link encap:ethernet HWaddr 00:1D:09:08:EF:1D Link encap:ethernet HWaddr 00:1D:09:08:F1:43 Link encap:ethernet HWaddr 00:1D:09:08:F1:22 Link encap:ethernet HWaddr 00:1D:09:08:F1:31 Link encap:ethernet HWaddr 00:1D:09:08:F1:25 Link encap:ethernet HWaddr 00:1D:09:09:11:C7 Link encap:ethernet HWaddr 00:1D:09:08:F1:28 Link encap:ethernet HWaddr 00:1D:09:08:EC:80 Link encap:ethernet HWaddr 00:1D:09:08:EF:2F Para reiniciar un nodo : rocks run host compute-0-0 "shutdown -r now" 39

40 Guía de funcionamiento A continuación haremos una descripción de los principales Rolls de la distribución que hemos instalado en nuestro clúster. Roll : Area 51 El Roll Area51 contiene utilidades y servicios para analizar la integridad de los archivos y el kernel de nuestro clúster. Los paquetes que incluye Area 51 son: Tripwire chkrootkit Tripwire Está configurado para analizar automáticamente los archivos de nuestro servidor cada día gracias al demonio cron. Para hacer un pequeño test del script tripwire podemos ejecutar: # /etc/cron.daily/tripwire Podremos ver en nuestra página de inicio del clúster que tenemos instalado tripwire 40

41 Si clicamos en la pestaña veremos el resumen diario de nuestro frontend, así como la posibilidad de acceder a los archivos anteriores de análisis del sistema. 41

42 Cuando el script se ejecuta correctamente, tripwire envía un mail al root. También se crea una página web donde se muestran los análisis recientes. Para ver el mail simplemente escribimos, como root, mail en la consola: Ejemplo de mail: root] # mail Mail version 8.1 6/6/93. Type? for help. "/var/spool/mail/root": 1 message 1 new >N 1 Thu May 20 22:37 210/8552 "Tripwire: Daily repor" & Message 1: From Thu May 20 22:37: X-Original-To: Delivered-To: Date: Thu, 20 May :37:41 GMT From: root To: Subject: Tripwire: Daily report from rocks22.sdsc.edu Parsing policy file: /opt/tripwire/etc/tw.pol *** Processing Unix File System *** Performing integrity check... Wrote report file: /opt/tripwire/db/report/rocks22.sdsc.edu twr Tripwire(R) Integrity Check Report Report generated by: root Report created on: Thu 20 May :36:48 PM GMT Database last updated on: Never 42

43 =============================================================================== Report Summary: =============================================================================== Host name: rocks22.sdsc.edu Host IP address: Host ID: None Policy file used: /opt/tripwire/etc/tw.pol Configuration file used: /opt/tripwire/etc/tw.cfg Database file used: /opt/tripwire/db/rocks22.sdsc.edu.twd Command line used: /opt/tripwire/bin/tripwire --check --cfgfile /opt/ tripwire/etc/tw.cfg Cambiar la dirección del mail de información de tripwire Podemos designar las direcciones de mail donde queremos que tripwire nos envíe información diaria. Para hacerlo ejecutaremos el comando rocks set tripwire mail address1 [address2] Por ejemplo, para enviar el mail a y root. # rocks set tripwire mail hostname Para ver las direcciones actuales donde tripwire envía los análisis: # rocks list tripwire mail chkrootkit Para ver si nuestro frontend está infectado por un rootkit ( un programa que esconde código malicioso), ejecutaremos : # /opt/chkrootkit/bin/chkrootkit Nos dará como resultado algo como esto ROOTDIR is / Checking amd... not found Checking basename... not infected Checking biff... not found Checking chfn... not infected Checking chsh... not infected Checking cron... not infected Checking date... not infected Checking du... not infected Checking dirname... not infected Checking echo... not infected Checking egrep... not infected Checking env... not infected Checking find... not infected Checking fingerd... not found Checking gpm... not infected Make sure none of the tests report INFECTED. Para más información-> /opt/chkrootkit/readme. 43

44 Roll:Ganglia Las páginas webs proporcionan una interfaz grafica de la monitorización del clúster, gracias a los procesos que Ganglia ejecuta en cada nodo. Ganglia monitoriza CPU load, free memory, disk usage, network I/O, operating system version, etc. La información se envía al frontend para que realice el historial. Además de los parámetros anteriores, también recoge el pulso de los nodos. Si pierde el pulso durante un tiempo de un nodo, la web lo declarara muerto marcándolo con una calavera. Es posible que tengamos que mirar esos nodos por posibles problemas. 44

45 Cluster Top Esta página es una versión del comando top, representa información de cada nodo del clúster y es ideal para monitorizar con precisión la actividad de los nodos. The Cluster Top difiere del top estándar en varios aspectos aunque los más importantes son los atributos "HOST" i "TN". Los nodos envían información de su estado cada 60 segundos. Un proceso con TN=30 significa que la última información recibida de ese proceso fue hace 30 segundos. Para minimizar el gasto de recursos, cada nodo muestra solo tantos procesos como CPUs tiene. Los procesos mostrados son los que más %CPU consumen. Por desgracia no se puede ajustar el número de procesos del que se envía información por cada nodo. Obviamente esto hace que la precisión se aleje mucho de la perfección pero es una buena aproximación a lo que puede estar pasando en el nodo. 45

46 Los datos son almacenados en el directorio /proc de cada nodo. Las estadísticas de memoria son muy parecidas a las que proporciona el comando ps, son calculadas desde el archivo virtual /proc/[pid]/statm. A continuación hay una breve explicación del significado de las columnas, tal y como sale en el manual. Process Columns TN The age of the information in this row, in seconds. HOST The node in the cluster on which this process is running. PID The Process ID. A non-negative integer, unique among all processes on this node. USER The username of this processes. CMD The command name of this process, without arguments. %CPU The percentage of available CPU cycles occupied by this process. This is always an approximate figure, which is more accurate for longer running processes. %MEM The percentage of available physical memory occupied by this process. SIZE The size of the "text" memory segment of this process, in kilobytes. This approximately relates the size of the executable itself (depending on the BSS segment). DATA Approximately the size of all dynamically allocated memory of this process, in kilobytes. Includes the Heap and Stack of the process. Defined as the "resident" - "shared" size, where resident is the total amount of physical memory used, and shared is defined below. Includes the the text segment as well if this process has no children. SHARED The size of the shared memory belonging to this process, in kilobytes. Defined as any page of this process physical memory that is referenced by another process. Includes shared libraries such as the standard libc and loader. 46

47 VM The total virtual memory size used by this process, in kilobytes. Configuración de Ganglia Activar pleno funcionamiento de Ganglia Para un rendimiento óptimo ganglia es ejecutado en modo "deaf". Mientras los nodos envían información al frontend de sus estadísticas, no reciben información de los peers, en otras palabras se pierden recursos durante ese tiempo. También significa que no podemos consultar el status del clúster enteramente. Esto puede resultar un problema si los procesos ejecutados paralelamente usan estadísticas de ganglia para análisis o depuración. Si queremos usar ganglia con toda funcionalidad en los nodos haremos lo siguiente: Crea un archivo XML llamado replace-ganglia-client.xml Escribe en el xml lo siguiente: 47

48 <?xml version="1.0" standalone="no"?> <kickstart> <description> UCB s Ganglia Monitor system for client nodes in the cluster. </description> <post> /sbin/chkconfig --add gmetad </post> </kickstart> Reinstala los nodos. Ahora tendrán acceso a una monitorización total. Ahora los nodos tienen el mismo nivel de monitorización que el frontend. Hay que pensar que esto requiere que ganglia ocupe muchos más recursos de los nodos por lo que la velocidad de cálculo del clúster ser verá mermada. 48

49 Roll: HPC EL objetivo de HPC es proporcionar aplicaciones para ejecutar trabajos paralelamente en el clúster. El siguiente software esta incluido en HPC: MPI over ethernet environments (OpenMPI, MPICH, MPICH2) PVM Benchmarks (stream, iperf, IOzone) Uso de HPC y MPI MPI es una librería de paso de mensajes, propuesta como estándar por programadores y usuarios, para proporcionar paralelismo. Necesitas ejecutar los programas MPI como usuario normal. Si no has creado una cuenta como usuario normal hazlo: # useradd username # rocks sync users Usar mpirun para OpenMPI Para ejecutar una prueba en 2 procesadores: Crea un archivo en un directorio home llamado machines, escribe: compute-0-0 compute-0-1 Ejecútalo desde el frontend: $ ssh-agent $SHELL $ ssh-add /opt/openmpi/bin/mpirun -np 2 -machinefile machines /opt/mpi-tests/bin/mpi-ring Usar mpirun para MPICH Para ejecutar un programa de test MPICH en 2 procesadores: Crea un archivo en tu directorio home llamado machines, y escribe: compute-0-0 compute-0-1 Compila un programa de test usando MPICH: $ cd $HOME $ mkdir mpich-test 49

50 $ cd mpich-test $ cp /opt/mpi-tests/src/mpi-ring.c. $ /opt/mpich/gnu/bin/mpicc -o mpi-ring mpi-ring.c -lm Ahora ejecútalo desde el frontend: $ ssh-agent $SHELL $ ssh-add $ /opt/mpich/gnu/bin/mpirun -nolocal -np 2 -machinefile $HOME/machines \$HOME/mpich-test/mpi-ring 50

51 Roll: SGE El Roll SGE instala y configura el SUN Grid Engine scheduler. Introducción al sistema de colas Una cola, a efectos prácticos, es un contenedor de trabajos que pueden ser ejecutados en uno o más procesadores de una o más maquinas. El sistema de colas permite englobar varios trabajos, de manera que compartirán una serie de atributos comunes asociados a la cola a la que pertenezcan y se verán afectados por los cambios en ésta. Por ejemplo podemos suspender, eliminar o realizar comandos sobre una cola que serán efectivos sobre todos los trabajos englobados en ella. Podemos también asociar cada maquina a una cola, escoger la cantidad de procesadores que se usaran en esa cola y demás combinaciones que se nos puedan imaginar para poder seleccionar con precisión cual es la maquina que queremos usar para cada trabajo y, además, la cantidad de procesadores y cuales en concreto destinaremos a su ejecución. El sistema de colas implantado en el cluster tiene principalmente los siguientes objetivos: -Maximizar el uso de la máquina dejando escoger directamente la maquina que recibirá el trabajo, pudiendo seleccionar la más óptima. -Repartir equitativamente los recursos (CPU, memoria) entre los usuarios ya que se podrán seleccionar que colas utiliza cada persona. -Facilitar el uso eficaz y sencillo del sistema por los motivos anteriores. 51

52 El planificador de tareas SGE Un planificador de tareas es un software que gestiona procesos por lotes, también conocidos como batch processing. Hay que diferenciar entre planificador de tareas ( de lo que nosotros hablaremos ) y planificador de procesos, que no es más que la propia arquitectura del sistema operativo para gestionar sus propios procesos y servicios. Hoy en dia los planificadores de tareas también son conocidos como batch system, Distributed Resource Management System (DRMS) o Distributed Resource Manager (DRM).* El uso típico de los planificadores de tareas es proporcionar una interfaz donde poder gestionar y monitorizar ejecuciones de trabajos en grandes clusters. Es totalmente necesario, para una gestión en tiempo real, el uso de planificadores que garanticen el máximo rendimiento sin perdida de datos para gestionar los multiples procesos que se ejecutan. Es importante también que para el software planificador de procesos no sea un impedimento el utilizar diferentes sistemas operativos y que ofrezca una interfaz para evitar este posible problema Sun Grid Engine es un sistema que distribuye los recursos disponibles i que gestiona la carga de los computadores para poder ejecutar procesos de diferentes usuarios de manera optima. SGE anteriormente conocido como CODINE (COmputing in DIstributed Networked Environments) o GRD (Global Resource Director) es un software (DRM) de codigo abierto desarrollado por Sun Microsystems. * El uso de SGE tiene sentido en computación de alto rendimiento y es el responsable de ejecutar y gestionar todo tipo de procesos en paralelo, interactivos, no interactivos y etcétera. Ademas de encargarse de la ejecución i la gestión de los procesos, también se encarga de distribuir la carga entre todo el cluster y esto incluye la optimización de recursos como cpu, memoria o espacio en el disco duro. Otro beneficio es que se instala por defecto en los nuevos nodos que se puedan unir al clúster en cada momento. *Fuente Wikipedia Enviar trabajos serie en SGE Podemos enviar trabajos a SGE vía scripts. Aquí tenemos un ejemplo del envío de un trabajo a SGE llamado sleep.sh. El script ejecuta básicamente el comando sleep. 52

53 sysadm1]$ cat sleep.sh #!/bin/bash # #$ -cwd #$ -j y #$ -S /bin/bash # date sleep 10 date Las líneas que empiecen con #$ serán tratadas como opciones en SGE. -cwd significa ejecutar el trabajo en el directorio actual. -j y significa que la salida de los errores sea por la salida estándar. -S /bin/bash especifica que el interprete es tipo Bash shell. Para enviar este trabajo en serie hay que usar el comando qsub sysadm1]$ qsub sleep.sh your job 16 ("sleep.sh") has been submitted Enviar trabajos en paralelo en SGE Ahora probaremos con un trabajo en paralelo. Primero vamos a obtener y ejecutar un programa MPI. Como usuario normal ejecuta : $ cd $HOME $ mkdir test $ cd test $ cp /opt/mpi-tests/src/*.c. $ cp /opt/mpi-tests/src/makefile. $ make Ahora crearemos un script SGE para mpi-ring. El programa mpi-ring envía un mensaje de 1 MB en un anillo entre todos los procesos de un trabajo MPI. El proceso 0 envía un mensaje de 1 Mb al proceso 1, entonces el proceso 1 envía un mensaje de 1 MB al proceso 2 Crea un archivo llamado $HOME/test/mpi-ring.qsub Y escribe lo siguiente en él: #!/bin/bash # #$ -cwd #$ -j y #$ -S /bin/bash # /opt/openmpi/bin/mpirun -np $NSLOTS $HOME/test/mpi-ring El comando para enviar un trabajo paralelo MPI es similar al de los trabajos serie pero se necesitara usar he -pe orte N. N hace referencia al número de procesadores en que quieres desglosar el programa MPI ( un proceso ejecutado en paralelo en cada procesador, todos pertenecen al desglose del mismo programa ). 53

54 Aquí hay un ejemplo de cómo enviar un trabajo que usa 2 procesadores : $ qsub -pe orte 2 mpi-ring.qsub Cuando el trabajo acaba, la salida estará en el archivo mpi-ring.qsub.o*. Los errores los tendremos en mpi-ring.qsub.po*. Para ejecutar el trabajo en más procesadores, simplemente cambia el número que tenemos en -pe orte flag. Para ejecutarlo en 16 procesadores: $ qsub -pe orte 16 mpi-ring.qsub Enliminar trabajos en paralelo en SGE Si necesitas eliminar un trabajo enviado puedes usar qdel I su id. Por ejemplo para eliminar fluent.sh: sysadm1]$ qsub fluent.sh your job 31 ("fluent.sh") has been submitted $ qstat job-id prior name user state submit/start at queue master ja-task-id fluent.sh sysadm1 t 12/24/ :10:28 comp-pvfs- MASTER $ qdel 31 sysadm1 has registered the job 31 for deletion $ qstat $ Otro ejemplo : ~]# qstat -u fcasino job-id prior name user state submit/start at queue slots ja-task-id sleep.sh fcasino Eqw 07/30/ :24: mpi-ring fcasino Eqw 07/30/ :32:12 6 ~]# qdel 1 root has deleted job 1 ~]# qdel 2 root has deleted job 2 54

55 Aunque el ejemplo pertenece a un script en bash, SGE también acepta otros tipos de scripts. Es trivial transformar trabajos serie en scripts SGE. De manera similar, para los trabajos en paralelo MPI necesitas usar el mpirun correcto y añadir la variable $NSLOTS en el script SGE. Para otros trabajos en paralelo que no sean MPI, tenemos que definir una interfaz en paralelo, para ello consultaremos la documentación de SGE. Monitorizando trabajos SGE Para monitorizar los trabajos usaremos el comando qstat. Si lo ejecutamos sin parámetros nos mostrara la lista de todos los trabajos : sysadm1]$ qstat job-id prior name user state submit/start at queue master ja-task-id sleep.sh sysadm1 t 12/23/ :22:09 frontend-0 MASTER 21 0 sleep.sh sysadm1 t 12/23/ :22:09 frontend-0 MASTER 22 0 sleep.sh sysadm1 qw 12/23/ :22:06 Usaremos qstat -f para obtener una lista más detallada: sysadm1]$ qstat -f queuename qtype used/tot. load_avg arch states comp-pvfs-0-0.q BIP 0/ glinux comp-pvfs-0-1.q BIP 0/ glinux comp-pvfs-0-2.q BIP 0/ glinux frontend-0.q BIP 2/ glinux 23 0 sleep.sh sysadm1 t 12/23/ :23:40 MASTER 24 0 sleep.sh sysadm1 t 12/23/ :23:40 MASTER ############################################################################ - PENDING JOBS - PENDING JOBS - PENDING JOBS - PENDING JOBS - PENDING JOBS ############################################################################ 25 0 linpack.sh sysadm1 qw 12/23/ :23:32 También puedes usar qstat para ver el estado de un trabajo si le parametrizamos la id. Para ello usaremos la opción -j N ( donde N será la id ). sysadm1]$ qsub -pe mpich 1 single-xhpl.sh your job 28 ("single-xhpl.sh") has been submitted sysadm1]$ qstat -j 28 job_number: 28 exec_file: job_scripts/28 55

56 submission_time: Wed Dec 24 01:00: owner: sysadm1 uid: 502 group: s ysadm1 gid: 502 sge_o_home: /home/sysadm1 sge_o_log_name: sysadm1 sge_o_path: /opt/sge/bin/glinux:/usr/kerberos/bin:/usr/local/bin:/bin:/usr/bin:/usr/sge_o_mail: /var/spool/mail/sysadm1 sge_o_shell: /bin/bash sge_o_workdir: /home/sysadm1 sge_o_host: frontend-0 account: sge cwd: /home/sysadm1 path_aliases: /tmp_mnt/ * * / merge: y mail_list: notify: FALSE job_name: single-xhpl.sh shell_list: /bin/bash script_file: single-xhpl.sh parallel environment: mpich range: 1 scheduling info: queue "comp-pvfs-0-1.q" dropped because it is temporarily not available queue "comp-pvfs-0-2.q" dropped because it is temporarily not available queue "comp-pvfs-0-0.q" dropped because it is temporarily not available Gestionando colas SGE Para mostrar una lista de colas en el clúster usaremos qconf -sql. sysadm1]$ qconf -sql comp-pvfs-0-0.q comp-pvfs-0-1.q comp-pvfs-0-2.q frontend-0.q Si hay necesidad de deshabilitar una cola en particular sea por el motivo que sea, usaremos qmod -d Q ( donde Q es el nombre de la cola ). Necesitaras ser administrador de SGE para deshabilitar una cola. También se pueden especificar atajos para seleccionar un rango particular de colas. sysadm1]$ qstat -f queuename qtype used/tot. load_avg arch states comp-pvfs-0-0.q BIP 0/ glinux comp-pvfs-0-1.q BIP 0/ glinux comp-pvfs-0-2.q BIP 0/ glinux frontend-0.q BIP 0/ glinux sysadm1]$ su - Password: root]# qmod -d comp-pvfs-0-0.q Queue "comp-pvfs-0-0.q" has been disabled by root]# qstat -f queuename qtype used/tot. load_avg arch states 56

57 comp-pvfs-0-0.q BIP 0/ glinux d comp-pvfs-0-1.q BIP 0/ glinux comp-pvfs-0-2.q BIP 0/ glinux frontend-0.q BIP 0/ glinux Para restaurar la cola usaremos qmod -e Q. Aquí hay un ejemplo donde especificamos Q como un rango especifico de colas mediante atajos. root]# qmod -e comp-pvfs-* Queue "comp-pvfs-0-0.q" has been enabled by root - queue "comp-pvfs-0-1.q" is already enabled root - queue "comp-pvfs-0-2.q" is already enabled root]# qstat -f queuename qtype used/tot. load_avg arch states comp-pvfs-0-0.q BIP 0/ glinux comp-pvfs-0-1.q BIP 0/ glinux comp-pvfs-0-2.q BIP 0/ glinux frontend-0.q BIP 0/ glinux Gestionando SGE usando Qmon Qmon es la interficie grafica de SGE. Con ella resulta muy fácil enviar cualquier tipo de trabajo con una serie de parámetros configurables a los nodos o cpus que queramos. Definitivamente es el método mas recomendado y que menos problemas ocasiona. Gracias a qmon también podemos gestionar, monitorizar y eliminar trabajos con pocos clicks de raton. Para usar qmon escribiremos en una terminal qmon : Nos aparecerá el siguiente menú : La primera casilla de arriba a la izquierda entra en el menú de monitorización y gestión de las colas. 57

58 tercera casilla de arriba a la izquierda entra en el menú de envio de jobs. Aquí podemos especificar el nombre del job, los nombres de los ficheros de salida y error, y si accedemos a la pestaña advanced tenemos las opciones de envio sobre una interficie en paralelo y seleccionando en numero de CPUS que usaremos. 58

59 Tambien podemos mirar este manual orientativo ( a partir de la pagina 18 ) 59

60 Problemas y contratiempos del proyecto Dia a Dia de la instalación y problemas Breve repaso sobre los problemas que he tenido durante todo el proceso de instalación del cluster, contratiempos, versiones y soluciones empleadas Problemas con la IP de Odisea en la intranet No coincidencia de IP s ( dhcp incorrecto ) El mayor de todos los contratiempos, ha sido sin duda el problema de la red del cluster. En primer lugar, la intranet de la universidad tiene una serie de firewalls que cierran el paso a toda conexión realizada desde el exterior, con lo que esto nos llevo al primer problema que fue el visionado de ganglia ( que será solo posible desde la intranet o haciendo un túnel desde casa ). El otro gran problema ( mayor por su dificultad a la hora de encontrarlo y por los dolores de cabeza que ha causado durante meses ) ha sido la asignación de la ip al cluster Odisea por parte de los técnicos de la urv. Inicialmente el cluster tenia una instalacion de la distribución OSCAR que, al igual que ROCKS, se basan en CentOs. Por aquel entonces, los técnicos de DELL que realizaron la instalación configuraron el hardware para que el cluster funcionara en paralelo y tuviera conexión a internet, algo en lo que fracasaron porque nunca se han podido mandar trabajos a todas las maquinas, pero lo que es aun peor fue que asignaron unas determinadas ip a las direcciones Mac de odisea que me dieron muchos dolores de cabeza que ahora profundizare. Como conocimiento previo es necesario saber que el servidor del cluster posee 4 interfaces de red distribuidas en dos tarjetas de red ( 2 y 2 ) de manera que tenemos las siguientes asignaciones eth0, eth1,eth2,eth3. Por algún motivo, los técnicos de DELL decidieron usar la eth0 y la eth2 ( saltándose la 1 ) para configurar la red externa ( eth2 ) y la red interna ( eth0 ) del cluster. El problema surgió cuando intente instalar el software de ROCKS, que por defecto asigna a eth0 la red interna y a eth1 la externa. Al no ser posible configurar que ROCKS use la eth2 para la red externa tuve que hacer unas reconfiguraciones de kernel que son explicadas en esta sección Reconfiguracion de la red eth0 y eth1. 60

61 Una vez hecho el arreglo anterior, la red interna del cluster seguía fallando debido a que la MAC asignada por la intranet de la urv para la eth1 no era la misma que para la eth2 y este conflicto es el que mas tiempo ( meses ) me ha llevado averiguar, entre otros motivos porque era un problema que se manifestaba a la vez con muchos otros, haciendo muy difícil su localización. Este ultimo problema fue encontrado y solucionado cuando se instalo en el sistema la versión 5.2 de rocks, que anulaba una serie de bugs de la versión anterior 5.1, errores que se intentaron solucionar y se solucionaron parcialmente después de semanas de mailing pero que debido a éstos y a los problemas de red hicieron imposible durante meses el poder avanzar la instalacion. Una vez instalada la versión 5.2 y solucionadas las asignaciones de la intranet de la urv a las MAC de odisea, de manera que se pudiesen usar las eth0 y la eth1 tal y como pide ROCKS, todo fue mucho mas fácil. Problemas con la versión 5.1 de Rocks Clusters Bugs en archivos En los siguientes archivos había bugs que generaban errores sin motivo alguno. Habia que modificar el código de los archivos y reemplazarlos. Los archivos son los siguientes : *bug.py *kickstart.py * plugin_dns.py *sshd_config * init.py Se adjuntan los archivos modificados correctamente, simplemente había que reemplazarlos. Aun asi y tras varias tardes mas de investigación, el cluster seguía sin funcionar. 61

62 Reconfiguracion de la red eth0 y eth1 Despues de semanas de búsqueda para solucionar el problema ( en foros Linux y gracias a la ayuda de las listas de mailing de ROCKS ) pude encontrar una solución al problema que presentaba el cluster al intentar instalar la versión 5.1 de rocks e intentar activar la interficie de red externa eth2 para poder acceder a internet desde el servidor, problema que describo a continuacion. El problema principal de nuestro sistema es que utiliza 4 interfaces de red. Las tarjetas son vistas por Linux como dobles de manera que generan conflictos para rocks. Rocks asigna por defecto la eth0 a la red interna del cluster i eth1 para la red externa. Por lo tanto seguiremos unos pasos para reconfigurar el kernel de manera que asignaremos las direcciones MAC de las eth que nosotros queramos usar a los puertos eth0 y eth1. Actualmente la asignación es la siguiente : Crearemos y editaremos el archivo /etc/udev/rules.d/11-local.rules e insertaremos las siguientes líneas en él. KERNEL=="eth0",SYSFS{address}=="00:1D:09:08:EF:23",NAME="eth0" KERNEL=="eth1",SYSFS{address}=="00:15:17:48:B3:E8",NAME="eth1" KERNEL=="eth2",SYSFS{address}=="00:15:17:48:B3:E9",NAME="eth2" Ahora para el sistema las asignaciones anteriores serán las validas, de manera que todo queda así. 62

63 Las siguientes asignaciones han cambiado eth3 antes = eth 3 ahora eth1 antes = eth1 ahora eth2 antes = eth0 ahora eth0 antes = eth2 ahora El segundo paso será substituir los archivos ifcfg-ethx que hemos creado ( estarán en la carpeta red ) por los antiguos en los siguientes directorios: En la carpeta de etc/sysconfig/network-scripts A continuación reiniciaremos el cluster. Una vez hayamos reiniciado nos quedara el paso final, abriremos una terminal y escribiremos System-config-network Una vez dentro haremos click en la interfaz 1 y le diremos que queremos usar DHCP. A continuación activaremos la interfaz eth0 y la interfaz eth1 haciendolas asi operativas. Podemos volver a reiniciar o ejecutar el script-restarting y veremos como ya nos funciona toda la red, Ganglia, ntp y podemos acceder a internet. Problemas con nodos i switchs Durante el proceso de instalación y configuración del cluster, han surgido diversos contratiempos debido a errores de hardware que son descritos a continuación Boot Dhcp erróneo en nodos Existian dos nodos que no arrancaban via dhcp. Este problema derivaba en que no se podía iniciar la instalación de rocks en ellos de manera automática y que por lo tanto, no se podían usar para enviar jobs. Tras varias pruebas y pings realizados con un cable cruzado entre ellos y el servidor, se determino que el problema no provenía de las tarjetas de red. Antes de investigar sobre un posible problema de software, se cambiaron los cables de red que conectaban esos dos nodos con el switch de red interna del cluster. Una vez cambiado se comprobó que ahora si funcionaban correctamente y que por lo tanto se podía instalar Rocks y usar el SGE correctamente para enviar jobs. 63

64 Switch KVM & Dell technical service Inicialmente el switch KVM estaba configurado para poder ver y utilizar los periféricos de raton y teclado en cualquier nodo del cluster para poder gestionarlo directamente. Debido a la instalación de Rocks 5.2 y a un apagon de luz, el swtich dejo de ser útil y se substituyo por periféricos usb. Despues de varias llamadas para conseguirlo Dell envio a un técnico y el switch KVM fue cambiado. Ahora la gestión personalizada de todos los nodos es posible mediante el mismo teclado y el mismo raton. Para cambiar de nodo simplemente hay que pulsar la tecla IMP PANT y seleccionar el nodo que queremos controlar. Switch Red interna & Dell technical service Al igual que en el caso anterior, el switch de red interna dejo de funcionar debido a un apagon en la ETSE. El principal problema era que el cluster se desconfiguro por completo y fue necesaria una reinstalación completa. La solución fue parecida al caso anterior aunque esta vez la garantía del switch era básica y por lo tanto solo nos enviaron la pieza y yo mismo la tuve que cambiar. Una vez substituida, procedi a la reinstalación del cluster que ahora volvia a funcionar por completo. 64

65 Juego de pruebas Ejecución de benchmarks Para ejecutar un juego de pruebas y poder así demostrar el correcto funcionamiento del clúster ejecutaremos un benchmark. El bechmark utilizado es un software gratuito proporcionado por la NASA. En nuestro caso hemos utilizado NPB 2.3 basado en MPI. Este benchmark se basa en una serie de pruebas de diferentes tipos para determinar el rendimiento del clúster. Para compilarlo correctamente hemos cambiado las especificaciones del fichero make.def ( fichero que surge de renombrar el make.def.template ) de manera que hemos sustituido el compilador de fortran f77 por mpif77 y el compilador de c cc por mpicc. Utilizaremos diferentes conjuntos de procesadores para calcular el tiempo de ejecución. 65

66 Podemos apreciar mediante la siguientes capturas que ganglia monitoriza perfectamente la actividad de las máquinas mientras estamos ejecutando el software de la N.A.S.A. Observamos, en la imagen de arriba, la actividad de los nodos 0-0, 0-1, 0-2 y 0-3 al ejecutar los benchmarks con 16 CPU. También el nodo 0-11 trabaja al 100% en un benchmark con 4 CPU. 66

67 En la anterior imagen, vemos el trabajo de diferentes nodos ejecutando por separado varios benchmarks con 4 CPU. Una vez ejecutado el benchmark éstos son los tiempos de ejecución en segundos: NPB cpu 8 cpu 16 cpu 32 cpu bt 1710,12 433,04 cg 187,39 91,09 113,6 74,84 sp 1200,48 380,88 mg 78,8 39,41 24,29 14,15 lu 903,14 479,43 242,05 92,18 ep 108,61 53,77 26,73 13,46 ft 476,55 214,29 132,42 82,46 67

68 cpu 8 cpu 16 cpu 32 cpu bt cg sp mg lu ep ft En la gráfica anterior observamos como el tiempo de ejecución decae cada vez que usamos más procesadores, cosa que demuestra que el clúster es capaz de paralelizar procesos para optimizar el tiempo y el rendimiento. Vemos así que el clúster está totalmente operativo y logra una buena escalabilidad en aplicaciones altamente paralelas.. 68

69 Velocidad Guía instalación y configuración Clusters Fran Casino Cembellín También se ha creado una tabla para mostrar la proporción del tiempo que supone ejecutar un proceso con 4 CPU respecto de ejecutarlo con 8, 16 o 32 CPU, de manera que se puede visualizar el speedup relativo. 12 Speedup relativo cpu 8 cpu 16 cpu 32 cpu bt 1 3, cg 1 2, , , sp 1 3, mg 1 1, , , lu 1 1, , , ep 1 2, , , ft 1 2, , , Vemos en el gráfico que, por ejemplo, ejecutar el benchmark LU con 32 procesadores, supone acabarlo 9,79 veces más rápido que usando 4 procesadores. Por lo tanto el speedup es mayor a 8 (que sería el normal 32/4=8) debido a la mayor cantidad de memoria caché que tenemos con 16 CPU en vez de con 4. 69

70 Conclusiones Valoraciones personales Como experiencia La oportunidad de trabajar con un clúster me ha proporcionado unos conocimientos que, aunque bastante autodidactas, son del todo provechosos. He conocido el mundo de la computación en paralelo y me he informado sobre muchos sistemas que lo usan y también sobre su muy relevante importancia para el mundo y el desarrollo en general. El uso de Linux es mejor Una vez más, Linux ha demostrado que no tiene nada que ver con Windows o Mac a efectos de computación paralela. La gran mayoría de clústeres están montados sobre Linux y también todos los programas y el código que se desarrolla es sobre Linux. Está claro que si todos desarrollamos sobre código abierto, llegamos más lejos que unos pocos. Es caro pero efectivo Es obvio que la computación paralela no es barata. Nuestro sistema tuvo un coste aproximado de euros. Hoy en día es posible hacerse un clúster con unos cuantos PC cualesquiera aunque es recomendable que usen el mismo hardware. De todas formas la preparación, potencia y el montaje en armario de un clúster es muy importante debido a varios factores como por ejemplo la facilidad de acceso, la reducción de espacio o la refrigeración. 70

71 Problemas configuración La faceta que más problemas me ha dado de la instalación (que a priori parece bastante automática) es la configuración de red y la instalación de los nodos (esto último debido a bugs y errores ajenos). La red de la URV no es una red abierta obviamente y ese hecho junto con las preconfiguraciones erróneas de Rocks 5.2 me dio bastantes problemas. Aprendizaje Estoy muy satisfecho de todo lo que he aprendido, he profundizado mas en el mundo Linux, he aprendido mucho sobre computación paralela y también he conocido a mucha gente que se dedica a esto y que me ha ayudado en gran medida para poder solucionar mis problemas de configuración. 71

72 Recursos utilizados Apéndice y bibliografía Manuales y links A continuación se disponen de varios hipervínculos a páginas web y referencias directas a los manuales en PDF que se han usado para la realización de este manual. Páginas Web Sobre SGE : Ejemplos de scripts SGE Otros ejemplos de scripts SGE Mas ejemplos de manejo de SGE Comandos rapidos de QMON Configuracion de parámetros de SGE Sobre ROCKS : Rocks official información adicional sobre rocks clusters 72

73 Sobre DELL : Explicación de cómo maniobrar con el armario y los racks de DELL Web con toda la documentación de DELL y sus tipos de montaje y equipo Información adicional : Web coin or https://projects.coin-or.org/coinbinary Web Blas lapack command reference definición, teorías, tipos e historia de los clusters. Servidor NTP y su importancia Sun mailing list Manuales de usuario Información y cultura Manual información sobre Clusters Manual teórico computación alto rendimiento Instalación e información sobre el software Manual instalación rocks clusters universidad Antioquia Manual BLAS LAPACK 73

74 Manual oficial roll area 51 Manual oficial roll sge Manual oficial roll ganglia Manual oficial roll hpc Manual switch DELL KVM 2616 ( hardware ) Manual switch DELL Ethernet 2716 ( hardware ) Manual Cica SGE Archivos necesarios Scripts y código Archivos ifcfg-ethx (información previa del clúster) Scripts de instalación y configuración Archivos y configuraciones antiguos ( para referencias solamente ) 74

GUÍA DE USO CLUSTER CICA

GUÍA DE USO CLUSTER CICA 1. Esquema General 2. Conexión 3. Sistema de Colas 4. Compilación de aplicaciones 5. Aplicaciones disponibles 6. Almacenamiento compartido 7. Monitorización de tareas GUÍA DE USO CLUSTER CICA 1. Esquema

Más detalles

Servidor. Comenzaremos por confirmar que el servicio NFS esta instalado y ejecutandose desde la terminal, escribiremos lo siguiente: #rpm -q nfs-utils

Servidor. Comenzaremos por confirmar que el servicio NFS esta instalado y ejecutandose desde la terminal, escribiremos lo siguiente: #rpm -q nfs-utils NFS Red Hat Enterprise Linux 6 provee dos mecanismos para compartir archivos y carpetas con otros sistemas operativos por medio de la red. Una de las opciones es utilizar una tecnologia llamada samba.

Más detalles

ANEXO I. Instalación y Configuración de CloudStack.

ANEXO I. Instalación y Configuración de CloudStack. ANEXO I. Instalación y Configuración de CloudStack. La finalidad de este anexo es describir de forma precisa el proceso de instalación y configuración de CloudStack. Éste comienza con la instalación del

Más detalles

virtual appliance guía de inicio rápido

virtual appliance guía de inicio rápido vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 11.10 64-bit y hosts

Más detalles

virtual appliance guía de inicio rápido

virtual appliance guía de inicio rápido vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 12.04 64-bit y hosts

Más detalles

Oracle Database 12c (12.1.0.2.0) Creación de Máquina Virtual OL 7.0

Oracle Database 12c (12.1.0.2.0) Creación de Máquina Virtual OL 7.0 Oracle Database 12c (12.1.0.2.0) Creación de Máquina Virtual OL 7.0 1. Certificación de Ambiente Antes de comenzar la instalación y configuración es necesario verificar que la versión de sistema operativo

Más detalles

ebox: Servidor de dominio Windows libre y gratuito

ebox: Servidor de dominio Windows libre y gratuito ebox: Servidor de dominio Windows libre y gratuito Guía de instalación y configuración Manuel Morán Vaquero mmv@edu.xunta.es Febrero 2010 Esta guía está basada en la versión 1.2 de ebox Índice 1 Introducción

Más detalles

Toda la información de instalación se puede encontrar en el fichero "install.log".

Toda la información de instalación se puede encontrar en el fichero install.log. MAST STORAGE Instalación Linux 1. Descargue el archivo de instalación (obm-nix.tar.gz) y ejecútelo. 2. Descomprima el fichero de instalación en /usr/local/obm mkdir /usr/local/obm cd /usr/local/obm gunzip

Más detalles

Gestor de Colas SGE. 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON

Gestor de Colas SGE. 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON Gestor de Colas SGE 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON 1. Qué es? SGE (Sun Grid Engine) es un gestor de colas, realizado por Sun Microsystems.

Más detalles

Citrix XenServer. 1 de 25 09/06/2008 23:39. Instalación, configuración y administración de Citrix XenServer,

Citrix XenServer. 1 de 25 09/06/2008 23:39. Instalación, configuración y administración de Citrix XenServer, 1 de 25 09/06/2008 23:39 Citrix XenServer Instalación, configuración y administración de Citrix XenServer, Citrix XenServer permite a las empresas disponer de máquinas virtuales Windows y Linux rápida

Más detalles

Manual de Instalación y Configuración

Manual de Instalación y Configuración Manual de Instalación y Configuración Sí Servidor Estatal SSIE - Estatal v.10.2 Mayo, 2015 Nombre del Manual Instalación y Configuración Servidor Estatal SSIE-Estatal v.10.2 Unidad responsable de la Elaboración

Más detalles

Cómo comprar en la tienda en línea de UDP y cómo inscribirse a los módulos UDP

Cómo comprar en la tienda en línea de UDP y cómo inscribirse a los módulos UDP Cómo comprar en la tienda en línea de UDP y cómo inscribirse a los módulos UDP Sistema de registro y pago Este sistema está dividido en dos etapas diferentes*. Por favor, haga clic en la liga de la etapa

Más detalles

Ministerio de Educación, Cultura y Deporte. Aulas en Red. Windows. Módulo 1: Tareas Iniciales. Instalación Servidor

Ministerio de Educación, Cultura y Deporte. Aulas en Red. Windows. Módulo 1: Tareas Iniciales. Instalación Servidor Ministerio de Educación, Cultura y Deporte. Aulas en Red. Windows Módulo 1: Tareas Iniciales. Instalación Servidor Aulas en red. Aplicaciones y servicios. Windows Windows Server 2008 En este apartado de

Más detalles

REQUISITOS DEL SISTEMA. Software Servidor. Cliente. Hardware Servidor. Cliente

REQUISITOS DEL SISTEMA. Software Servidor. Cliente. Hardware Servidor. Cliente MANUAL TECNICO INSTALACIÓN Y CONFIGURACIÓN DEL SISTEMA AARON A QUIEN VA DIRIGIDO El siguiente manual está dirigido al administrador encargado de la instalación y configuración del Sistema AARON. PRÓLOGO

Más detalles

Guía de Instalación Abril-2009

Guía de Instalación Abril-2009 Antes que empiece a copiar datos en el servidor de copia el servidor MBO (el servidor MBO), necesita instalar MBO Manager (MBO) en su ordenador. Instalar MBO en Windows Siga les instrucciones del asistent

Más detalles

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ingeniería Redes de Datos Práctica 11 Capa6 Modelo OSI. PRÁCTICA 11 SSH: Secure Shell

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ingeniería Redes de Datos Práctica 11 Capa6 Modelo OSI. PRÁCTICA 11 SSH: Secure Shell 1.- Objetivos de Aprendizaje El alumno: UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO PRÁCTICA 11 SSH: Secure Shell Al finalizar la práctica, conocerá la importancia de utilizar el protocolo SSH (Secure Shell)

Más detalles

CENTRO DE BACHILLERATO TECNOLÓGICO INDUSTRIAL Y DE SERVICIOS #166 Pablo Torres Burgos

CENTRO DE BACHILLERATO TECNOLÓGICO INDUSTRIAL Y DE SERVICIOS #166 Pablo Torres Burgos INSTRUCCIONES: Crear una máquina virtual con CentOS. Esperar a que cargue el SO y abrir una terminal de comandos. Realizar lo siguiente. NOTA: Para cada comando que se ejecute exitosamente: tomar una captura

Más detalles

UNIVERSIDAD DON BOSCO FACULTAD DE ESTUDIOS TECNOLÓGICOS ESCUELA DE COMPUTACIÓN

UNIVERSIDAD DON BOSCO FACULTAD DE ESTUDIOS TECNOLÓGICOS ESCUELA DE COMPUTACIÓN UNIVERSIDAD DON BOSCO FACULTAD DE ESTUDIOS TECNOLÓGICOS ESCUELA DE COMPUTACIÓN CICLO: 02/2015 GUÍA DE LABORATORIO #6 Nombre de la Practica: Instalación de FreeBSD para Server. Tiempo Estimado: 2 horas

Más detalles

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.

Más detalles

Instituto Tecnológico Las Américas (ITLA) Sistemas Operativos 3 (SO3) Daniel Alejandro Moreno Martínez. Matrícula: 2010-2946.

Instituto Tecnológico Las Américas (ITLA) Sistemas Operativos 3 (SO3) Daniel Alejandro Moreno Martínez. Matrícula: 2010-2946. Instituto Tecnológico Las Américas (ITLA) Sistemas Operativos 3 (SO3) Daniel Alejandro Moreno Martínez Matrícula: 2010-2946 How to How to: Web Server (Apache)!!! Servidor Web El servidor HTTP Apache es

Más detalles

Cómo hacer módulos y librerías para ejecutarse a bordo del NAO. Mauricio Josafat García Vázquez

Cómo hacer módulos y librerías para ejecutarse a bordo del NAO. Mauricio Josafat García Vázquez Cómo hacer módulos y librerías para ejecutarse a bordo del NAO Mauricio Josafat García Vázquez Abril 2011 Índice general 1. Como hacer módulos y librerías para ejecutarse a bordo del NAO 2 1.1. Términos

Más detalles

si por el contrario, queremos compilarlo, tendremos que realizar los siguientes pasos: cd netinvent./configure make make install

si por el contrario, queremos compilarlo, tendremos que realizar los siguientes pasos: cd netinvent./configure make make install Manual de usuario NetInvent (servidor) Netinvent se proporciona en una paquete comprimido en formato netinvent.tar.gz. Este formato es uno de los comúnmente utilizados para distribuir los programas bajos

Más detalles

II. DISEÑO DEL SISTEMA. Introducción Instalación por red Arranque por red

II. DISEÑO DEL SISTEMA. Introducción Instalación por red Arranque por red II. DISEÑO DEL SISTEMA Introducción Instalación por red Arranque por red Qué es un cluster? Cluster de memoria Distribuida Nuestro Diseño Login SERVER PXE, NFS,TFTP, DHCP Internet DISKS NODOS DE COMPUTO

Más detalles

Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin

Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin Contenido Introducción... 2 Obtención e instalación del software necesario... 2 Configuración de PuTTY para su uso con Cygwin...

Más detalles

How to. Servidor Samba en CentOS

How to. Servidor Samba en CentOS Instituto Tecnológico Las Américas (ITLA) Sistemas Operativos 3 (SO3) Daniel Alejandro Moreno Martínez Matrícula: 2010-2946 How to How to: Servidor Samba en CentOS!!! Servidor Samba en CentOS Samba es

Más detalles

Sun Grid Engine en entornos Grid. Isabel Campos BIFI

Sun Grid Engine en entornos Grid. Isabel Campos BIFI Sun Grid Engine en entornos Grid Isabel Campos BIFI Sun Grid Engine en entornos Grid DESARROLLO DE LA CHARLA El Proyecto Sun Grid Engine (SGE) Instalación de SGE en clusters Uso de SGE en entornos GRID

Más detalles

Instalando y Activando Smaart v7

Instalando y Activando Smaart v7 Instalando y Activando Smaart v7 La instalación de Smaart v7 de Rational Acoustics en un proceso de dos partes. La primera es la instalación del software en sí y la segunda es el registro y activación

Más detalles

labs Linux para Administradores de Elastix Elastix Certification ELASTIX CERTIFICATION

labs Linux para Administradores de Elastix Elastix Certification ELASTIX CERTIFICATION Linux para Administradores de Elastix Elastix Certification 2012, PALOSANTO SOLUTIONS todos los derechos reservados. Esta documentación y su propiedad intelectual pertenece a PaloSanto Solutions. Cualquier

Más detalles

INSTALACION VIRTUALIZADA DE UBUNTU SERVER CON SERVICIOS LAMP Y OPENSSH SOBRE VIRTUAL BOX. Nicolás Botero Botero Juan Manuel Velásquez Isaza

INSTALACION VIRTUALIZADA DE UBUNTU SERVER CON SERVICIOS LAMP Y OPENSSH SOBRE VIRTUAL BOX. Nicolás Botero Botero Juan Manuel Velásquez Isaza INSTALACION VIRTUALIZADA DE UBUNTU SERVER CON SERVICIOS LAMP Y OPENSSH SOBRE VIRTUAL BOX Nicolás Botero Botero Juan Manuel Velásquez Isaza Universidad Tecnológica de Pereira Facultad de Ingenierías Ingeniería

Más detalles

Luego de esto nos saldra la primera ventana del proceso de instalación de nuestra distro ClearOS.

Luego de esto nos saldra la primera ventana del proceso de instalación de nuestra distro ClearOS. Instalando ClearOS Luego de haber configurado nuestro equipo debidamente para que este realice el proceso de booteo, en esta ocasión realizaremos la instalación desde la unidad de CD/DVD-ROM/RW. Encendemos

Más detalles

GUIA DE LABORATORIO # Nombre de la Practica: Antivirus Laboratorio de Redes Tiempo Estimado: 2 Horas y 30 Minutos

GUIA DE LABORATORIO # Nombre de la Practica: Antivirus Laboratorio de Redes Tiempo Estimado: 2 Horas y 30 Minutos UNIVERSIDAD DON BOSCO FACULTAD DE ESTUDIOS TECNOLÓGICOS ESCUELA DE COMPUTACIÓN CICLO: I-2015 GUIA DE LABORATORIO # Nombre de la Practica: Antivirus Lugar: Laboratorio de Redes Tiempo Estimado: 2 Horas

Más detalles

MANUAL EASYCHAIR. A) Ingresar su nombre de usuario y password, si ya tiene una cuenta registrada Ó

MANUAL EASYCHAIR. A) Ingresar su nombre de usuario y password, si ya tiene una cuenta registrada Ó MANUAL EASYCHAIR La URL para enviar su propuesta a la convocatoria es: https://easychair.org/conferences/?conf=genconciencia2015 Donde aparece la siguiente pantalla: Se encuentran dos opciones: A) Ingresar

Más detalles

Indice de Documentación

Indice de Documentación Indice de Documentación Redes inalámbricas, 802.11b, en GNU/Linux Luis Rial, luisrial@iies.es v0.2, 27 Enero 2003 Hacer funcionar una tarjeta de red inalámbrica es una tarea muy sencilla si SuSE nos proporciona

Más detalles

Instalación de MySQL 5.1 en Windows

Instalación de MySQL 5.1 en Windows Instalación de MySQL 5.1 en Windows Aspectos importantes antes de la instalación. 1. Determinar si la plataforma donde se desea hacer la instalación está soportada. 2. Elegir la distribución que se instalará.

Más detalles

Instalación de Eclipse Galileo y depuradores compatibles con OpenMPI y OpenMP

Instalación de Eclipse Galileo y depuradores compatibles con OpenMPI y OpenMP Instalación de Eclipse Galileo y depuradores compatibles con OpenMPI y OpenMP Programación Distribuida y Paralela Universidad de Granada Departamento del LSI Por: Daniel Guerrero Martínez Sergio Rodríguez

Más detalles

HOW TO SOBRE REMOTE ACCESS VPN MODE EN LINUX

HOW TO SOBRE REMOTE ACCESS VPN MODE EN LINUX HOW TO SOBRE REMOTE ACCESS VPN MODE EN LINUX 1- En este how to realizaremos una conexión remota mediante vpn; lo que haremos es comprobar primero que las maquinas que vamos a conectar, se puedan ver y

Más detalles

Proyecto Infraestructura Virtual

Proyecto Infraestructura Virtual 2011 Proyecto Infraestructura Virtual Integrates: RevolucionUnattended 01/01/2011 CONTENIDO ESCUELA POLITÉCNICA NACIONAL 1. INTRODUCCION 1.1. Propósito 1.2. Ámbito del Sistema 1.2.1 Descripción 1.2.2 Objetivos

Más detalles

Laboratorio práctico 8.3.4.4 Configuración y prueba del cliente VPN

Laboratorio práctico 8.3.4.4 Configuración y prueba del cliente VPN Laboratorio práctico 8.3.4.4 Configuración y prueba del cliente VPN Dispositivo Nombre de Host FastEthernet 0/0 o dirección IP de NIC Dirección IP de FastEthernet 0/1 Gateway predeterminado Contraseña

Más detalles

UNIDAD DIDACTICA 14 REQUISITOS PREVIOS PARA CONFIGURAR LINUX UBUNTU SERVER COMO CONTROLADOR DE DOMINIO

UNIDAD DIDACTICA 14 REQUISITOS PREVIOS PARA CONFIGURAR LINUX UBUNTU SERVER COMO CONTROLADOR DE DOMINIO UNIDAD DIDACTICA 14 REQUISITOS PREVIOS PARA CONFIGURAR LINUX UBUNTU SERVER COMO CONTROLADOR DE DOMINIO Eduard Lara 1 1. COMPROBACIONES PREVIAS ANTES DE INSTALAR EL CONTROLADOR Antes de hacer que Linux

Más detalles

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.

Más detalles

Alojamiento web gratuito

Alojamiento web gratuito Alojamiento web gratuito 3. Alojamiento web gratuito Sin dejar de tener en cuenta que un alojamiento web gratuito no será el más adecuado para mantener un sitio web de calidad, sí podemos disponer de alguno

Más detalles

Instalación y configuración de OsTicket en Centos 6.5

Instalación y configuración de OsTicket en Centos 6.5 Instalación y configuración de OsTicket en Centos 6.5 Elaborado por: Juan David Trujillo. 07/01/2015 CONTROL DE CAMBIOS Versión Modificada Descripción del Cambio Cambio realizado por Fecha del cambio 1

Más detalles

V. SERVICIOS DEL SISTEMA NIS LDAP NTP

V. SERVICIOS DEL SISTEMA NIS LDAP NTP V. SERVICIOS DEL SISTEMA NIS LDAP NTP NIS Network Information Service Protocolo de Servicios de Directorio cliente servidor Desarrollado por Sun Microsystems Originalmente: Yellow Pages Ofrece información

Más detalles

Requerimientos del Sistema para Oscar

Requerimientos del Sistema para Oscar Requerimientos del Sistema para Oscar Servidor CPU 586 o superior Una tarjeta de red que soporte TCP/P Si su nodo del servidor Oscar, va a ser enrutamiento entre la red privada y lo nodos del cluster,

Más detalles

Los ficheros /etc/hosts deben tener este aspecto en rhmaster, rhnodo1 y rhnodo2

Los ficheros /etc/hosts deben tener este aspecto en rhmaster, rhnodo1 y rhnodo2 Eduardo Campos Jiménez, Enero 2011 Clúster Red Hat Pre-Requisitos Tres servidores con Red Hat 5.5. Cada uno de estos tres servidores debe tener 3 placas Ethernet conectadas en estas condiciones: eth0 conectada

Más detalles

SRI UT01 Instalación de WMware Software de máquinas Virtuales Jorge García Delgado. Jorge García Delgado

SRI UT01 Instalación de WMware Software de máquinas Virtuales Jorge García Delgado. Jorge García Delgado SRI UT01 Instalación de WMware Software de máquinas Virtuales SRI UT01 Instalación de WMware Software de máquinas Virtuales INSTALACIÓN DE WMWARE 1. Iniciamos la instalación. 2. Nos sale un asistente,

Más detalles

Instalación de Mac OS X en VirtualBox

Instalación de Mac OS X en VirtualBox Instalación de Mac OS X en VirtualBox A partir de la versión 3.2, VirtualBox empezó a permitir la virtualización de sistemas Mac OS X. Versiones posteriores incorporan la opción de instalar Mac OS X Server

Más detalles

Cuando se agregan, eliminan o modificar usuarios al sistema se modifican los siguientes archivos: usuario:x:uid:gid:comentarios:directorio Home:Shell

Cuando se agregan, eliminan o modificar usuarios al sistema se modifican los siguientes archivos: usuario:x:uid:gid:comentarios:directorio Home:Shell 1. INTRODUCCIÓN En linux tenemos 3 formas de agregar usuarios, una mediante el comando adduser, otra mediante el comando useradd y la última usando alguna herramienta con interfaz gráfica que tenga instalado

Más detalles

Documentación Instalación NOD32 Server y Clientes

Documentación Instalación NOD32 Server y Clientes Documentación Instalación NOD32 Server y Clientes En esta documentación se indicará detalladamente la manera de instalar el antivirus NOD32 de forma distribuida desde un servidor de dominio a todos los

Más detalles

IPBrick Version 4.1 Manual de Instalación. iportalmais - Servicios de Internet y Redes, Lda.

IPBrick Version 4.1 Manual de Instalación. iportalmais - Servicios de Internet y Redes, Lda. IPBrick Version 4.1 Manual de Instalación iportalmais - Servicios de Internet y Redes, Lda. Noviembre 2006 2 Copyright c iportalmais Todos los derechos reservados. Noviembre 2006. La información contenida

Más detalles

Openfiler - Appliance NAS/SAN

Openfiler - Appliance NAS/SAN 1 de 44 01/12/2007 1:57 Openfiler - Appliance NAS/SAN Servidor de almacenamiento - Servidor de ficheros, En este documento revisaremos el funcionamiento de un servidor de ficheros llamado Openfiler, podemos

Más detalles

How to #7: Samba como Grupo de Trabajo

How to #7: Samba como Grupo de Trabajo Instituto Tecnológico de Las Américas (ITLA) Sistema Operativos 3 Luis Enmanuel Carpio Domínguez Matrícula: 2012-1206 How to #7: Samba como Grupo de Trabajo SAMBA Samba es una implementación de código

Más detalles

Comprobación del contenido del paquete. Firewall de seguridad para la red DFL-700 NETDEFEND. CD-ROM (contiene Manual y garantía)

Comprobación del contenido del paquete. Firewall de seguridad para la red DFL-700 NETDEFEND. CD-ROM (contiene Manual y garantía) Este producto puede configurarse con cualquier navegador web habitual, p. ej., Internet Explorer 6 o Netscape Navigator 6 o superior. DFL-700 Firewall de seguridad para la red NETDEFEND Antes de empezar

Más detalles

Guía Comandos para verificar estado de la máquina front-end

Guía Comandos para verificar estado de la máquina front-end Guía Comandos para verificar estado de la máquina front-end Contenido de la guía GUÍA COMANDOS PARA VERIFICAR ESTADO DE LA MÁQUINA FRONT-END... 1 CONTENIDO DE LA GUÍA... 1 INFORMACIÓN ACADÉMICA DE LA GUÍA...

Más detalles

Continuous Delivery (y 3)

Continuous Delivery (y 3) Continuous Delivery (y 3) Sesión 11a 2 Entornos de prueba La última parte de la tubería de despliegue consiste en probar los builds compilados en distintos entornos de prueba Distintos entornos Tests de

Más detalles

Práctica MODELADO Y DIMENSIONAMIENTO DE REDES TELEMÁTICAS. Firewalls

Práctica MODELADO Y DIMENSIONAMIENTO DE REDES TELEMÁTICAS. Firewalls Práctica 8 MODELADO Y DIMENSIONAMIENTO DE REDES TELEMÁTICAS Firewalls FIREWALLS MODELADO Y DIMENSIONAMIENTO DE REDES TELEMÁTICAS Práctica 8: Firewalls Table of Contents: Introducción 2 Objeto de la práctica

Más detalles

Puesta en marcha de un SGBD local para Linux y máquinas virtuales

Puesta en marcha de un SGBD local para Linux y máquinas virtuales Puesta en marcha de un SGBD local para Linux y máquinas virtuales Dídac Gil de la Iglesia P07/50011/02646 FUOC P07/50011/02646 Puesta en marcha de un SGBD local para Linux y máquinas virtuales Índice

Más detalles

Servidor SPARC T3-1. Guía básica. Contenido del envío. Antes de empezar

Servidor SPARC T3-1. Guía básica. Contenido del envío. Antes de empezar Servidor SPARC T3-1 Guía básica Esta guía describe los pasos mínimos que debe realizar para encender y arrancar el servidor SPARC T3-1 de Oracle por primera vez utilizando el sistema operativo preinstalado

Más detalles

Ministerio de Educación, Cultura y Deporte. Aulas en Red. Windows. Módulo 1: Tareas Iniciales. Virtualización

Ministerio de Educación, Cultura y Deporte. Aulas en Red. Windows. Módulo 1: Tareas Iniciales. Virtualización Ministerio de Educación, Cultura y Deporte Aulas en Red. Windows Módulo 1: Tareas Iniciales. Virtualización Aulas en red. Aplicaciones y servicios. Windows Virtualización En numerosas ocasiones necesitamos

Más detalles

WEBGTVL Puesta a punto de los servidores Fedora Linux antes de su paso a producción

WEBGTVL Puesta a punto de los servidores Fedora Linux antes de su paso a producción WEBGTVL Puesta a punto de los servidores Fedora Linux antes de su paso a producción Agosto 2009 2 Cliente Proyecto WEBGTVL Fase I Fecha documento 03/08/09 Documento Tipo de documento Puesta a punto de

Más detalles

Server Administrator versión 8.2 Guía de instalación: Citrix XenServer

Server Administrator versión 8.2 Guía de instalación: Citrix XenServer Server Administrator versión 8.2 Guía de instalación: Citrix XenServer Notas, precauciones y avisos NOTA: Una NOTA proporciona información importante que le ayuda a utilizar mejor su equipo. PRECAUCIÓN:

Más detalles

Introducción. Instalación de Apache Tomcat PASO 1: PASO 2: PASO 3: PASO 4:

Introducción. Instalación de Apache Tomcat PASO 1: PASO 2: PASO 3: PASO 4: Introducción El presente documento es una guía rápida de instalación de alguna herramienta particular. De seguro existen otras formas de realizar el proceso de instalación, pero esta es la que mejor le

Más detalles

Instituto Tecnológico de Las Américas

Instituto Tecnológico de Las Américas Instituto Tecnológico de Las Américas Mariel Elizabeth Puente Adames 20121325 Instalación de Slackware server How to install Slackware Slackware Linux es una distribución de Linux. Es una de las más antiguas

Más detalles

Servidores Linux. CEP Indalo. Enrique Brotons SERVIDOR WEB

Servidores Linux. CEP Indalo. Enrique Brotons SERVIDOR WEB SERVIDOR WEB Hoy en día casi todos los centros educativos cuentan con una página web donde poder ofrecer información del centro como las enseñanzas que se imparten, horarios escolares, ubicación del mismo,

Más detalles

CÓMO INSTALAR CentOS CON RAID1

CÓMO INSTALAR CentOS CON RAID1 CÓMO INSTALAR CentOS CON RAID1 INTRODUCCIÓN Antes de comenzar daremos nombre a los discos duros para poder seguir sin problemas este manual. Al primer disco duro lo nombraremos Disco A Al segundo disco

Más detalles

Manual de instalación y configuración de FreeNAS.

Manual de instalación y configuración de FreeNAS. Manual de instalación y configuración de FreeNAS. 1. Descripción 2. Configuración Oracle 3. Instalación Servidor Freenas 4. Configuración del servidor 5. Instalación de plugins 6. Vista desde el exterior

Más detalles

Instalación o actualización del software del sistema del Fiery

Instalación o actualización del software del sistema del Fiery Instalación o actualización del software del sistema del Fiery Este documento explica cómo instalar o actualizar el software del sistema del Fiery Network Controller para la DocuColor 240/250. NOTA: El

Más detalles

Manual de Instalación del sistema administrativo PremiumSoft Extended 7

Manual de Instalación del sistema administrativo PremiumSoft Extended 7 1 P á g i n a M a n u a l d e I n s t a l a c i ó n d e l s i s t e m a a d m i n i s t r a t i v o Manual de Instalación del sistema administrativo PremiumSoft Extended 7 X Realizado por: Enrique Tancredi

Más detalles

Guía de instalación rápida TE100-P1U

Guía de instalación rápida TE100-P1U Guía de instalación rápida TE100-P1U V2 Table of Contents Español 1 1. Antes de iniciar 1 2. Cómo se instala 2 3. Configuración del servidor de impresora 3 4. Añadir la impresora a su PC 5 Troubleshooting

Más detalles

FAMILIA DE SERVIDORES WINDOWS 2000

FAMILIA DE SERVIDORES WINDOWS 2000 FAMILIA DE SERVIDORES WINDOWS 2000 La familia de servidores Windows 2000 esta formada por tres versiones las cuales son: Server, Advanced y Datacenter; nosotros utilizaremos Server. Server. Esta versión

Más detalles

Creating your Single Sign-On Account for the PowerSchool Parent Portal

Creating your Single Sign-On Account for the PowerSchool Parent Portal Creating your Single Sign-On Account for the PowerSchool Parent Portal Welcome to the Parent Single Sign-On. What does that mean? Parent Single Sign-On offers a number of benefits, including access to

Más detalles

Guía DIE-100 para ADSL y sistema operativo Windows XP

Guía DIE-100 para ADSL y sistema operativo Windows XP Guía DIE-100 para ADSL y sistema operativo Windows XP Express First Net Internet Kit de D-Link, le permitirá conectar su oficina con el mundo, compartir acceso a Internet a gran velocidad a través del

Más detalles

VIRTUALIZACIÓN: VMWare Workstation

VIRTUALIZACIÓN: VMWare Workstation INDICE Qué es VMWare? Y a mí para qué me sirve VMWare? Si ejecuto un archivo malicioso en la máquina virtual, le ocurrirá algo a mi PC? Qué necesito para poder crear una máquina virtual en VMWare? Instalación

Más detalles

Software de Comunicaciones. Práctica 4 - DHCP & Dynamic DNS

Software de Comunicaciones. Práctica 4 - DHCP & Dynamic DNS Software de Comunicaciones Práctica 4 - DHCP & Dynamic DNS Juan Díez-Yanguas Barber Software de Comunicaciones Ingeniería Informática - 5º Curso Jdyb - Marzo 2013 Juan Díez- Yanguas Barber Práctica 4 Índice

Más detalles

Presentación. Nombre. Matricula. Materia. Tema. Profesor. Marcos Rodríguez Javier 2013-1902. Sistemas Operativos III. Central IP Elastix.

Presentación. Nombre. Matricula. Materia. Tema. Profesor. Marcos Rodríguez Javier 2013-1902. Sistemas Operativos III. Central IP Elastix. Presentación Nombre Marcos Rodríguez Javier Matricula 2013-1902 Materia Sistemas Operativos III Tema Central IP Elastix Profesor José Doñé Elastix Elastix es una distribución libre de Servidor de Comunicaciones

Más detalles

Instalación de R. www.r-project.org/

Instalación de R. www.r-project.org/ Instalación de R Página principal de R (si se pone en Google R, es la página asociada con The R Project for Statistical Computing ): www.r-project.org/ En la columna izquierda seleccionamos Download, Packages

Más detalles

TUTORIAL DE CMAPTOOLS Francesc Pastor

TUTORIAL DE CMAPTOOLS Francesc Pastor TUTORIAL DE CMAPTOOLS Francesc Pastor 1. Descargar e instalar el programa CmapTools...pag. 2 2. Crear un mapa conceptual (cmap) nuevo...pag.6 3. Añadir un Concepto a un Mapa...pag.7 4. Añadir Recursos

Más detalles

RED NACIONAL DE SOPORTE TECNICO

RED NACIONAL DE SOPORTE TECNICO RED NACIONAL DE SOPORTE TECNICO ITCA-FEPADE Active Directory v1 Administración (Aulas Informáticas) Septiembre 2009 Contenido Impresoras en Active Directory... 3 Administración de Escritorios Remotos...

Más detalles

Servicios clásicos de Internet

Servicios clásicos de Internet Daniel Morató Area de Ingeniería Telemática Departamento de Automática y Computación Universidad Pública de Navarra daniel.morato@unavarra.es Laboratorio de Interfaces de Redes http://www.tlm.unavarra.es/asignaturas/lir

Más detalles

4. Dynamic Host Configuration Protocol (DHCP)

4. Dynamic Host Configuration Protocol (DHCP) 4. Dynamic Host Configuration Protocol (DHCP) 4.1. Introducción. Es un servicio de red que permite a los clientes obtener automáticamente a los clientes la configuración de red desde el servidor DHCP en

Más detalles

Instalación y configuración de VMware Server

Instalación y configuración de VMware Server 1 de 19 01/12/2007 1:47 Instalación y configuración de VMware Server VMware Server 1.0.3, En este procedimiento se explica un producto de VMware, llamado VMware Server. Es un software que corre sobre un

Más detalles

Oracle Database 12c (12.1.0.2.0) Instalación-Creación de Base de Datos

Oracle Database 12c (12.1.0.2.0) Instalación-Creación de Base de Datos Oracle Database 12c (12.1.0.2.0) Instalación-Creación de Base de Datos Antes de comenzar la instalación del software de la base de datos es necesario copiar el software a la máquina virtual. Para ello

Más detalles

Proyecto Fenton - Cluster de Computadores de Alto Desempeo con Acceso Remoto (CCADAR) Manual de instalacin. Julio 2008

Proyecto Fenton - Cluster de Computadores de Alto Desempeo con Acceso Remoto (CCADAR) Manual de instalacin. Julio 2008 Facultad de Ingeniera Universidad de la Repblica Proyecto Fenton - Cluster de Computadores de Alto Desempeo con Acceso Remoto (CCADAR) Manual de instalacin Julio 2008 Estudiantes: Santiago Iturriaga, Paulo

Más detalles

PRACTICAS TEMA 1. INSTALACIÓN DE ORACLE9i.

PRACTICAS TEMA 1. INSTALACIÓN DE ORACLE9i. PRACTICAS TEMA 1. INSTALACIÓN DE ORACLE9i. Administración Avanzada de Oracle9i 1.1. Comprobar los requerimientos HW y SW para la instalación de Oracle9i sobre Linux. 1.2. Comprobar las tareas de preinstalación.

Más detalles

Unidad 0. Preparación del material. Implantación y administración remota y centralizada de Sistemas Operativos. Manuel Morán Vaquero

Unidad 0. Preparación del material. Implantación y administración remota y centralizada de Sistemas Operativos. Manuel Morán Vaquero Unidad 0 Preparación del material Implantación y administración remota y centralizada de Sistemas Operativos Manuel Morán Vaquero mmv@edu.xunta.es http://www.immv.es Contenidos 1 Introducción 2 Máquina

Más detalles

Instalación y configuración de VMWare ESX

Instalación y configuración de VMWare ESX 1 de 29 01/12/2007 1:47 Instalación y configuración de VMWare ESX Instalación y configuración de VMWare ESX 3.0.1, VMWare ESX es un sistema operativo de VMWare basado en Linux, que nos sirve para ahorrarnos

Más detalles

FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral

FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral 2011 m a r t e s, 0 8 d e m a r z o d e 2 0 1 1 1 Tabla de contenido 2... Requisitos para la instalación... 2 3...

Más detalles

Índice de contenido. Manual de administración de hospedaje para administradores de dominios

Índice de contenido. Manual de administración de hospedaje para administradores de dominios Índice de contenido 1. Webmin...2 1.1 Cambio de idioma y tema...2 2. Otros...3 2.1 Cargas y descargas...3 2.2 Conexión Telnet / SSH...4 2.3 Directorios Web Protegidos...5 2.4 Administrador de archivos...6

Más detalles

UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA

UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA Eduard Lara 1 1. INICIO SESIÓN EN LINUX Inicio en modo local Se enciende el equipo y se introduce el nombre de usuario local y su contraseña,

Más detalles

GUÍA DE INSTALACIÓN DE SLACKWARE LINUX 11.0 v. 1.0

GUÍA DE INSTALACIÓN DE SLACKWARE LINUX 11.0 v. 1.0 GUÍA DE INSTALACIÓN DE SLACKWARE LINUX 11.0 v. 1.0 Autor: eli@s (Elías Cuellar Rodríguez) Licencia: GPL Fecha: 20 de Abril de 2007 UNIVERSIDAD PERUANA UNIÓN FACULTAD DE INGENIERÍA EAP de Ingeniería de

Más detalles

C.F.G.S. DESARROLLO DE APLICACIONES INFORMÁTICAS

C.F.G.S. DESARROLLO DE APLICACIONES INFORMÁTICAS C.F.G.S. DESARROLLO DE APLICACIONES INFORMÁTICAS MÓDULO: Sistemas Informáticos Multiusuario y en Red Unidad 12 Windows Server 2003 1 INDICE DE CONTENIDOS OBJETIVOS... 3 1. INTRODUCCIÓN... 3 1.1. WEB SERVER

Más detalles

1 of 10 31/01/08 16:02 Cluster Mysql 5.X De Telefonica I+D - Division 6123 Explicaremos cómo instalar y configurar un Mysql 5.0 Cluster sobre Centos 5 Autor: Edwin Plauchu mail to: j4nusx@gmail.com Tabla

Más detalles

Faustino Palmero Acebedo Grupo de Física No Lineal. Universidad de Sevilla

Faustino Palmero Acebedo Grupo de Física No Lineal. Universidad de Sevilla Guía práctica del usuario de aleph.eii.us.es Faustino Palmero Acebedo Grupo de Física No Lineal. Universidad de Sevilla Resumen Este documento pretende ser una guía básica para el uso del cluster de computación

Más detalles

Software de Comunicaciones. Práctica 7 - Secure Shell. SSH

Software de Comunicaciones. Práctica 7 - Secure Shell. SSH Software de Comunicaciones Práctica 7 - Secure Shell. SSH Juan Díez-Yanguas Barber Software de Comunicaciones Ingeniería Informática - 5º Curso Jdyb - Mayo 2013 Juan Díez- Yanguas Barber Práctica 7 Índice

Más detalles

TALLER DE TECNOLOGÍAS PARA LA EDUCACIÓN: PerúEduca Guía de Instalación y Configuración para Servidores

TALLER DE TECNOLOGÍAS PARA LA EDUCACIÓN: PerúEduca Guía de Instalación y Configuración para Servidores TALLER DE TECNOLOGÍAS PARA LA EDUCACIÓN: PerúEduca Guía de Instalación y Configuración para Servidores 1 GUÍA DE INSTALACIÓN Y CONFIGURACIÓN PARA SERVIDORES 1. INTRODUCCIÓN El sistema para servidores

Más detalles

Práctica de laboratorio 6.2.7b Administración de los archivos de configuración inicial del switch

Práctica de laboratorio 6.2.7b Administración de los archivos de configuración inicial del switch Práctica de laboratorio 6.2.7b Administración de los archivos de configuración inicial del switch Objetivo Crear y verificar una configuración de switch básica. Realice una copia de respaldo del archivo

Más detalles

Agustiniano Ciudad Salitre School Computer Science Support Guide - 2015 Second grade First term

Agustiniano Ciudad Salitre School Computer Science Support Guide - 2015 Second grade First term Agustiniano Ciudad Salitre School Computer Science Support Guide - 2015 Second grade First term UNIDAD TEMATICA: INTERFAZ DE WINDOWS LOGRO: Reconoce la interfaz de Windows para ubicar y acceder a los programas,

Más detalles

REDES DE COMPUTADORES Laboratorio

REDES DE COMPUTADORES Laboratorio 1nsloo.cl REDES DE COMPUTADORES Laboratorio Práctica 1: Emulación de redes con NetGUI. 1. OBJETIVOS. El objetivo de esta práctica es aprender a utilizar la herramienta de emulación de redes Netkit / NetGUI,

Más detalles