CURSO SERVICIO BIG DATA

Tamaño: px
Comenzar la demostración a partir de la página:

Download "CURSO SERVICIO BIG DATA"

Transcripción

1 CURSO SERVICIO BIG DATA 1

2 PRACTICAS Práctica 1: Utilizando el servicio cloud (Web)... 3 Práctica 2: Utilizando el servicio cloud (SSH) Práctica 3: Lanzar un cluster Hadoop Práctica 4: HDFS Práctica 5: Lanzando nuestro primer trabajo MapReduce Práctica 6: Desarrollar un trabajo MapReduce usando Streaming API Práctica 7: Desarrollar un trabajo MapReduce en Java Práctica 8: Procesado de datos con Hive Práctica 9: Machine learning con Mahout

3 Práctica 1: Utilizando el servicio cloud (Web) En esta práctica veremos como crear una máquina virtual usando el servicio cloud. Usaremos el método más sencillo que consiste en crear la máquina virtual a partir de una plantilla existente. Para la creación de la misma utilizaremos el interfaz web del servicio. 1. Primero tenemos que loguearnos al servicio cloud: 3

4 2. Pulsar el botón verde con el símbolo + para lanzar una nueva máquina virtual 4

5 3. Seleccionar la plantilla correspondiente a ttylinux que se encuentra en la tercera página de resultados. También podemos valernos de la opción de búsqueda y escribir allí ttylinux. 5

6 4. Le damos un nombre a la máquina y seleccionamos los recursos que queremos para la misma. La plantilla ya nos indica unos valores por defecto: 512MB de RAM y 1 CPU. Mantendremos esos valores y lanzaremos la máquina virtual pulsando en el botón verde crear. 6

7 5. Veremos como la máquina se crea y va pasando por distintos estados hasta que finalmente se pone en ejecución. 7

8 6. A través del interfaz web nos podemos conectar a la consola VNC de la máquina virtual. En general esta consola web se utiliza para resolver problemas que nos impidan la conexión remota directa a nuestra máquina virtual. 8

9 7. Finalmente borraremos la máquina virtual 9

10 Práctica 2: Utilizando el servicio cloud (SSH) En esta práctica repetiremos los pasos que hemos hecho en la práctica anterior pero usando el interfaz de línea de comandos del servicio cloud. 1. Primero tenemos que conectarnos al servicio cloud por SSH. ssh 2. En la primera conexión es necesario habilitar el servicio cloud en nuestra cuenta. Esto se consigue a través del comando enable_cloud. En general este paso sólo es necesario realizarlo la primera vez que nos conectamos al servicio, y sólo tendremos que repetirlo en el caso de que cambiemos la contraseña de la cuenta. [curso884@cloud ~]$ enable_cloud Este script habilitara la configuracion cloud en su cuenta. Desea continuar? [S/n] Porfavor introduzca su password de sistema para continuar. Password: Generando clave ssh... Generating public/private dsa key pair. Created directory '/home/cesga/cursos/curso884/.ssh'. Your identification has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa. Your public key has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa.pub. The key fingerprint is: 9b:31:28:4c:4e:3a:1c:d3:80:6b:dc:7e:f7:e8:96:27 curso884@cloud.cesga.es The key's randomart image is: +--[ DSA 1024] o X.. = +. S o o. =.. * E o o.o Leyendo clave publica: /home/cesga/cursos/curso884/.ssh/id_dsa.pub oneuser update curso884 -a /home/cesga/cursos/curso884/oneuser_template CONFIGURACION FINALIZADA En caso de errores contacte con sistemas@cesga.es 3. Para crear una instancia de una nueva máquina virtual la forma más sencilla es partir de una de las plantillas que ya están predefinidas. Para listar las plantillas disponibles ejecutaremos: [curso884@cloud ~]$ onetemplate list ID USER GROUP NAME REGTIME 177 sistemas users hadoop raw 07/01 10

11 10:43: sistemas users hadoop raw-master 10/15 18:27: sistemas users hadoop raw 05/06 17:14: grid users Ubuntu server x86_64 05/13 16:28: grid users Scientific Linux /13 16:51: grid users Ubtuntu Desktop /13 16:55: sistemas users hadoop raw-master 06/03 15:11: algarcia users CentOS 7 - APP - Devel 10/01 09:42: sistemas oneadmin hadoop.cesga.es-centos7 10/27 13:47: sistemas oneadmin CentOS 7 - TEMPLATE 10/27 13:50: alfeijoo users ttylinux - kvmalfeijoo 11/12 18:03: sistemas users EC2-TEST 12/03 15:16: dnieto elearning_g Seminar-Ubuntu /20 11:02: sistemas oneadmin ttylinux 05/19 19:49:09 4. Para esta práctica usaremos la plantilla ttylinux. Se trata de una distribución mínima de Linux que nos permitirá instanciar de modo rápido nuestra primera máquina virtual. [curso884@cloud ~]$ onetemplate instantiate name "mi primera maquina virtual" VM ID: Durante el arranque de la máquina virtual podemos ver como va cambiando el estado de la misma desde pending hasta running (pending prolog boot running). [curso884@cloud ~]$ onevm list ID USER GROUP NAME STAT UCPU UMEM HOST TIME curso884 users mi primera maquina virtual runn 0 0K nubacesga d 00h00 6. Finalmente borraremos la máquina virtual: [curso884@cloud ~]$ onevm delete

12 Práctica 3: Lanzar un cluster Hadoop En esta práctica lanzaremos nuestro primer cluster de Hadoop. 1. Para lanzar nuestro cluster Hadoop nos conectaremos por SSH al servicio cloud: ssh 2. (Este paso no es necesario hacerlo si completamos la práctica anterior) En la primera conexión es necesario habilitar el servicio cloud en nuestra cuenta ya que los clusters de Hadoop se lanzarán utilizando máquinas vituales. Esto se consigue a través del comando enable_cloud tal y como vimos en la práctica anterior. En general este paso sólo es necesario realizarlo la primera vez que nos conectamos al servicio, y sólo tendremos que repetirlo en el caso de que cambiemos la contraseña de la cuenta. [curso884@cloud ~]$ enable_cloud Este script habilitara la configuracion cloud en su cuenta. Desea continuar? [S/n] Porfavor introduzca su password de sistema para continuar. Password: Generando clave ssh... Generating public/private dsa key pair. Created directory '/home/cesga/cursos/curso884/.ssh'. Your identification has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa. Your public key has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa.pub. The key fingerprint is: 9b:31:28:4c:4e:3a:1c:d3:80:6b:dc:7e:f7:e8:96:27 curso884@cloud.cesga.es The key's randomart image is: +--[ DSA 1024] o X.. = +. S o o. =.. * E o o.o Leyendo clave publica: /home/cesga/cursos/curso884/.ssh/id_dsa.pub oneuser update curso884 -a /home/cesga/cursos/curso884/oneuser_template CONFIGURACION FINALIZADA En caso de errores contacte con sistemas@cesga.es 3. Para lanzar un cluster de hadoop basta con utilizar el comando hadoop-start [curso884@cloud ~]$ hadoop-start -s 3 mié may 27 17:39:22 CEST 2015 = Paso 1/3: Arrancando el cluster = Desplegando las maquinas en OpenNebula VM ID:

13 VM ID: VM ID: VM ID: Esperando a que arranquen los nodos 100% [========================================================================>] Arranque del cluster Finalizado. mié may 27 17:43:01 CEST 2015 = Paso 2/3: Obteniendo la lista de nodos = Lista de nodos obtenida. mié may 27 17:43:08 CEST 2015 = Paso 3/3: Configurando Hadoop = Esperando a que todos los slave esten configurados Configurando el master del cluster Configuracion finalizada!" Ya puede conectarse al nuevo cluster de hadoop a traves mediante ssh: ssh hadoop@ Tambien monitorizar el estado del cluster en las siguientes direcciones: JobTracker Web Interface: NameNode Web Interface: En caso de problemas no dude en contactar con el Dep. de Sistemas: sistemas@cesga.es Telefono: mié may 27 17:44:37 CEST Una vez arrancado podremos conectarnos a nuestro cluster hadoop utilizando el comando hadoop-connect y ya nos conectará automáticamente al nodo maestro de nuestro cluster: [curso884@cloud ~]$ hadoop-connect [hadoop@hadoop-master ~]$ 5. Podemos ver el estado del cluster usando el comando hadoop-status [curso884@cloud ~]$ hadoop-status ==> Hadoop cluster status Datanodes available: 3 (3 total, 0 dead) Tasktrackers available 3 ===> HDFS 13

14 Configured Capacity: (87.78 GB) Present Capacity: (85.65 GB) DFS Remaining: (85.65 GB) DFS Used: (120 KB) DFS Used%: 0% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: Datanodes available: 3 (3 total, 0 dead) Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:50 CEST 2015 Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:50 CEST 2015 Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:47 CEST 2015 ===> Task trackers tracker_hadoop-3:localhost/ :50697 tracker_hadoop-1:localhost/ :48392 tracker_hadoop-2:localhost/ : Por motivos de seguridad, para poder acceder al interfaz web de monitorización del cluster primero tendremos que añadir una regla en el firewall del mismo que nos permita acceder desde nuestra IP. Por ejemplo, si nuestra IP es abriremos el acceso a la misma con el siguiente comando (lanzado directamente desde el frontal cloud): 14

15 ~]$ ssh iptables-add Fijarse en que la conexión SSH se lanzar desde el frontal cloud. Para ver qué IP tiene nuestro PC podemos verlo conectándonos a 7. Una vez abierto el firewall ya podremos acceder a las páginas de monitorización del cluster: JobTracker Web Interface: NameNode Web Interface: 8. Tenemos la opción de realizar personalizaciones adicionales en el cluster, como por ejemplo instalar nuevos paquetes, para ello disponemos de acceso como root desde el frontal de cloud: [curso884@cloud ~]$ ssh root@ Por ejemplo podríamos instalar el editor de textos nano si no estamos acostumbrados a utilizar el editor de textos por defecto del sistema (vi): [root@hadoop-master ~]# yum install nano 9. El comando hadoop-start nos ofrece opciones adicionales que pueden sernos útiles a la hora de crear clusters. Podemos ver la lista completa de comandos disponibles lanzando hadoop-start -h: [curso884@cloud ~]$ hadoop-start -h Usage: hadoop-start [-s SIZE] [-r dfs.replication] [-b <dfs.block.size>] [-t <mapred.reduce.tasks>] Start a Hadoop cluster options include: -s SIZE Number of slaves in the Hadoop cluster (default 3) -r dfs.replication Number of replicas of each file (default 3) -b dfs.block.size HDFS block size (default 16MB) -t mapred.reduce.tasks Number of reduce tasks (default 1) -c clusterid Cluster ID (only for use within REST service calls) -R REST API mode (only for use within REST service calls) -h Print help 10. Aunque el comando hadoop-status nos da de una forma sencilla toda la información de nuestro cluster, también podemos ver el estado de la máquina virtuales que forman nuestro cluster con los comandos estandard del servicio cloud: [curso884@cloud ~]$ onevm list ID USER GROUP NAME STAT UCPU UMEM HOST TIME curso884 users hadoop runn 1 2G nubacesga d 00h curso884 users hadoop

16 runn M nubacesga d 00h curso884 users hadoop runn M nubacesga d 00h curso884 users hadoop runn M nubacesga d 00h Para parar el custer se usa el comando hadoop-stop. Una vez lanzado este comando se borrarán todos los datos del cluster por lo que es recomandable copiar toda la información que queramos guardar antes de parar un cluster. 16

17 Práctica 4: HDFS En esta práctica veremos los comandos básicos de HDFS. 1. Tenemos que tener un cluster Hadoop arrancado, una vez esté operativo nos conectarnos al mismo: ~]$ hadoop-connect ~]$ 2. Por defecto en el HDFS de nuestro cluster disponemos de varios directorios que podemos utilizar para subir nuestros ficheros: nuestro HOME (/user/hadoop) y un directorio /scratch [hadoop@hadoop-master ~]$ hadoop fs -ls / Found 4 items drwxrwxrwx - hadoop supergroup :22 /hive drwxr-xr-x - hadoop supergroup :22 /scratch drwxrwxrwx - hadoop supergroup :22 /tmp drwxr-xr-x - hadoop supergroup :22 /user Por defecto si no se especifica una ruta absoluta para los archivos, Hadoop los buscará en nuestro HOME: /user/hadoop 3. Podemos crear un directorio adicional en nuestro HOME: [hadoop@hadoop-master ~]$ hadoop fs -mkdir test [hadoop@hadoop-master ~]$ hadoop fs -ls Found 1 items drwxr-xr-x - hadoop supergroup :18 /user/hadoop/test 4. O también en el directorio /scratch [hadoop@hadoop-master ~]$ hadoop fs -mkdir /scratch/test [hadoop@hadoop-master ~]$ hadoop fs -ls /scratch Found 2 items drwxr-xr-x - hadoop supergroup :44 /scratch/hadoop drwxr-xr-x - hadoop supergroup :19 /scratch/test 5. Para subir un fichero local al HDFS [hadoop@hadoop-master ~]$ hadoop fs -put /etc/redhat-release /scratch/test/redhat-release 6. Podemos ver los contenidos con un cat [hadoop@hadoop-master ~]$ hadoop fs -cat /scratch/test/redhat-release Scientific Linux release 6.5 (Carbon) Si el fichero es muy grande es mejor usar la opción -tail para leer sólo el el final del fichero: 17

18 ~]$ hadoop fs -tail /scratch/test/redhat-release Scientific Linux release 6.5 (Carbon) 7. Podemos ver el estado del HDFS conéctandonos a su interfaz web de monitorización, aunque deberemos haber abierto el acceso en el firewall como se mostraba en la práctica anterior: NameNode Web Interface: Ahí podremos ver el estado de los DataNodes y la ocupación del sistema de ficheros. La parte de navegación del sistema de ficheros no está disponible ya que requiere acceso directo a los nodos del cluster y estos utilizan direcciones IP privadas. 8. Hay más comandos de HDFS que pueden sernos útiles, podemos ver la lista completa de comandos disponibles lanzando hadoop fs sin ninguna opción: [hadoop@hadoop-master ~]$ hadoop fs Usage: java FsShell [-ls <path>] [-lsr <path>] [-du <path>] [-dus <path>] [-count[-q] <path>] [-mv <src> <dst>] [-cp <src> <dst>] [-rm [-skiptrash] <path>] [-rmr [-skiptrash] <path>] [-expunge] [-put <localsrc>... <dst>] [-copyfromlocal <localsrc>... <dst>] [-movefromlocal <localsrc>... <dst>] [-get [-ignorecrc] [-crc] <src> <localdst>] [-getmerge <src> <localdst> [addnl]] [-cat <src>] [-text <src>] [-copytolocal [-ignorecrc] [-crc] <src> <localdst>] [-movetolocal [-crc] <src> <localdst>] [-mkdir <path>] [-setrep [-R] [-w] <rep> <path/file>] [-touchz <path>] [-test -[ezd] <path>] [-stat [format] <path>] [-tail [-f] <file>] [-chmod [-R] <MODE[,MODE]... OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-chgrp [-R] GROUP PATH...] [-help [cmd]] Generic options supported are -conf <configuration file> specify an application configuration file -D <property=value> use value for given property -fs <local namenode:port> specify a namenode -jt <local jobtracker:port> specify a job tracker -files <comma separated list of files> specify comma separated files to be copied to the map reduce cluster -libjars <comma separated list of jars> specify comma separated jar files to include in the classpath. -archives <comma separated list of archives> specify comma separated archives to be unarchived on the compute machines. 18

19 The general command line syntax is bin/hadoop command [genericoptions] [commandoptions] 19

20 Práctica 5: Lanzando nuestro primer trabajo MapReduce En esta práctica lanzaremos nuestro primer trabajo MapReduce usando uno de los trabajos de ejemplo que vienen con la propia distribución de Hadoop. Este trabajo se denomina wordcount y básicamente cuenta el número de ocurrencias de cada palabra de un fichero. En posteriores prácticas veremos más detalles de como funciona este programa MapReduce. 1. Lo primero descargaremos, descomprimiremos los ficheros necesarios para las prácticas y entraremos en el directorio practicas: [hadoop@hadoop-master ~]$ wget [hadoop@hadoop-master ~]$ tar xzvf practicas.tar.gz [hadoop@hadoop-master ~]$ cd practicas [hadoop@hadoop-master practicas]$ 2. Subiremos el fichero de entrada (wordcount/entrada.txt) al HDFS: [hadoop@hadoop-master practicas]$ cd wordcount/ [hadoop@hadoop-master wordcount]$ hadoop fs -mkdir input [hadoop@hadoop-master wordcount]$ hadoop fs -put entrada.txt input/ 3. Lanzaremos el trabajo MapReduce de ejemplo: [hadoop@hadoop-master wordcount]$ hadoop jar /opt/cesga/hadoop-1.2.1/hadoopexamples jar wordcount input output-1 15/05/27 18:44:51 INFO input.fileinputformat: Total input paths to process : 1 15/05/27 18:44:51 WARN snappy.loadsnappy: Snappy native library is available 15/05/27 18:44:51 INFO util.nativecodeloader: Loaded the native-hadoop library 15/05/27 18:44:51 INFO snappy.loadsnappy: Snappy native library loaded 15/05/27 18:44:52 INFO mapred.jobclient: Running job: job_ _ /05/27 18:44:53 INFO mapred.jobclient: map 0% reduce 0% 15/05/27 18:45:03 INFO mapred.jobclient: map 100% reduce 0% 15/05/27 18:45:12 INFO mapred.jobclient: map 100% reduce 33% 15/05/27 18:45:14 INFO mapred.jobclient: map 100% reduce 100% 15/05/27 18:45:17 INFO mapred.jobclient: Job complete: job_ _ /05/27 18:45:17 INFO mapred.jobclient: Counters: 29 15/05/27 18:45:17 INFO mapred.jobclient: Job Counters 15/05/27 18:45:17 INFO mapred.jobclient: Launched reduce tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: SLOTS_MILLIS_MAPS= /05/27 18:45:17 INFO mapred.jobclient: Total time spent by all reduces waiting after reserving slots (ms)=0 15/05/27 18:45:17 INFO mapred.jobclient: Total time spent by all maps waiting after reserving slots (ms)=0 15/05/27 18:45:17 INFO mapred.jobclient: Launched map tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: Data-local map tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: SLOTS_MILLIS_REDUCES= /05/27 18:45:17 INFO mapred.jobclient: File Output Format Counters 15/05/27 18:45:17 INFO mapred.jobclient: Bytes Written= /05/27 18:45:17 INFO mapred.jobclient: FileSystemCounters 20

21 15/05/27 18:45:17 INFO mapred.jobclient: FILE_BYTES_READ= /05/27 18:45:17 INFO mapred.jobclient: HDFS_BYTES_READ= /05/27 18:45:17 INFO mapred.jobclient: FILE_BYTES_WRITTEN= /05/27 18:45:17 INFO mapred.jobclient: HDFS_BYTES_WRITTEN= /05/27 18:45:17 INFO mapred.jobclient: File Input Format Counters 15/05/27 18:45:17 INFO mapred.jobclient: Bytes Read= /05/27 18:45:17 INFO mapred.jobclient: Map-Reduce Framework 15/05/27 18:45:17 INFO mapred.jobclient: Map output materialized bytes= /05/27 18:45:17 INFO mapred.jobclient: Map input records=19 15/05/27 18:45:17 INFO mapred.jobclient: Reduce shuffle bytes= /05/27 18:45:17 INFO mapred.jobclient: Spilled Records=272 15/05/27 18:45:17 INFO mapred.jobclient: Map output bytes= /05/27 18:45:17 INFO mapred.jobclient: Total committed heap usage (bytes)= /05/27 18:45:17 INFO mapred.jobclient: CPU time spent (ms)= /05/27 18:45:17 INFO mapred.jobclient: Combine input records=189 15/05/27 18:45:17 INFO mapred.jobclient: SPLIT_RAW_BYTES=121 15/05/27 18:45:17 INFO mapred.jobclient: Reduce input records=136 15/05/27 18:45:17 INFO mapred.jobclient: Reduce input groups=136 15/05/27 18:45:17 INFO mapred.jobclient: Combine output records=136 15/05/27 18:45:17 INFO mapred.jobclient: Physical memory (bytes) snapshot= /05/27 18:45:17 INFO mapred.jobclient: Reduce output records=136 15/05/27 18:45:17 INFO mapred.jobclient: Virtual memory (bytes) snapshot= /05/27 18:45:17 INFO mapred.jobclient: Map output records= Veremos que se han creado varios ficheros dentro del directorio de salida output-1 que habíamos indicado: wordcount]$ hadoop fs -ls output-1 Found 3 items -rw-r--r-- 3 hadoop supergroup :45 /user/hadoop/output-1/_success drwxr-xr-x - hadoop supergroup :44 /user/hadoop/output-1/_logs -rw-r--r-- 3 hadoop supergroup :45 /user/hadoop/output-1/part-r La salida de nuestro trabajo está en el fichero part-r [hadoop@hadoop-master wordcount]$ hadoop fs -cat output-1/part-r Podemos ver información adicional sobre nuestro trabajo en el interfaz web del JobTracker: JobTracker Web Interface: 21

22 Práctica 6: Desarrollar un trabajo MapReduce usando Streaming API En esta práctica desarrollaremos un trabajo MapReduce básico que contará el número de ocurrencias de cada palabra de un documento. Este trabajo se suele denominar wordcount y es el equivalente al programa Hello Word en Hadoop. Los ficheros necesarios para esta práctica están en el directorio wordcount. 1. (No es necesario si ya hemos hecho la práctica anterior) Lo primero subiremos el fichero de entrada (wordcount/entrada.txt) al HDFS: hadoop fs -mkdir input hadoop fs -put entrada.txt input/ 2. Crearemos los scripts que van a actuar como Mapper y Reducer. Se ofrece una plantilla del mapper y reducer en Perl en el directorio wordcount/streaming_api/ con comentarios para ayudar a su implementación. No es necesario realizar la práctica en Perl, se puede usar también Python o incluso es posible instalar otro lenguaje en el cluster. Se ofrece una posible solución en el directorio wordcount/streaming_api/solucion. 3. Lanzaremos nuestro trabajo MapReduce hadoop jar /opt/cesga/hadoop-1.2.1/contrib/streaming/hadoop-streaming jar -input input -output output -mapper mapper.pl -reducer reducer.pl -file mapper.pl -file reducer.pl 5. Y revisaremos la salida hadoop fs -cat output/part-r-* 22

23 Práctica 7: Desarrollar un trabajo MapReduce en Java En esta práctica desarrollaremos el mismo trabajo wordcount que implementamos en la práctica anterior utilizando Streaming API, pero en esta ocasión usaremos la API nativa de Hadoop en Java. 1. Usaremos el mismo fichero de entrada que en la práctica anterior (wordcount/entrada.txt). Recordamos aquí los pasos necesarios para subir el fichero de entrada al HDFS: hadoop fs -mkdir input hadoop fs -put entrada.txt input/ 2. Implementaremos las funciones map y reduce. Se ofrece una plantilla wordcount/java. La plantilla incluye el driver completo (WordCount.java), el Mapper (WordMapper.java) y el Reducer (SumReducer.java). Sólo es necesario completar la función map que se define dentro del Mapper y la función reduce que se define dentro del Reducer. Se ofrece una posible solución en el directorio wordcount/java/solucion. 3. Compilar el código y generar un fichero jar javac -classpath `hadoop classpath` *.java jar cvf wordcount.jar *.class 4. Por último lanzaremos nuestro trabajo MapReduce hadoop jar wordcount.jar WordCount input output-java 5. Y revisaremos la salida hadoop fs -cat output-java/part-r-* 23

24 Práctica 8: Procesado de datos con Hive En esta práctica veremos como Hive nos permite acceder a ficheros del HDFS como si se tratase de tablas de una base de datos, con un lenguaje llamado HiveQL que es muy similar a SQL. 1. Lo primero descargaremos el dataset que utilizaremos para la práctica. Se trata de un dataset libre de recomendaciones de películas llamado MovieLens y que es distribuido por GroupLens. [hadoop@hadoop-master ~]$ wget 2. Descomprimir el dataset [hadoop@hadoop-master ~]$ tar xzvf movielens-100k.tar.gz 3. Subirlo al HDFS [hadoop@hadoop-master ~]$ cd movielens-100k [hadoop@hadoop-master movielens-100k]$ hadoop fs -mkdir movierating [hadoop@hadoop-master movielens-100k]$ hadoop fs -put u*.base movierating Comprobaremos que todos los ficheros han sido subidos: [hadoop@hadoop-master movielens-100k]$ hadoop fs -ls movierating Found 7 items -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u1.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u2.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u3.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u4.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u5.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/ua.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/ub.base cd movielens-100k 4. Podemos ver como es el contenido de uno de los ficheros del dataset (todos contienen la misma información): [hadoop@hadoop-master movielens-100k]$ hadoop fs -tail /user/hadoop/movierating/u2.base tail

25 Básicamente cada fichero que hemos subido al HDFS contiene la siguiente información separada por tabulaciones: user id item id rating timestamp 5. Lanzamos Hive [hadoop@hadoop-master movielens-100k]$ hive Logging initialized using configuration in jar:file:/opt/cesga/apache-hive bin/lib/hive-common jar!/hive-log4j.properties hive> 6. Creamos un mapeo para los ficheros que hemos subido al directorio movierating hive> create external table movierating (userid INT, movieid INT, rating INT) row format delimited fields terminated by '\t' location '/user/hadoop/movierating'; 7. Y ahora ya podemos ejecutar consultas sobre esos ficheros como si todos los ficheros del directorio se tratasen de una sola tabla de una base de datos SQL: hive> select count(*) from movierating; Query ID = hadoop_ _6acd64cd-3f12-479f-b2e f Total jobs = 1 Launching Job 1 out of 1 Number of reduce tasks determined at compile time: 1 In order to change the average load for a reducer (in bytes): set hive.exec.reducers.bytes.per.reducer=<number> In order to limit the maximum number of reducers: set hive.exec.reducers.max=<number> In order to set a constant number of reducers: set mapred.reduce.tasks=<number> Starting Job = job_ _0001, Tracking URL = Kill Command = /opt/cesga/hadoop-1.2.1/libexec/../bin/hadoop job -kill job_ _0001 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: :16:46,840 Stage-1 map = 0%, reduce = 0% :16:53,875 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 2.71 sec :17:02,923 Stage-1 map = 100%, reduce = 33%, Cumulative CPU 2.71 sec :17:05,942 Stage-1 map = 100%, reduce = 100%, Cumulative CPU 5.16 sec MapReduce Total cumulative CPU time: 5 seconds 160 msec Ended Job = job_ _0001 MapReduce Jobs Launched: Stage-Stage-1: Map: 1 Reduce: 1 Cumulative CPU: 5.16 sec HDFS Read: HDFS Write: 7 SUCCESS Total MapReduce CPU Time Spent: 5 seconds 160 msec OK 25

26 Time taken: seconds, Fetched: 1 row(s) 8. También podemos poner restricciones en la consulta: hive> select * from movierating where userid=1 limit 5; OK Time taken: 0.12 seconds, Fetched: 5 row(s) 9. He incluso podemos crear nuevas tablas a partir de los resultados de una consulta: hive> create table newtable as select * from movierating where userid=1; Query ID = hadoop_ _3e348cf2-f5d e96-a709b704a47a Total jobs = 3 Launching Job 1 out of 3 Number of reduce tasks is set to 0 since there's no reduce operator Starting Job = job_ _0002, Tracking URL = Kill Command = /opt/cesga/hadoop-1.2.1/libexec/../bin/hadoop job -kill job_ _0002 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: :22:33,991 Stage-1 map = 0%, reduce = 0% :22:41,018 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 3.0 sec :22:45,038 Stage-1 map = 100%, reduce = 100%, Cumulative CPU 3.0 sec MapReduce Total cumulative CPU time: 3 seconds 0 msec Ended Job = job_ _0002 Stage-4 is selected by condition resolver. Stage-3 is filtered out by condition resolver. Stage-5 is filtered out by condition resolver. Moving data to: hdfs://hadoop-master:54310/user/hive/warehouse/.hivestaging_hive_ _ _816_ /-ext Moving data to: hdfs://hadoop-master:54310/user/hive/warehouse/oneuser Table default.oneuser stats: [numfiles=1, numrows=1612, totalsize=12256, rawdatasize=10644] MapReduce Jobs Launched: Stage-Stage-1: Map: 1 Cumulative CPU: 3.0 sec HDFS Read: HDFS Write: SUCCESS Total MapReduce CPU Time Spent: 3 seconds 0 msec OK Time taken: seconds 10. Para terminar la sesión interactiva: hive> quit ; 26

27 Práctica 9: Machine learning con Mahout En esta práctica veremos como utilizar la librería de machine learning Mahout para obtener recomendaciones del películas. 1. (Si ya hemos completado la práctica anterior esta parte no es necesaria) Primero descargaremos los datos que utilizaremos y los subiremos al HDFS. [hadoop@hadoop-master ~]$ wget [hadoop@hadoop-master ~]$ tar xzvf movielens-100k.tar.gz [hadoop@hadoop-master ~]$ cd movielens-100k [hadoop@hadoop-master movielens-100k]$ hadoop fs -mkdir movierating [hadoop@hadoop-master movielens-100k]$ hadoop fs -put u*.base movierating Podemos ver como es el contenido de uno de los ficheros del dataset (todos contienen la misma información): [hadoop@hadoop-master movielens-100k]$ hadoop fs -tail /user/hadoop/movierating/u2.base tail Básicamente cada fichero que hemos subido al HDFS contiene la siguiente información separada por tabulaciones: user id item id rating timestamp 2. Crearemos una lista con los identificadores de los usuarios de los cuales queremos obtener las recomendaciones. Para ello crearemos un fichero en el disco local llamado users y dentro de ese fichero pondremos el siguiente contenido (asegurarse de no dejar ninguna línea en blanco al final del fichero): Subiremos el fichero al HDFS [hadoop@hadoop-master ~]$ hadoop fs -put users users 4. Por último ejecutaremos el recomendador de Mahout: 27

Comandos HDF Breve manual

Comandos HDF Breve manual Comandos HDF Breve manual Diego J. Bodas Sagi Julio de 2014 Índice Comandos Linux / Unix Comandos HDFS Ejemplos Resumen 2 Comandos interesantes para Data Science Tener soltura a la hora de interactuar

Más detalles

# the. in the next command references the cloudera home directory # in hdfs, /user/cloudera

# the. in the next command references the cloudera home directory # in hdfs, /user/cloudera Una rápida introducción a HDFS y MapReduce Antes de iniciar a mover datos entre su base de datos relacional y Hadoop, usted necesita una rápida introducción a HDFS y a MapReduce. Hay muchos tutoriales

Más detalles

Manual de instalación y configuración de hadoop 1.0.3 en linux

Manual de instalación y configuración de hadoop 1.0.3 en linux Manual de instalación y configuración de hadoop 1.0.3 en linux Índice...2 Software utilizado...2 Requisitos...2 Java...2 Sistema Operativo...2 Crear grupo y usuario...2 Creación del grupo...2 Creación

Más detalles

Instalación Hadoop. Guía para Debian y derivados

Instalación Hadoop. Guía para Debian y derivados Instalación Hadoop Guía para Debian y derivados Índice Instalación Hadoop Hadoop Distributed File System a. NameNode b. DataNode. Requisitos Diferentes modos de configuración Instalación Java Instalación

Más detalles

REQUISITOS DEL SISTEMA. Software Servidor. Cliente. Hardware Servidor. Cliente

REQUISITOS DEL SISTEMA. Software Servidor. Cliente. Hardware Servidor. Cliente MANUAL TECNICO INSTALACIÓN Y CONFIGURACIÓN DEL SISTEMA AARON A QUIEN VA DIRIGIDO El siguiente manual está dirigido al administrador encargado de la instalación y configuración del Sistema AARON. PRÓLOGO

Más detalles

INSTALACIÓN DE MySQL SERVER EN WINDOWS

INSTALACIÓN DE MySQL SERVER EN WINDOWS INSTALACIÓN DE MySQL SERVER EN WINDOWS Seguir los siguientes pasos: En primer lugar necesitaremos disponer del programa de instalación. Se puede descargar gratuitamente de http://dev.mysql.com/downloads

Más detalles

Modelo de Gobierno de Datos con SPARK

Modelo de Gobierno de Datos con SPARK Página1 Configuración de la máquina maestra Para un sistema de Hadoop Para configurar una máquina como maestra en un cluster de Hadoop, es necesario modificar algunos archivos que se encuentran dentro

Más detalles

Acceso a máquinas usando el SSH sin contraseña

Acceso a máquinas usando el SSH sin contraseña Acceso a máquinas usando el SSH sin contraseña Sergio Talens-Oliag InfoCentre (http://www.infocentre.gva.es/) stalens@infocentre.gva.es En este documento se explica como acceder a servidores Unix utilizando

Más detalles

Para poder instalar el producto, tendremos que obtener el instalador apropiado para nuestro entorno hardware y software.

Para poder instalar el producto, tendremos que obtener el instalador apropiado para nuestro entorno hardware y software. Instalación de Oracle Service BUS (OSB) 1 DESCARGA DE INSTALADOR Para poder instalar el producto, tendremos que obtener el instalador apropiado para nuestro entorno hardware y software. En la siguiente

Más detalles

Actividad 1: Utilización cliente FTP (mediante línea de comandos, entornos gráficos y navegadores/exploradores) (I).

Actividad 1: Utilización cliente FTP (mediante línea de comandos, entornos gráficos y navegadores/exploradores) (I). PRÁCTICAS SRI TEMA 5 (SERVIDOR FTP) Actividad 1: Utilización cliente FTP (mediante línea de comandos, entornos gráficos y navegadores/exploradores) (I). 1. Iniciamos sesión con un usuario nombre (miguel)

Más detalles

Instalación de FileZilla FTP Server

Instalación de FileZilla FTP Server Instalación de FileZilla FTP Server [Ir a Página principal] El proceso de instalación es muy sencillo, solamente en algunos pasos tendremos que realizar acciones como elegir el tipo de instalación o de

Más detalles

Servidor web E-Sniper

Servidor web E-Sniper Servidor web E-Sniper Tabla de contenido Instalación del servidor IIS... 1 Instalación de la aplicación... 3 Crear el Website... 4 Comprobar la aplicación... 5 Configurar la base de datos... 6 SQLServer...

Más detalles

virtual appliance guía de inicio rápido

virtual appliance guía de inicio rápido vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 11.10 64-bit y hosts

Más detalles

Práctica 1: Herramientas básicas:

Práctica 1: Herramientas básicas: Práctica 1: Herramientas básicas: En esta práctica veremos las siguientes herramientas: Conexión a Terminal remoto Conexión a escritorio remoto Otras herramientas Duración: 1 sesión de 2 5 horas Conexión

Más detalles

Ficheros de configuración de Nagios (ejemplo con nrpe y snmp)

Ficheros de configuración de Nagios (ejemplo con nrpe y snmp) How-to sobre Nagios Realizado por Eugenio Fuentefría Oróns Índice. Qué es Nagios? Funcionalidades de Nagios Equipos usados para las pruebas Instalación de Nagios. Uso de Nagios Modos de extraer información

Más detalles

Manual de NetBeans y XAMPP

Manual de NetBeans y XAMPP Three Headed Monkey Manual de NetBeans y XAMPP Versión 1.0 Guillermo Montoro Delgado Raúl Nadal Burgos Juan María Ruiz Tinas Lunes, 22 de marzo de 2010 Contenido NetBeans... 2 Qué es NetBeans?... 2 Instalación

Más detalles

Manual De Instalación MySQl 5.1 MANUAL DE INSTALACIÓN Y CONFIGURACIÓN DE MYSQL 5.1.40

Manual De Instalación MySQl 5.1 MANUAL DE INSTALACIÓN Y CONFIGURACIÓN DE MYSQL 5.1.40 MANUAL DE INSTALACIÓN Y CONFIGURACIÓN DE MYSQL 5.1.40 Página 1 de 15 1.- Ejecutamos el fichero mysql-essential-5.1.40-win32. Espera unos minutos mientras se cargan los archivos necesarios para la instalación

Más detalles

virtual appliance guía de inicio rápido

virtual appliance guía de inicio rápido vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 12.04 64-bit y hosts

Más detalles

Instalación y configuración del servidor FTP Filezilla en Windows 2003 Server. Vicente Sánchez Patón I.E.S Gregorio Prieto.

Instalación y configuración del servidor FTP Filezilla en Windows 2003 Server. Vicente Sánchez Patón I.E.S Gregorio Prieto. Tema 5 SRI Instalación y configuración del servidor FTP Filezilla en Windows 2003 Server Vicente Sánchez Patón I.E.S Gregorio Prieto Tema 5 SRI Lo primero será descargarse el filezilla sever, desde su

Más detalles

Descarga, instalación y uso de herramientas:

Descarga, instalación y uso de herramientas: Descarga, instalación y uso de herramientas: Eclipse: Instalación de Eclipse (Más información en http://www.eclipse.org/) 1. Copiar, descomprimir e instalar si es necesario la última versión de Eclipse

Más detalles

INSTALACIÓN FIREWALL IPCOP

INSTALACIÓN FIREWALL IPCOP Contenido 1. IpCop... 2 2. Requisitos... 2 3. Descarga... 2 4. Instalación... 3 5. Configuración... 8 5.1 VPN (RED GREEN)... 10 5.2 Tarjeta de red ROJA... 11 5.3 DNS y puerta de enlace... 12 5.4 Servidor

Más detalles

Uso básico de la terminal

Uso básico de la terminal Uso básico de la terminal Comandos básicos El CLI más utilizado en Linux se llama GNU/Bash (o solo Bash --Bourne Again Shell) algunas variables y comandos que son de utilidad son:. ruta actual ~ home del

Más detalles

UNIDAD DIDACTICA 15 CONVERTIR UN EQUIPO LINUX SERVER EN CONTROLADOR DE DOMINIO

UNIDAD DIDACTICA 15 CONVERTIR UN EQUIPO LINUX SERVER EN CONTROLADOR DE DOMINIO UNIDAD DIDACTICA 15 CONVERTIR UN EQUIPO LINUX SERVER EN CONTROLADOR DE DOMINIO Eduard Lara 1 1. CONVERTIR UN LINUX SERVER EN CONTROLADOR DE DOMINIO En Linux Server, a diferencia de Windows Server, no existe

Más detalles

INSTALACIÓN DE UBUNTU SERVER 12.4 EN MÁQUINA VIRTUAL

INSTALACIÓN DE UBUNTU SERVER 12.4 EN MÁQUINA VIRTUAL INSTALACIÓN DE UBUNTU SERVER 12.4 EN MÁQUINA VIRTUAL Grupo de Innovación y Apropiación de Tecnologías de la Información Archivística Compilador: Pedro Antonio Gómez Guarín 1 INSTALACIÓN DE UBUNTU SERVER

Más detalles

INSTALACION Y CONFIGURACION DE SQL SERVER MANAGEMENT (EXPRESS) 2008

INSTALACION Y CONFIGURACION DE SQL SERVER MANAGEMENT (EXPRESS) 2008 INSTALACION Y CONFIGURACION DE SQL SERVER MANAGEMENT (EXPRESS) 2008 Requisitos de HW Virtualización SQL Server se admite en entornos de máquina virtual que se ejecutan en el rol de: Windows Server 2008

Más detalles

Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin

Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin Contenido Introducción... 2 Obtención e instalación del software necesario... 2 Configuración de PuTTY para su uso con Cygwin...

Más detalles

labs Linux para Administradores de Elastix Elastix Certification ELASTIX CERTIFICATION

labs Linux para Administradores de Elastix Elastix Certification ELASTIX CERTIFICATION Linux para Administradores de Elastix Elastix Certification 2012, PALOSANTO SOLUTIONS todos los derechos reservados. Esta documentación y su propiedad intelectual pertenece a PaloSanto Solutions. Cualquier

Más detalles

CTSQL Monitor Unix. En este documento se describe el proceso de instalación y configuración básica para monitorizar. BASE 100, S.A. www.base100.

CTSQL Monitor Unix. En este documento se describe el proceso de instalación y configuración básica para monitorizar. BASE 100, S.A. www.base100. En este documento se describe el proceso de instalación y configuración básica para monitorizar sesiones CTSQL en máquinas Unix. BASE 100, S.A. www.base100.com Índice 1. INTRODUCCIÓN... 3 2. FICHERO DE

Más detalles

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX En este manual se presenta el proceso de configuración de una Maquina Virtual en VirtualBox, que será utilizada para instalar un Servidor

Más detalles

UNIDESYS UNIVERSAL BUSINESS SYSTEMS INSTALACIÓN NUEVO PUESTO DE TRABAJO

UNIDESYS UNIVERSAL BUSINESS SYSTEMS INSTALACIÓN NUEVO PUESTO DE TRABAJO www.ubs-systems.com Teléfono: 91 3681185 UNIDESYS UNIVERSAL BUSINESS SYSTEMS INSTALACIÓN NUEVO PUESTO DE TRABAJO Unidesys Versión 2011 1 CONTENIDO 1 INTRODUCCIÓN 3 2 FUENTES DE DATOS 4 3 INSTALACIÓN DEL

Más detalles

GIT Dinahosting 3. Hola!

GIT Dinahosting 3. Hola! GIT Manual de uso GIT Dinahosting 2 Contenidos Sobre Git...3 Software...3 Cómo conectarse?...3 Volcar un repositorio remoto...4 Manejar el repositorio...5 Trabajando con ramificaciones...6 Fusionando ramificaciones...6

Más detalles

Instalación de Tomcat7 en Ubuntu

Instalación de Tomcat7 en Ubuntu 2. Instala el servidor web java TomCat en Windows y Linux. Documenta los módulos/servicios necesarios. Instala el CMS Java Liferay. Documenta el proceso. Instalación de Tomcat7 en Ubuntu Comenzamos instalando

Más detalles

Guia rápida EPlus Cliente-Servidor

Guia rápida EPlus Cliente-Servidor Guia rápida EPlus Cliente-Servidor Esta guía permitirá al usuario instalar la aplicación e-plus, para firmar y declarar sus trámites a través de acceso remoto. CONSIDERACIONES GENERALES.- El software eplus

Más detalles

CONFIGURACIÓN DEL SERVIDOR

CONFIGURACIÓN DEL SERVIDOR CONFIGURACIÓN DEL SERVIDOR Una vez finalizadas las configuraciones iniciales de las interfaces y direcciones IPs, desde cualquier equipo de la red abrimos el navegador e introducimos la dirección IP del

Más detalles

Manual de instalación Actualizador masivo de Stocks y Precios

Manual de instalación Actualizador masivo de Stocks y Precios Manual de instalación Actualizador masivo de Stocks y Precios Instrucciones para la instalación de Actualizado masivo de Stocks y Precios Módulo para Prestashop desarrollado por OBSolutions Módulo para

Más detalles

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.

Más detalles

UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA

UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA Eduard Lara 1 1. INICIO SESIÓN EN LINUX Inicio en modo local Se enciende el equipo y se introduce el nombre de usuario local y su contraseña,

Más detalles

- A continuación, se nos abrirá la siguiente ventana pidiendo contraseña, que el cliente haya especificado al instalar Wingest 7

- A continuación, se nos abrirá la siguiente ventana pidiendo contraseña, que el cliente haya especificado al instalar Wingest 7 Copia de seguridad en Wingest 7 desde WgAdmin Los pasos a seguir serán los siguientes: - Todos los usuarios de la aplicación deberán estar fuera de ella. - Deberemos entrar en nuestra carpeta de Wingest

Más detalles

Shell de Unix ProgPLN

Shell de Unix ProgPLN Shell de Unix ProgPLN Víctor Peinado v.peinado@filol.ucm.es 9 de octubre de 2014 Never use the graphical tool; always learn the old Unix tool. You ll be far more effective over time and your data will

Más detalles

Problemas comunes en la integración del módulo V.me by Visa en Prestashop

Problemas comunes en la integración del módulo V.me by Visa en Prestashop Problemas comunes en la integración del módulo V.me by Visa en Prestashop Índice' 1.! NO%SE%MUESTRA%EL%MÉTODO%DE%PAGO%...%3! 1.1% LIMPIEZA!Y!DESACTIVACIÓN!DE!LA!CACHÉ!...!3% 1.1.1#Desactivar#/#Borrar#caché#Prestashop#1.4#...#3#

Más detalles

Servicio de Informática Vicerrectorado de Tecnologías de la Información y la Comunicación

Servicio de Informática Vicerrectorado de Tecnologías de la Información y la Comunicación Vicerrectorado de Tecnologías de la Información y la Comunicación Conexión mediante Escritorio Remoto de Windows Última Actualización 16 de septiembre de 2013 Histórico de cambios Fecha Descripción Autor

Más detalles

30 de Mayo de 2008. www.sigrid.es

30 de Mayo de 2008. www.sigrid.es Guia de Instalación del servidor SgdWMS 30 de Mayo de 2008 www.sigrid.es 2 Índice 1.- INTRODUCCIÓN... 3 2.- INSTALACIÓN DE INTERNET INFORMATION SERVER (IIS)... 3 3.- INSTALACIÓN DEL SERVIDOR SGDWMS EN

Más detalles

Resumen. DESlock+ Guía Básica de Configuración. Requerimientos del Sistema:

Resumen. DESlock+ Guía Básica de Configuración. Requerimientos del Sistema: DESlock+ Guía Básica de Configuración Resumen DESlock+ Enterprise server incluye varias soluciones de encriptación que pueden distribuirse a cada equipo a través de la consola Enterprise Server + DESlock.

Más detalles

INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS

INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS Toda la instalación se lo va a realizar en el directorio opt, la instalación correspondiente al jdk se lo hace así.

Más detalles

Instalación de Casandra Para instalar cassandra se recomienda tener la última versión de JAVA instalada.

Instalación de Casandra Para instalar cassandra se recomienda tener la última versión de JAVA instalada. Bases de Datos Avanzadas GUIA PARA CASSANDRA En esta guía se explicara como instalar cassandra, como agregar datos a cassandra usando spoon, y como corregir algunos problemas que puede aparecer. Para esta

Más detalles

INTRODUCCIÓN A APACHE SPARK CON PYTHON

INTRODUCCIÓN A APACHE SPARK CON PYTHON Ls INTRODUCCIÓN A APACHE SPARK CON PYTHON Introducción a Apache Spark Jortilles.com info@jortilles.com Índice de contenido 1.Descripción...3 2.Cual es su ventaja competitiva...3 3.Instalación...3 4.Conceptos

Más detalles

Cloud Builder Ejercicio práctico

Cloud Builder Ejercicio práctico Cloud Builder Ejercicio práctico Raúl Martínez Zabala IaaS + PaaS Product Manager Qué vamos a hacer? Visto desde fuera: Un Blog Visto desde dentro... Nosotros frontal web Internet Backend MySQL CloudBuilder

Más detalles

Reparar diagramas FUP o MMI con errores de código desde un Backup anterior.

Reparar diagramas FUP o MMI con errores de código desde un Backup anterior. Reparar diagramas FUP o MMI con errores de código desde un Backup anterior. Debemos realizar un backup previo de todos los diagramas FUP y MMI de la ES para poder reponer el diagrama corrupto en el momento

Más detalles

DPM Storage calculator

DPM Storage calculator ------------------------------------------------------------------------------------------------------------------------------------------------------------------ ------------------------------------------------------------------------------------------------------------------------------------------------------------------

Más detalles

GUÍA PARA LA INSTALACIÓN DE MOODLE EN UN COMPUTADOR PERSONAL QUE USA EL SISTEMA OPERATIVO MS. WINDOWS

GUÍA PARA LA INSTALACIÓN DE MOODLE EN UN COMPUTADOR PERSONAL QUE USA EL SISTEMA OPERATIVO MS. WINDOWS GUÍA PARA LA INSTALACIÓN DE MOODLE EN UN COMPUTADOR PERSONAL QUE USA EL SISTEMA OPERATIVO MS. WINDOWS Objetivo: El propósito de esta guía es indicarle como configurar un entorno moodle de prácticas en

Más detalles

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse

Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.

Más detalles

INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4

INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4 Grupo de Innovación y Apropiación de Tecnologías de la Información Archivística Compilador: Pedro Antonio Gómez Guarín INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4 INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4

Más detalles

TUTORIAL DE INSTALACIÓN Y CONFIGURACIÓN DE NETBEANS

TUTORIAL DE INSTALACIÓN Y CONFIGURACIÓN DE NETBEANS TUTORIAL DE INSTALACIÓN Y CONFIGURACIÓN DE NETBEANS Apartado A: Descarga desde la web oficial de Oracle, Java SE e instálalo en tu equipo. Vamos a la página web de Oracle, y seleccionamos en productos

Más detalles

INSTALACIÓ N A3ERP. Informática para empresas INTRODUCCIÓN CONSIDERACIONES GENERALES DE LA INSTALACIÓN PAQUETES DE INSTALACIÓN PREDEFINIDOS

INSTALACIÓ N A3ERP. Informática para empresas INTRODUCCIÓN CONSIDERACIONES GENERALES DE LA INSTALACIÓN PAQUETES DE INSTALACIÓN PREDEFINIDOS Página 1 de 20 INSTALACIÓ N A3ERP INTRODUCCIÓN La instalación de a3erp v9 ha sufrido una trasformación importante respecto a sus versiones anteriores. Cualquier instalación exige la existencia de un pc

Más detalles

INSTALACIÓN DE GITLAB

INSTALACIÓN DE GITLAB INSTALACIÓN DE GITLAB ÍNDICE INSTALACIÓN GITLAB... 3 CREAR USUARIOS... 5 CREAR PROYECTO... 7 INSTALACIÓN CLIENTE GIT... 9 1 Para tener una especie de Github o Bitbucket personal, podemos hacer uso de la

Más detalles

Cómo instalar fácilmente tu WordPress tras contratar un hosting en Hostalia

Cómo instalar fácilmente tu WordPress tras contratar un hosting en Hostalia Cómo instalar fácilmente tu WordPress tras contratar un hosting en Hostalia Cardenal Gardoki, 1 48008 BILBAO (Vizcaya) Teléfono: 902 012 199 www.hostalia.com La puesta en marcha de WordPress es muy sencilla,

Más detalles

Kosmo Desktop Manual de desarrollo Instalación y configuración del código fuente de Kosmo en Eclipse

Kosmo Desktop Manual de desarrollo Instalación y configuración del código fuente de Kosmo en Eclipse Kosmo Desktop Manual de desarrollo Instalación y configuración del código fuente de Kosmo en Eclipse Versión 3.0 02/12/2010 2 3 1 Control de versiones VERSIÓN AUTOR FECHA CAMBIO 1.0 SAIG, S.L. 22/03/2007

Más detalles

Servidor. Comenzaremos por confirmar que el servicio NFS esta instalado y ejecutandose desde la terminal, escribiremos lo siguiente: #rpm -q nfs-utils

Servidor. Comenzaremos por confirmar que el servicio NFS esta instalado y ejecutandose desde la terminal, escribiremos lo siguiente: #rpm -q nfs-utils NFS Red Hat Enterprise Linux 6 provee dos mecanismos para compartir archivos y carpetas con otros sistemas operativos por medio de la red. Una de las opciones es utilizar una tecnologia llamada samba.

Más detalles

Manual de Instalación del sistema administrativo PremiumSoft Extended 7

Manual de Instalación del sistema administrativo PremiumSoft Extended 7 1 P á g i n a M a n u a l d e I n s t a l a c i ó n d e l s i s t e m a a d m i n i s t r a t i v o Manual de Instalación del sistema administrativo PremiumSoft Extended 7 X Realizado por: Enrique Tancredi

Más detalles

Comprender un poco más de los que es Apache Pig y Hadoop. El tutorial de cerdo muestra cómo ejecutar dos scripts de cerdo en modo local y el

Comprender un poco más de los que es Apache Pig y Hadoop. El tutorial de cerdo muestra cómo ejecutar dos scripts de cerdo en modo local y el APACHE PIG CONTENIDO 1. Introducción 3 1.1. Apache Pig 3 1.2. Propiedades 4 1.3. Requisitos para Apache Pig 4 1.4. Instalación de Hadoop 5 1.5. Instalación de java 5 1.6. Instalación de Pig 6 1.7. Ejecución

Más detalles

Guía de instalación del servidor

Guía de instalación del servidor Guía de instalación del servidor Autores: Versión: 1.0 Jesús Manuel Rodríguez Sánchez Miguel Ángel Lorente López Fecha: 22/01/2009 Tabla de contenido Manual de Instalación del Servidor 4 Paso 1) Instalar

Más detalles

WUS (WINDOWS UPDATE SERVICE)

WUS (WINDOWS UPDATE SERVICE) 1 de 13 01/12/2007 1:24 WUS (WINDOWS UPDATE SERVICE) WUS, WUS es un sistema gratuito de microsoft para mantener con las útimas actualizaciones a todos los puestos de nuestra red. Se instala el servicio

Más detalles

PROYECTO INTEGRADO CLUSTER DE ALTA DISPONIBILIDAD CON HAPROXY Y KEEPALIVED. Antonio Madrena Lucenilla 21 de Diciembre de 2012 I.E.S.

PROYECTO INTEGRADO CLUSTER DE ALTA DISPONIBILIDAD CON HAPROXY Y KEEPALIVED. Antonio Madrena Lucenilla 21 de Diciembre de 2012 I.E.S. PROYECTO INTEGRADO CLUSTER DE ALTA DISPONIBILIDAD CON HAPROXY Y KEEPALIVED Obra bajo licencia Creative Commons Antonio Madrena Lucenilla 21 de Diciembre de 2012 I.E.S. Gonzalo Nazareno INDICE DE CONTENIDO

Más detalles

Servidor FTP en Ubuntu Juan Antonio Fañas

Servidor FTP en Ubuntu Juan Antonio Fañas Qué es FTP? FTP (File Transfer Protocol) o Protocolo de Transferencia de Archivos (o ficheros informáticos) es uno de los protocolos estándar más utilizados en Internet siendo el más idóneo para la transferencia

Más detalles

10. El entorno de publicación web (Publiweb)

10. El entorno de publicación web (Publiweb) 10. El entorno de publicación web (Publiweb) 10.1. Introducción El entorno de publicación Web es una herramienta que permite la gestión de nuestras páginas Web de una forma visual. Algunos ejemplos de

Más detalles

Instituto Tecnológico de Las América. Materia Sistemas operativos III. Temas. Facilitador José Doñe. Sustentante Robín Bienvenido Disla Ramirez

Instituto Tecnológico de Las América. Materia Sistemas operativos III. Temas. Facilitador José Doñe. Sustentante Robín Bienvenido Disla Ramirez Instituto Tecnológico de Las América Materia Sistemas operativos III Temas Servidor Web Apache Facilitador José Doñe Sustentante Robín Bienvenido Disla Ramirez Matricula 2011-2505 Grupo 1 Servidor Web

Más detalles

Copias de seguridad con SQL Server 2005 WhitePaper Febrero de 2008

Copias de seguridad con SQL Server 2005 WhitePaper Febrero de 2008 Copias de seguridad con SQL Server 2005 WhitePaper Febrero de 2008 Contenidos 1. Propósito 3 2. Realizar una copia de seguridad con SQL Server 2005 4 3. Restaurar una copia de seguridad con SQL Server

Más detalles

Windows Embedded Standard 7

Windows Embedded Standard 7 Windows Embedded Standard 7 Objetivos Instalar el Sistema Operativo Windows Embedded Standard 7 sobre la placa de evaluación de Congatec. Requisitos PC de desarrollo con Windows 7. Entorno de desarrollo

Más detalles

ANEXO III. Creación de plantillas e imagenes en CloudStack y subida de ficheros vhd e iso.

ANEXO III. Creación de plantillas e imagenes en CloudStack y subida de ficheros vhd e iso. ANEXO III. Creación de plantillas e imagenes en CloudStack y subida de ficheros vhd e iso. En este anexo se explica el procedimiento para crear plantillas con CloudStack así como la forma de subir los

Más detalles

Actualización Aranda VIRTUAL SUPPORT (AVS) 7.1 a 7.2

Actualización Aranda VIRTUAL SUPPORT (AVS) 7.1 a 7.2 Actualización Aranda VIRTUAL SUPPORT (AVS) 7.1 a 7.2 Proyecto: Aranda VIRTUAL SUPPORT 7.2 Responsable del documento: María Camila Gómez Silva Project Manager maria.gomez@arandasoft.com Versión 1.0 Estado

Más detalles

INTRANET: MANUAL DE INSTALACIÓN

INTRANET: MANUAL DE INSTALACIÓN INTRANET: MANUAL DE INSTALACIÓN 1 de 15 INDICE 1 Requisitos mínimos... 3 2 Instalación... 4 2.1 Instalación de los ficheros de la Intranet... 4 2.2 Registro de las librerías... 4 2.3 Configuración del

Más detalles

CONFIGURACIÓN DE SOFTPHONES

CONFIGURACIÓN DE SOFTPHONES CONFIGURACIÓN DE SOFTPHONES Ahora podemos disfrutar del servicio Newcall también en nuestro móvil/tablet o PC. Solo necesitamos tener acceso a Internet a través de Wi-Fi o por 3G / 4G. A continuación se

Más detalles

Compartiendo conocimiento... Guía básica de instalación de Asterisk 11 en Centos6.5

Compartiendo conocimiento... Guía básica de instalación de Asterisk 11 en Centos6.5 Compartiendo conocimiento... Guía básica de instalación de Asterisk 11 en Centos6.5 (c) 2014 Xavier Jiménez Índice de contenido Introducción y propósito del documento...1 Instalación de CentOS...1 Instalación

Más detalles

CITRIX 4.5 - Citrix Application Streaming

CITRIX 4.5 - Citrix Application Streaming 1 de 39 01/12/2007 1:06 CITRIX 4.5 - Citrix Application Streaming Es la caracteristica principal de la versión 4.5 de Citrix, el Application Streaming, en este documento se explica cómo usarlo. Application

Más detalles

Instrucciones para el despliegue de EJBs

Instrucciones para el despliegue de EJBs Apuntes de J2EE Instrucciones para el despliegue de EJBs Uploaded by Ingteleco http://ingteleco.webcindario.com ingtelecoweb@hotmail.com La dirección URL puede sufrir modificaciones en el futuro. Si no

Más detalles

Presentación. Nombre: Marcel Yerobis Pérez de la cruz Matricula: 2013-1670 Trabajo: Profesor: José Doñe. Asignatura: Sistema 3.

Presentación. Nombre: Marcel Yerobis Pérez de la cruz Matricula: 2013-1670 Trabajo: Profesor: José Doñe. Asignatura: Sistema 3. Presentación Nombre: Marcel Yerobis Pérez de la cruz Matricula: 2013-1670 Trabajo: FTP server Profesor: José Doñe Asignatura: Sistema 3 Lo primero que debemos de hacer es descargar el servicio de ftp hay

Más detalles

AVD, el emulador de Smartphone y Tablets Android que incluye el SDK de Google

AVD, el emulador de Smartphone y Tablets Android que incluye el SDK de Google AVD, el emulador de Smartphone y Tablets Android que incluye el SDK de Google Para probar nuestras aplicaciones Google nos proporciona un emulador de dispositivos conocido como AVD (Android Virtual Devices).

Más detalles

Seguidamente se muestra una pantalla para seleccionar nuestra localización, y comprobamos que la hora y demás es correcto. Podemos hacerlo fácilmente

Seguidamente se muestra una pantalla para seleccionar nuestra localización, y comprobamos que la hora y demás es correcto. Podemos hacerlo fácilmente A continuación se presentarán los diferentes pasos a seguir para la instalación de la distribución de linux Ubuntu 6.06 en su versión Desktop, usando para esto el nuevo instalador gráfico incluido en la

Más detalles

Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows

Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows Lo primero que hay que tener en cuenta para poder hacer nuestro primer programa en C++ es que necesitamos ciertas herramientas

Más detalles

FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral

FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral 2011 m a r t e s, 0 8 d e m a r z o d e 2 0 1 1 1 Tabla de contenido 2... Requisitos para la instalación... 2 3...

Más detalles

Manual de usuario de IBAI BackupRemoto

Manual de usuario de IBAI BackupRemoto Manual de usuario de IBAI BackupRemoto Índice Cliente de IBAI BackupRemoto... 3 Descarga del cliente de IBAI BackupRemoto... 4 Instalación del cliente de IBAI BackupRemoto... 5 Instalación sobre Microsoft

Más detalles

Aquí tenemos que seleccionar el lenguaje que queremos usar mediante la instalación.

Aquí tenemos que seleccionar el lenguaje que queremos usar mediante la instalación. Instalación de Elastix Seleccionando el lenguaje Aquí tenemos que seleccionar el lenguaje que queremos usar mediante la instalación. Selección del idioma del teclado Seleccionamos el idioma que queramos

Más detalles

Guía para publicar su equipo en Internet.

Guía para publicar su equipo en Internet. Antes de comenzar Guía para publicar su equipo en Internet. Para configurar su equipo y poder publicar sus cámaras en Internet, primeramente es necesario haber abierto los puertos de video y web, que por

Más detalles

Manual de usuario de Windows Live Writer

Manual de usuario de Windows Live Writer Manual de usuario de Windows Live Writer Índice 0.- Introducción. 3 1.- Descarga e Instalación. 4 2.- Conexión a un blog. 7 3.- Interfaz de Windows Live Writer. 12 4.- Creación de un Post. 13 5.- Creación

Más detalles

Instalación de un servidor con HldsUpdateTool

Instalación de un servidor con HldsUpdateTool Dio Joestar Instalación de un servidor con HldsUpdateTool Tutorial donde aprender cómo usar la herramienta HldsUpdateTool para crear un servidor dedicado, en este caso, para Counter-Strike: Source Juego

Más detalles

Soporte Técnico Prof. Héctor Herrera. Instalando Fedora 17 en la misma máquina virtual.

Soporte Técnico Prof. Héctor Herrera. Instalando Fedora 17 en la misma máquina virtual. Instalando Fedora 17 en la misma máquina virtual. Vamos a instalar Linux Fedora 17 para tener dos sistemas operativos en la misma máquina virtual. Existe por cada Linux un DVD y un CD de instalación, en

Más detalles

Roberto Díaz Morales rdiazm@tsc.uc3m.es MLG 24/06/2013

Roberto Díaz Morales rdiazm@tsc.uc3m.es MLG 24/06/2013 Roberto Díaz Morales rdiazm@tsc.uc3m.es MLG 24/06/2013 Indice Amazon AWS Servicios Capa gratuita Amazon S3 Amazon Elastic MapReduce Amazon Elastic Compute Cloud Amazon EBS Amazon AWS Amazon Web Services

Más detalles

Activación de un Escritorio Remoto

Activación de un Escritorio Remoto Activación de un Escritorio Remoto La activación de un Escritorio Remoto se realiza en dos fases, en la primera se habilita a un Usuario de un ordenador para que pueda admitir una conexión remota, la segunda

Más detalles

CENTRAL VIRTUAL IPLAN INSTRUCTIVO DE CONFIGURACIÓN X-LITE 5 (WINDOWS)

CENTRAL VIRTUAL IPLAN INSTRUCTIVO DE CONFIGURACIÓN X-LITE 5 (WINDOWS) CENTRAL VIRTUAL IPLAN INSTRUCTIVO DE CONFIGURACIÓN X-LITE 5 (WINDOWS) 1. INSTALACIÓN DEL SOFTPHONE X-LITE En el presente instructivo te mostraremos la Instalación y Configuración del Softphone X-Lite 5,

Más detalles

Tarea 1 Programación José Luis Comesaña

Tarea 1 Programación José Luis Comesaña Para la descarga de Java he optado por dirigirme a su propietario ORACLE para iniciar la grabación desde su página oficial: http://www.oracle.com/es/index.html donde seleccionamos Java 2 en el apartado

Más detalles

INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS

INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS Toda la instalación se lo va a realizar en el directorio opt, la instalación correspondiente al jdk se lo hace así.

Más detalles

ESCUELA DE INGENIERIA EN COMPUTACION REDES INFORMATICAS SISTEMAS OPERATIVOS DE RED II

ESCUELA DE INGENIERIA EN COMPUTACION REDES INFORMATICAS SISTEMAS OPERATIVOS DE RED II ESCUELA DE INGENIERIA EN COMPUTACION REDES INFORMATICAS SISTEMAS OPERATIVOS DE RED II PRACTICA 4: CONFIGURACION DE SAMBA P2P. INTRODUCCION. Samba es una suite de aplicaciones Unix que entiende el protocolo

Más detalles

SERVICIO NACIONAL DE ADUANA DEL ECUADOR INSTRUCTIVO PARA DESCARGAR E INSTALAR EL AGENTE AVS PARA EL CHAT Y CONTROL REMOTO FEBRERO 2012

SERVICIO NACIONAL DE ADUANA DEL ECUADOR INSTRUCTIVO PARA DESCARGAR E INSTALAR EL AGENTE AVS PARA EL CHAT Y CONTROL REMOTO FEBRERO 2012 SERVICIO NACIONAL DE ADUANA DEL ECUADOR INSTRUCTIVO PARA DESCARGAR E INSTALAR EL AGENTE AVS PARA EL CHAT Y CONTROL REMOTO FEBRERO 2012 1 ÍNDICE 1. OBJETIVO... 3 2. ALCANCE... 3 3. RESPONSABILIDAD... 3

Más detalles

Creación de imágenes. Pablo Sanz Mercado.

Creación de imágenes. Pablo Sanz Mercado. Creación de imágenes. Pablo Sanz Mercado. 1 Cuando hemos instalado un equipo, el tiempo que hemos invertido puede ser realmente elevado, pues no sólo está el tiempo de instalación del mismo, sino además

Más detalles

SONARQUBE. Sandoval Lucas, Leutwyler Nicolás 1er cuatrimestre 2015

SONARQUBE. Sandoval Lucas, Leutwyler Nicolás 1er cuatrimestre 2015 SONARQUBE Sandoval Lucas, Leutwyler Nicolás 1er cuatrimestre 2015 1. Introduccíon 1.1. Descripción del proyecto El proyecto abarca la idea de ofrecer un servicio de análisis de código que permita analizar

Más detalles

REDES DE ÁREA LOCAL. APLICACIONES Y SERVICIOS EN WINDOWS

REDES DE ÁREA LOCAL. APLICACIONES Y SERVICIOS EN WINDOWS REDES DE ÁREA LOCAL. APLICACIONES Y SERVICIOS EN WINDOWS Escritorio remoto - 1 - Escritorio Remoto...- 3 - Definición de Escritorio Remoto... - 3 - Habilitar Escritorio Remoto... - 4 - Instalación del

Más detalles

Guía de uso del Cloud Datacenter de acens

Guía de uso del Cloud Datacenter de acens guíasdeuso Guía de uso del Cloud Datacenter de Calle San Rafael, 14 28108 Alcobendas (Madrid) 902 90 10 20 www..com Introducción Un Data Center o centro de datos físico es un espacio utilizado para alojar

Más detalles