CURSO SERVICIO BIG DATA
|
|
- Adolfo Peralta Muñoz
- hace 8 años
- Vistas:
Transcripción
1 CURSO SERVICIO BIG DATA 1
2 PRACTICAS Práctica 1: Utilizando el servicio cloud (Web)... 3 Práctica 2: Utilizando el servicio cloud (SSH) Práctica 3: Lanzar un cluster Hadoop Práctica 4: HDFS Práctica 5: Lanzando nuestro primer trabajo MapReduce Práctica 6: Desarrollar un trabajo MapReduce usando Streaming API Práctica 7: Desarrollar un trabajo MapReduce en Java Práctica 8: Procesado de datos con Hive Práctica 9: Machine learning con Mahout
3 Práctica 1: Utilizando el servicio cloud (Web) En esta práctica veremos como crear una máquina virtual usando el servicio cloud. Usaremos el método más sencillo que consiste en crear la máquina virtual a partir de una plantilla existente. Para la creación de la misma utilizaremos el interfaz web del servicio. 1. Primero tenemos que loguearnos al servicio cloud: 3
4 2. Pulsar el botón verde con el símbolo + para lanzar una nueva máquina virtual 4
5 3. Seleccionar la plantilla correspondiente a ttylinux que se encuentra en la tercera página de resultados. También podemos valernos de la opción de búsqueda y escribir allí ttylinux. 5
6 4. Le damos un nombre a la máquina y seleccionamos los recursos que queremos para la misma. La plantilla ya nos indica unos valores por defecto: 512MB de RAM y 1 CPU. Mantendremos esos valores y lanzaremos la máquina virtual pulsando en el botón verde crear. 6
7 5. Veremos como la máquina se crea y va pasando por distintos estados hasta que finalmente se pone en ejecución. 7
8 6. A través del interfaz web nos podemos conectar a la consola VNC de la máquina virtual. En general esta consola web se utiliza para resolver problemas que nos impidan la conexión remota directa a nuestra máquina virtual. 8
9 7. Finalmente borraremos la máquina virtual 9
10 Práctica 2: Utilizando el servicio cloud (SSH) En esta práctica repetiremos los pasos que hemos hecho en la práctica anterior pero usando el interfaz de línea de comandos del servicio cloud. 1. Primero tenemos que conectarnos al servicio cloud por SSH. ssh 2. En la primera conexión es necesario habilitar el servicio cloud en nuestra cuenta. Esto se consigue a través del comando enable_cloud. En general este paso sólo es necesario realizarlo la primera vez que nos conectamos al servicio, y sólo tendremos que repetirlo en el caso de que cambiemos la contraseña de la cuenta. [curso884@cloud ~]$ enable_cloud Este script habilitara la configuracion cloud en su cuenta. Desea continuar? [S/n] Porfavor introduzca su password de sistema para continuar. Password: Generando clave ssh... Generating public/private dsa key pair. Created directory '/home/cesga/cursos/curso884/.ssh'. Your identification has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa. Your public key has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa.pub. The key fingerprint is: 9b:31:28:4c:4e:3a:1c:d3:80:6b:dc:7e:f7:e8:96:27 curso884@cloud.cesga.es The key's randomart image is: +--[ DSA 1024] o X.. = +. S o o. =.. * E o o.o Leyendo clave publica: /home/cesga/cursos/curso884/.ssh/id_dsa.pub oneuser update curso884 -a /home/cesga/cursos/curso884/oneuser_template CONFIGURACION FINALIZADA En caso de errores contacte con sistemas@cesga.es 3. Para crear una instancia de una nueva máquina virtual la forma más sencilla es partir de una de las plantillas que ya están predefinidas. Para listar las plantillas disponibles ejecutaremos: [curso884@cloud ~]$ onetemplate list ID USER GROUP NAME REGTIME 177 sistemas users hadoop raw 07/01 10
11 10:43: sistemas users hadoop raw-master 10/15 18:27: sistemas users hadoop raw 05/06 17:14: grid users Ubuntu server x86_64 05/13 16:28: grid users Scientific Linux /13 16:51: grid users Ubtuntu Desktop /13 16:55: sistemas users hadoop raw-master 06/03 15:11: algarcia users CentOS 7 - APP - Devel 10/01 09:42: sistemas oneadmin hadoop.cesga.es-centos7 10/27 13:47: sistemas oneadmin CentOS 7 - TEMPLATE 10/27 13:50: alfeijoo users ttylinux - kvmalfeijoo 11/12 18:03: sistemas users EC2-TEST 12/03 15:16: dnieto elearning_g Seminar-Ubuntu /20 11:02: sistemas oneadmin ttylinux 05/19 19:49:09 4. Para esta práctica usaremos la plantilla ttylinux. Se trata de una distribución mínima de Linux que nos permitirá instanciar de modo rápido nuestra primera máquina virtual. [curso884@cloud ~]$ onetemplate instantiate name "mi primera maquina virtual" VM ID: Durante el arranque de la máquina virtual podemos ver como va cambiando el estado de la misma desde pending hasta running (pending prolog boot running). [curso884@cloud ~]$ onevm list ID USER GROUP NAME STAT UCPU UMEM HOST TIME curso884 users mi primera maquina virtual runn 0 0K nubacesga d 00h00 6. Finalmente borraremos la máquina virtual: [curso884@cloud ~]$ onevm delete
12 Práctica 3: Lanzar un cluster Hadoop En esta práctica lanzaremos nuestro primer cluster de Hadoop. 1. Para lanzar nuestro cluster Hadoop nos conectaremos por SSH al servicio cloud: ssh 2. (Este paso no es necesario hacerlo si completamos la práctica anterior) En la primera conexión es necesario habilitar el servicio cloud en nuestra cuenta ya que los clusters de Hadoop se lanzarán utilizando máquinas vituales. Esto se consigue a través del comando enable_cloud tal y como vimos en la práctica anterior. En general este paso sólo es necesario realizarlo la primera vez que nos conectamos al servicio, y sólo tendremos que repetirlo en el caso de que cambiemos la contraseña de la cuenta. [curso884@cloud ~]$ enable_cloud Este script habilitara la configuracion cloud en su cuenta. Desea continuar? [S/n] Porfavor introduzca su password de sistema para continuar. Password: Generando clave ssh... Generating public/private dsa key pair. Created directory '/home/cesga/cursos/curso884/.ssh'. Your identification has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa. Your public key has been saved in /home/cesga/cursos/curso884/.ssh/id_dsa.pub. The key fingerprint is: 9b:31:28:4c:4e:3a:1c:d3:80:6b:dc:7e:f7:e8:96:27 curso884@cloud.cesga.es The key's randomart image is: +--[ DSA 1024] o X.. = +. S o o. =.. * E o o.o Leyendo clave publica: /home/cesga/cursos/curso884/.ssh/id_dsa.pub oneuser update curso884 -a /home/cesga/cursos/curso884/oneuser_template CONFIGURACION FINALIZADA En caso de errores contacte con sistemas@cesga.es 3. Para lanzar un cluster de hadoop basta con utilizar el comando hadoop-start [curso884@cloud ~]$ hadoop-start -s 3 mié may 27 17:39:22 CEST 2015 = Paso 1/3: Arrancando el cluster = Desplegando las maquinas en OpenNebula VM ID:
13 VM ID: VM ID: VM ID: Esperando a que arranquen los nodos 100% [========================================================================>] Arranque del cluster Finalizado. mié may 27 17:43:01 CEST 2015 = Paso 2/3: Obteniendo la lista de nodos = Lista de nodos obtenida. mié may 27 17:43:08 CEST 2015 = Paso 3/3: Configurando Hadoop = Esperando a que todos los slave esten configurados Configurando el master del cluster Configuracion finalizada!" Ya puede conectarse al nuevo cluster de hadoop a traves mediante ssh: ssh hadoop@ Tambien monitorizar el estado del cluster en las siguientes direcciones: JobTracker Web Interface: NameNode Web Interface: En caso de problemas no dude en contactar con el Dep. de Sistemas: sistemas@cesga.es Telefono: mié may 27 17:44:37 CEST Una vez arrancado podremos conectarnos a nuestro cluster hadoop utilizando el comando hadoop-connect y ya nos conectará automáticamente al nodo maestro de nuestro cluster: [curso884@cloud ~]$ hadoop-connect [hadoop@hadoop-master ~]$ 5. Podemos ver el estado del cluster usando el comando hadoop-status [curso884@cloud ~]$ hadoop-status ==> Hadoop cluster status Datanodes available: 3 (3 total, 0 dead) Tasktrackers available 3 ===> HDFS 13
14 Configured Capacity: (87.78 GB) Present Capacity: (85.65 GB) DFS Remaining: (85.65 GB) DFS Used: (120 KB) DFS Used%: 0% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: Datanodes available: 3 (3 total, 0 dead) Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:50 CEST 2015 Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:50 CEST 2015 Name: :50010 Decommission Status : Normal Configured Capacity: (29.26 GB) DFS Used: (40 KB) Non DFS Used: ( MB) DFS Remaining: (28.55 GB) DFS Used%: 0% DFS Remaining%: 97.58% Last contact: Wed May 27 18:08:47 CEST 2015 ===> Task trackers tracker_hadoop-3:localhost/ :50697 tracker_hadoop-1:localhost/ :48392 tracker_hadoop-2:localhost/ : Por motivos de seguridad, para poder acceder al interfaz web de monitorización del cluster primero tendremos que añadir una regla en el firewall del mismo que nos permita acceder desde nuestra IP. Por ejemplo, si nuestra IP es abriremos el acceso a la misma con el siguiente comando (lanzado directamente desde el frontal cloud): 14
15 ~]$ ssh iptables-add Fijarse en que la conexión SSH se lanzar desde el frontal cloud. Para ver qué IP tiene nuestro PC podemos verlo conectándonos a 7. Una vez abierto el firewall ya podremos acceder a las páginas de monitorización del cluster: JobTracker Web Interface: NameNode Web Interface: 8. Tenemos la opción de realizar personalizaciones adicionales en el cluster, como por ejemplo instalar nuevos paquetes, para ello disponemos de acceso como root desde el frontal de cloud: [curso884@cloud ~]$ ssh root@ Por ejemplo podríamos instalar el editor de textos nano si no estamos acostumbrados a utilizar el editor de textos por defecto del sistema (vi): [root@hadoop-master ~]# yum install nano 9. El comando hadoop-start nos ofrece opciones adicionales que pueden sernos útiles a la hora de crear clusters. Podemos ver la lista completa de comandos disponibles lanzando hadoop-start -h: [curso884@cloud ~]$ hadoop-start -h Usage: hadoop-start [-s SIZE] [-r dfs.replication] [-b <dfs.block.size>] [-t <mapred.reduce.tasks>] Start a Hadoop cluster options include: -s SIZE Number of slaves in the Hadoop cluster (default 3) -r dfs.replication Number of replicas of each file (default 3) -b dfs.block.size HDFS block size (default 16MB) -t mapred.reduce.tasks Number of reduce tasks (default 1) -c clusterid Cluster ID (only for use within REST service calls) -R REST API mode (only for use within REST service calls) -h Print help 10. Aunque el comando hadoop-status nos da de una forma sencilla toda la información de nuestro cluster, también podemos ver el estado de la máquina virtuales que forman nuestro cluster con los comandos estandard del servicio cloud: [curso884@cloud ~]$ onevm list ID USER GROUP NAME STAT UCPU UMEM HOST TIME curso884 users hadoop runn 1 2G nubacesga d 00h curso884 users hadoop
16 runn M nubacesga d 00h curso884 users hadoop runn M nubacesga d 00h curso884 users hadoop runn M nubacesga d 00h Para parar el custer se usa el comando hadoop-stop. Una vez lanzado este comando se borrarán todos los datos del cluster por lo que es recomandable copiar toda la información que queramos guardar antes de parar un cluster. 16
17 Práctica 4: HDFS En esta práctica veremos los comandos básicos de HDFS. 1. Tenemos que tener un cluster Hadoop arrancado, una vez esté operativo nos conectarnos al mismo: ~]$ hadoop-connect ~]$ 2. Por defecto en el HDFS de nuestro cluster disponemos de varios directorios que podemos utilizar para subir nuestros ficheros: nuestro HOME (/user/hadoop) y un directorio /scratch [hadoop@hadoop-master ~]$ hadoop fs -ls / Found 4 items drwxrwxrwx - hadoop supergroup :22 /hive drwxr-xr-x - hadoop supergroup :22 /scratch drwxrwxrwx - hadoop supergroup :22 /tmp drwxr-xr-x - hadoop supergroup :22 /user Por defecto si no se especifica una ruta absoluta para los archivos, Hadoop los buscará en nuestro HOME: /user/hadoop 3. Podemos crear un directorio adicional en nuestro HOME: [hadoop@hadoop-master ~]$ hadoop fs -mkdir test [hadoop@hadoop-master ~]$ hadoop fs -ls Found 1 items drwxr-xr-x - hadoop supergroup :18 /user/hadoop/test 4. O también en el directorio /scratch [hadoop@hadoop-master ~]$ hadoop fs -mkdir /scratch/test [hadoop@hadoop-master ~]$ hadoop fs -ls /scratch Found 2 items drwxr-xr-x - hadoop supergroup :44 /scratch/hadoop drwxr-xr-x - hadoop supergroup :19 /scratch/test 5. Para subir un fichero local al HDFS [hadoop@hadoop-master ~]$ hadoop fs -put /etc/redhat-release /scratch/test/redhat-release 6. Podemos ver los contenidos con un cat [hadoop@hadoop-master ~]$ hadoop fs -cat /scratch/test/redhat-release Scientific Linux release 6.5 (Carbon) Si el fichero es muy grande es mejor usar la opción -tail para leer sólo el el final del fichero: 17
18 ~]$ hadoop fs -tail /scratch/test/redhat-release Scientific Linux release 6.5 (Carbon) 7. Podemos ver el estado del HDFS conéctandonos a su interfaz web de monitorización, aunque deberemos haber abierto el acceso en el firewall como se mostraba en la práctica anterior: NameNode Web Interface: Ahí podremos ver el estado de los DataNodes y la ocupación del sistema de ficheros. La parte de navegación del sistema de ficheros no está disponible ya que requiere acceso directo a los nodos del cluster y estos utilizan direcciones IP privadas. 8. Hay más comandos de HDFS que pueden sernos útiles, podemos ver la lista completa de comandos disponibles lanzando hadoop fs sin ninguna opción: [hadoop@hadoop-master ~]$ hadoop fs Usage: java FsShell [-ls <path>] [-lsr <path>] [-du <path>] [-dus <path>] [-count[-q] <path>] [-mv <src> <dst>] [-cp <src> <dst>] [-rm [-skiptrash] <path>] [-rmr [-skiptrash] <path>] [-expunge] [-put <localsrc>... <dst>] [-copyfromlocal <localsrc>... <dst>] [-movefromlocal <localsrc>... <dst>] [-get [-ignorecrc] [-crc] <src> <localdst>] [-getmerge <src> <localdst> [addnl]] [-cat <src>] [-text <src>] [-copytolocal [-ignorecrc] [-crc] <src> <localdst>] [-movetolocal [-crc] <src> <localdst>] [-mkdir <path>] [-setrep [-R] [-w] <rep> <path/file>] [-touchz <path>] [-test -[ezd] <path>] [-stat [format] <path>] [-tail [-f] <file>] [-chmod [-R] <MODE[,MODE]... OCTALMODE> PATH...] [-chown [-R] [OWNER][:[GROUP]] PATH...] [-chgrp [-R] GROUP PATH...] [-help [cmd]] Generic options supported are -conf <configuration file> specify an application configuration file -D <property=value> use value for given property -fs <local namenode:port> specify a namenode -jt <local jobtracker:port> specify a job tracker -files <comma separated list of files> specify comma separated files to be copied to the map reduce cluster -libjars <comma separated list of jars> specify comma separated jar files to include in the classpath. -archives <comma separated list of archives> specify comma separated archives to be unarchived on the compute machines. 18
19 The general command line syntax is bin/hadoop command [genericoptions] [commandoptions] 19
20 Práctica 5: Lanzando nuestro primer trabajo MapReduce En esta práctica lanzaremos nuestro primer trabajo MapReduce usando uno de los trabajos de ejemplo que vienen con la propia distribución de Hadoop. Este trabajo se denomina wordcount y básicamente cuenta el número de ocurrencias de cada palabra de un fichero. En posteriores prácticas veremos más detalles de como funciona este programa MapReduce. 1. Lo primero descargaremos, descomprimiremos los ficheros necesarios para las prácticas y entraremos en el directorio practicas: [hadoop@hadoop-master ~]$ wget [hadoop@hadoop-master ~]$ tar xzvf practicas.tar.gz [hadoop@hadoop-master ~]$ cd practicas [hadoop@hadoop-master practicas]$ 2. Subiremos el fichero de entrada (wordcount/entrada.txt) al HDFS: [hadoop@hadoop-master practicas]$ cd wordcount/ [hadoop@hadoop-master wordcount]$ hadoop fs -mkdir input [hadoop@hadoop-master wordcount]$ hadoop fs -put entrada.txt input/ 3. Lanzaremos el trabajo MapReduce de ejemplo: [hadoop@hadoop-master wordcount]$ hadoop jar /opt/cesga/hadoop-1.2.1/hadoopexamples jar wordcount input output-1 15/05/27 18:44:51 INFO input.fileinputformat: Total input paths to process : 1 15/05/27 18:44:51 WARN snappy.loadsnappy: Snappy native library is available 15/05/27 18:44:51 INFO util.nativecodeloader: Loaded the native-hadoop library 15/05/27 18:44:51 INFO snappy.loadsnappy: Snappy native library loaded 15/05/27 18:44:52 INFO mapred.jobclient: Running job: job_ _ /05/27 18:44:53 INFO mapred.jobclient: map 0% reduce 0% 15/05/27 18:45:03 INFO mapred.jobclient: map 100% reduce 0% 15/05/27 18:45:12 INFO mapred.jobclient: map 100% reduce 33% 15/05/27 18:45:14 INFO mapred.jobclient: map 100% reduce 100% 15/05/27 18:45:17 INFO mapred.jobclient: Job complete: job_ _ /05/27 18:45:17 INFO mapred.jobclient: Counters: 29 15/05/27 18:45:17 INFO mapred.jobclient: Job Counters 15/05/27 18:45:17 INFO mapred.jobclient: Launched reduce tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: SLOTS_MILLIS_MAPS= /05/27 18:45:17 INFO mapred.jobclient: Total time spent by all reduces waiting after reserving slots (ms)=0 15/05/27 18:45:17 INFO mapred.jobclient: Total time spent by all maps waiting after reserving slots (ms)=0 15/05/27 18:45:17 INFO mapred.jobclient: Launched map tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: Data-local map tasks=1 15/05/27 18:45:17 INFO mapred.jobclient: SLOTS_MILLIS_REDUCES= /05/27 18:45:17 INFO mapred.jobclient: File Output Format Counters 15/05/27 18:45:17 INFO mapred.jobclient: Bytes Written= /05/27 18:45:17 INFO mapred.jobclient: FileSystemCounters 20
21 15/05/27 18:45:17 INFO mapred.jobclient: FILE_BYTES_READ= /05/27 18:45:17 INFO mapred.jobclient: HDFS_BYTES_READ= /05/27 18:45:17 INFO mapred.jobclient: FILE_BYTES_WRITTEN= /05/27 18:45:17 INFO mapred.jobclient: HDFS_BYTES_WRITTEN= /05/27 18:45:17 INFO mapred.jobclient: File Input Format Counters 15/05/27 18:45:17 INFO mapred.jobclient: Bytes Read= /05/27 18:45:17 INFO mapred.jobclient: Map-Reduce Framework 15/05/27 18:45:17 INFO mapred.jobclient: Map output materialized bytes= /05/27 18:45:17 INFO mapred.jobclient: Map input records=19 15/05/27 18:45:17 INFO mapred.jobclient: Reduce shuffle bytes= /05/27 18:45:17 INFO mapred.jobclient: Spilled Records=272 15/05/27 18:45:17 INFO mapred.jobclient: Map output bytes= /05/27 18:45:17 INFO mapred.jobclient: Total committed heap usage (bytes)= /05/27 18:45:17 INFO mapred.jobclient: CPU time spent (ms)= /05/27 18:45:17 INFO mapred.jobclient: Combine input records=189 15/05/27 18:45:17 INFO mapred.jobclient: SPLIT_RAW_BYTES=121 15/05/27 18:45:17 INFO mapred.jobclient: Reduce input records=136 15/05/27 18:45:17 INFO mapred.jobclient: Reduce input groups=136 15/05/27 18:45:17 INFO mapred.jobclient: Combine output records=136 15/05/27 18:45:17 INFO mapred.jobclient: Physical memory (bytes) snapshot= /05/27 18:45:17 INFO mapred.jobclient: Reduce output records=136 15/05/27 18:45:17 INFO mapred.jobclient: Virtual memory (bytes) snapshot= /05/27 18:45:17 INFO mapred.jobclient: Map output records= Veremos que se han creado varios ficheros dentro del directorio de salida output-1 que habíamos indicado: wordcount]$ hadoop fs -ls output-1 Found 3 items -rw-r--r-- 3 hadoop supergroup :45 /user/hadoop/output-1/_success drwxr-xr-x - hadoop supergroup :44 /user/hadoop/output-1/_logs -rw-r--r-- 3 hadoop supergroup :45 /user/hadoop/output-1/part-r La salida de nuestro trabajo está en el fichero part-r [hadoop@hadoop-master wordcount]$ hadoop fs -cat output-1/part-r Podemos ver información adicional sobre nuestro trabajo en el interfaz web del JobTracker: JobTracker Web Interface: 21
22 Práctica 6: Desarrollar un trabajo MapReduce usando Streaming API En esta práctica desarrollaremos un trabajo MapReduce básico que contará el número de ocurrencias de cada palabra de un documento. Este trabajo se suele denominar wordcount y es el equivalente al programa Hello Word en Hadoop. Los ficheros necesarios para esta práctica están en el directorio wordcount. 1. (No es necesario si ya hemos hecho la práctica anterior) Lo primero subiremos el fichero de entrada (wordcount/entrada.txt) al HDFS: hadoop fs -mkdir input hadoop fs -put entrada.txt input/ 2. Crearemos los scripts que van a actuar como Mapper y Reducer. Se ofrece una plantilla del mapper y reducer en Perl en el directorio wordcount/streaming_api/ con comentarios para ayudar a su implementación. No es necesario realizar la práctica en Perl, se puede usar también Python o incluso es posible instalar otro lenguaje en el cluster. Se ofrece una posible solución en el directorio wordcount/streaming_api/solucion. 3. Lanzaremos nuestro trabajo MapReduce hadoop jar /opt/cesga/hadoop-1.2.1/contrib/streaming/hadoop-streaming jar -input input -output output -mapper mapper.pl -reducer reducer.pl -file mapper.pl -file reducer.pl 5. Y revisaremos la salida hadoop fs -cat output/part-r-* 22
23 Práctica 7: Desarrollar un trabajo MapReduce en Java En esta práctica desarrollaremos el mismo trabajo wordcount que implementamos en la práctica anterior utilizando Streaming API, pero en esta ocasión usaremos la API nativa de Hadoop en Java. 1. Usaremos el mismo fichero de entrada que en la práctica anterior (wordcount/entrada.txt). Recordamos aquí los pasos necesarios para subir el fichero de entrada al HDFS: hadoop fs -mkdir input hadoop fs -put entrada.txt input/ 2. Implementaremos las funciones map y reduce. Se ofrece una plantilla wordcount/java. La plantilla incluye el driver completo (WordCount.java), el Mapper (WordMapper.java) y el Reducer (SumReducer.java). Sólo es necesario completar la función map que se define dentro del Mapper y la función reduce que se define dentro del Reducer. Se ofrece una posible solución en el directorio wordcount/java/solucion. 3. Compilar el código y generar un fichero jar javac -classpath `hadoop classpath` *.java jar cvf wordcount.jar *.class 4. Por último lanzaremos nuestro trabajo MapReduce hadoop jar wordcount.jar WordCount input output-java 5. Y revisaremos la salida hadoop fs -cat output-java/part-r-* 23
24 Práctica 8: Procesado de datos con Hive En esta práctica veremos como Hive nos permite acceder a ficheros del HDFS como si se tratase de tablas de una base de datos, con un lenguaje llamado HiveQL que es muy similar a SQL. 1. Lo primero descargaremos el dataset que utilizaremos para la práctica. Se trata de un dataset libre de recomendaciones de películas llamado MovieLens y que es distribuido por GroupLens. [hadoop@hadoop-master ~]$ wget 2. Descomprimir el dataset [hadoop@hadoop-master ~]$ tar xzvf movielens-100k.tar.gz 3. Subirlo al HDFS [hadoop@hadoop-master ~]$ cd movielens-100k [hadoop@hadoop-master movielens-100k]$ hadoop fs -mkdir movierating [hadoop@hadoop-master movielens-100k]$ hadoop fs -put u*.base movierating Comprobaremos que todos los ficheros han sido subidos: [hadoop@hadoop-master movielens-100k]$ hadoop fs -ls movierating Found 7 items -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u1.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u2.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u3.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u4.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/u5.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/ua.base -rw-r--r-- 3 hadoop supergroup :48 /user/hadoop/movierating/ub.base cd movielens-100k 4. Podemos ver como es el contenido de uno de los ficheros del dataset (todos contienen la misma información): [hadoop@hadoop-master movielens-100k]$ hadoop fs -tail /user/hadoop/movierating/u2.base tail
25 Básicamente cada fichero que hemos subido al HDFS contiene la siguiente información separada por tabulaciones: user id item id rating timestamp 5. Lanzamos Hive [hadoop@hadoop-master movielens-100k]$ hive Logging initialized using configuration in jar:file:/opt/cesga/apache-hive bin/lib/hive-common jar!/hive-log4j.properties hive> 6. Creamos un mapeo para los ficheros que hemos subido al directorio movierating hive> create external table movierating (userid INT, movieid INT, rating INT) row format delimited fields terminated by '\t' location '/user/hadoop/movierating'; 7. Y ahora ya podemos ejecutar consultas sobre esos ficheros como si todos los ficheros del directorio se tratasen de una sola tabla de una base de datos SQL: hive> select count(*) from movierating; Query ID = hadoop_ _6acd64cd-3f12-479f-b2e f Total jobs = 1 Launching Job 1 out of 1 Number of reduce tasks determined at compile time: 1 In order to change the average load for a reducer (in bytes): set hive.exec.reducers.bytes.per.reducer=<number> In order to limit the maximum number of reducers: set hive.exec.reducers.max=<number> In order to set a constant number of reducers: set mapred.reduce.tasks=<number> Starting Job = job_ _0001, Tracking URL = Kill Command = /opt/cesga/hadoop-1.2.1/libexec/../bin/hadoop job -kill job_ _0001 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: :16:46,840 Stage-1 map = 0%, reduce = 0% :16:53,875 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 2.71 sec :17:02,923 Stage-1 map = 100%, reduce = 33%, Cumulative CPU 2.71 sec :17:05,942 Stage-1 map = 100%, reduce = 100%, Cumulative CPU 5.16 sec MapReduce Total cumulative CPU time: 5 seconds 160 msec Ended Job = job_ _0001 MapReduce Jobs Launched: Stage-Stage-1: Map: 1 Reduce: 1 Cumulative CPU: 5.16 sec HDFS Read: HDFS Write: 7 SUCCESS Total MapReduce CPU Time Spent: 5 seconds 160 msec OK 25
26 Time taken: seconds, Fetched: 1 row(s) 8. También podemos poner restricciones en la consulta: hive> select * from movierating where userid=1 limit 5; OK Time taken: 0.12 seconds, Fetched: 5 row(s) 9. He incluso podemos crear nuevas tablas a partir de los resultados de una consulta: hive> create table newtable as select * from movierating where userid=1; Query ID = hadoop_ _3e348cf2-f5d e96-a709b704a47a Total jobs = 3 Launching Job 1 out of 3 Number of reduce tasks is set to 0 since there's no reduce operator Starting Job = job_ _0002, Tracking URL = Kill Command = /opt/cesga/hadoop-1.2.1/libexec/../bin/hadoop job -kill job_ _0002 Hadoop job information for Stage-1: number of mappers: 1; number of reducers: :22:33,991 Stage-1 map = 0%, reduce = 0% :22:41,018 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 3.0 sec :22:45,038 Stage-1 map = 100%, reduce = 100%, Cumulative CPU 3.0 sec MapReduce Total cumulative CPU time: 3 seconds 0 msec Ended Job = job_ _0002 Stage-4 is selected by condition resolver. Stage-3 is filtered out by condition resolver. Stage-5 is filtered out by condition resolver. Moving data to: hdfs://hadoop-master:54310/user/hive/warehouse/.hivestaging_hive_ _ _816_ /-ext Moving data to: hdfs://hadoop-master:54310/user/hive/warehouse/oneuser Table default.oneuser stats: [numfiles=1, numrows=1612, totalsize=12256, rawdatasize=10644] MapReduce Jobs Launched: Stage-Stage-1: Map: 1 Cumulative CPU: 3.0 sec HDFS Read: HDFS Write: SUCCESS Total MapReduce CPU Time Spent: 3 seconds 0 msec OK Time taken: seconds 10. Para terminar la sesión interactiva: hive> quit ; 26
27 Práctica 9: Machine learning con Mahout En esta práctica veremos como utilizar la librería de machine learning Mahout para obtener recomendaciones del películas. 1. (Si ya hemos completado la práctica anterior esta parte no es necesaria) Primero descargaremos los datos que utilizaremos y los subiremos al HDFS. [hadoop@hadoop-master ~]$ wget [hadoop@hadoop-master ~]$ tar xzvf movielens-100k.tar.gz [hadoop@hadoop-master ~]$ cd movielens-100k [hadoop@hadoop-master movielens-100k]$ hadoop fs -mkdir movierating [hadoop@hadoop-master movielens-100k]$ hadoop fs -put u*.base movierating Podemos ver como es el contenido de uno de los ficheros del dataset (todos contienen la misma información): [hadoop@hadoop-master movielens-100k]$ hadoop fs -tail /user/hadoop/movierating/u2.base tail Básicamente cada fichero que hemos subido al HDFS contiene la siguiente información separada por tabulaciones: user id item id rating timestamp 2. Crearemos una lista con los identificadores de los usuarios de los cuales queremos obtener las recomendaciones. Para ello crearemos un fichero en el disco local llamado users y dentro de ese fichero pondremos el siguiente contenido (asegurarse de no dejar ninguna línea en blanco al final del fichero): Subiremos el fichero al HDFS [hadoop@hadoop-master ~]$ hadoop fs -put users users 4. Por último ejecutaremos el recomendador de Mahout: 27
Comandos HDF Breve manual
Comandos HDF Breve manual Diego J. Bodas Sagi Julio de 2014 Índice Comandos Linux / Unix Comandos HDFS Ejemplos Resumen 2 Comandos interesantes para Data Science Tener soltura a la hora de interactuar
Más detalles# the. in the next command references the cloudera home directory # in hdfs, /user/cloudera
Una rápida introducción a HDFS y MapReduce Antes de iniciar a mover datos entre su base de datos relacional y Hadoop, usted necesita una rápida introducción a HDFS y a MapReduce. Hay muchos tutoriales
Más detallesManual de instalación y configuración de hadoop 1.0.3 en linux
Manual de instalación y configuración de hadoop 1.0.3 en linux Índice...2 Software utilizado...2 Requisitos...2 Java...2 Sistema Operativo...2 Crear grupo y usuario...2 Creación del grupo...2 Creación
Más detallesInstalación Hadoop. Guía para Debian y derivados
Instalación Hadoop Guía para Debian y derivados Índice Instalación Hadoop Hadoop Distributed File System a. NameNode b. DataNode. Requisitos Diferentes modos de configuración Instalación Java Instalación
Más detallesREQUISITOS DEL SISTEMA. Software Servidor. Cliente. Hardware Servidor. Cliente
MANUAL TECNICO INSTALACIÓN Y CONFIGURACIÓN DEL SISTEMA AARON A QUIEN VA DIRIGIDO El siguiente manual está dirigido al administrador encargado de la instalación y configuración del Sistema AARON. PRÓLOGO
Más detallesINSTALACIÓN DE MySQL SERVER EN WINDOWS
INSTALACIÓN DE MySQL SERVER EN WINDOWS Seguir los siguientes pasos: En primer lugar necesitaremos disponer del programa de instalación. Se puede descargar gratuitamente de http://dev.mysql.com/downloads
Más detallesModelo de Gobierno de Datos con SPARK
Página1 Configuración de la máquina maestra Para un sistema de Hadoop Para configurar una máquina como maestra en un cluster de Hadoop, es necesario modificar algunos archivos que se encuentran dentro
Más detallesAcceso a máquinas usando el SSH sin contraseña
Acceso a máquinas usando el SSH sin contraseña Sergio Talens-Oliag InfoCentre (http://www.infocentre.gva.es/) stalens@infocentre.gva.es En este documento se explica como acceder a servidores Unix utilizando
Más detallesPara poder instalar el producto, tendremos que obtener el instalador apropiado para nuestro entorno hardware y software.
Instalación de Oracle Service BUS (OSB) 1 DESCARGA DE INSTALADOR Para poder instalar el producto, tendremos que obtener el instalador apropiado para nuestro entorno hardware y software. En la siguiente
Más detallesActividad 1: Utilización cliente FTP (mediante línea de comandos, entornos gráficos y navegadores/exploradores) (I).
PRÁCTICAS SRI TEMA 5 (SERVIDOR FTP) Actividad 1: Utilización cliente FTP (mediante línea de comandos, entornos gráficos y navegadores/exploradores) (I). 1. Iniciamos sesión con un usuario nombre (miguel)
Más detallesInstalación de FileZilla FTP Server
Instalación de FileZilla FTP Server [Ir a Página principal] El proceso de instalación es muy sencillo, solamente en algunos pasos tendremos que realizar acciones como elegir el tipo de instalación o de
Más detallesServidor web E-Sniper
Servidor web E-Sniper Tabla de contenido Instalación del servidor IIS... 1 Instalación de la aplicación... 3 Crear el Website... 4 Comprobar la aplicación... 5 Configurar la base de datos... 6 SQLServer...
Más detallesvirtual appliance guía de inicio rápido
vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 11.10 64-bit y hosts
Más detallesPráctica 1: Herramientas básicas:
Práctica 1: Herramientas básicas: En esta práctica veremos las siguientes herramientas: Conexión a Terminal remoto Conexión a escritorio remoto Otras herramientas Duración: 1 sesión de 2 5 horas Conexión
Más detallesFicheros de configuración de Nagios (ejemplo con nrpe y snmp)
How-to sobre Nagios Realizado por Eugenio Fuentefría Oróns Índice. Qué es Nagios? Funcionalidades de Nagios Equipos usados para las pruebas Instalación de Nagios. Uso de Nagios Modos de extraer información
Más detallesManual de NetBeans y XAMPP
Three Headed Monkey Manual de NetBeans y XAMPP Versión 1.0 Guillermo Montoro Delgado Raúl Nadal Burgos Juan María Ruiz Tinas Lunes, 22 de marzo de 2010 Contenido NetBeans... 2 Qué es NetBeans?... 2 Instalación
Más detallesManual De Instalación MySQl 5.1 MANUAL DE INSTALACIÓN Y CONFIGURACIÓN DE MYSQL 5.1.40
MANUAL DE INSTALACIÓN Y CONFIGURACIÓN DE MYSQL 5.1.40 Página 1 de 15 1.- Ejecutamos el fichero mysql-essential-5.1.40-win32. Espera unos minutos mientras se cargan los archivos necesarios para la instalación
Más detallesvirtual appliance guía de inicio rápido
vybuddy virtual appliance guía de inicio rápido Para VMware Workstation 8 (64-bit) En la guía se usa VMware Workstation 8 (64 bits) para Linux, una VM desarrollada con Ubuntu server 12.04 64-bit y hosts
Más detallesInstalación y configuración del servidor FTP Filezilla en Windows 2003 Server. Vicente Sánchez Patón I.E.S Gregorio Prieto.
Tema 5 SRI Instalación y configuración del servidor FTP Filezilla en Windows 2003 Server Vicente Sánchez Patón I.E.S Gregorio Prieto Tema 5 SRI Lo primero será descargarse el filezilla sever, desde su
Más detallesDescarga, instalación y uso de herramientas:
Descarga, instalación y uso de herramientas: Eclipse: Instalación de Eclipse (Más información en http://www.eclipse.org/) 1. Copiar, descomprimir e instalar si es necesario la última versión de Eclipse
Más detallesINSTALACIÓN FIREWALL IPCOP
Contenido 1. IpCop... 2 2. Requisitos... 2 3. Descarga... 2 4. Instalación... 3 5. Configuración... 8 5.1 VPN (RED GREEN)... 10 5.2 Tarjeta de red ROJA... 11 5.3 DNS y puerta de enlace... 12 5.4 Servidor
Más detallesUso básico de la terminal
Uso básico de la terminal Comandos básicos El CLI más utilizado en Linux se llama GNU/Bash (o solo Bash --Bourne Again Shell) algunas variables y comandos que son de utilidad son:. ruta actual ~ home del
Más detallesUNIDAD DIDACTICA 15 CONVERTIR UN EQUIPO LINUX SERVER EN CONTROLADOR DE DOMINIO
UNIDAD DIDACTICA 15 CONVERTIR UN EQUIPO LINUX SERVER EN CONTROLADOR DE DOMINIO Eduard Lara 1 1. CONVERTIR UN LINUX SERVER EN CONTROLADOR DE DOMINIO En Linux Server, a diferencia de Windows Server, no existe
Más detallesINSTALACIÓN DE UBUNTU SERVER 12.4 EN MÁQUINA VIRTUAL
INSTALACIÓN DE UBUNTU SERVER 12.4 EN MÁQUINA VIRTUAL Grupo de Innovación y Apropiación de Tecnologías de la Información Archivística Compilador: Pedro Antonio Gómez Guarín 1 INSTALACIÓN DE UBUNTU SERVER
Más detallesINSTALACION Y CONFIGURACION DE SQL SERVER MANAGEMENT (EXPRESS) 2008
INSTALACION Y CONFIGURACION DE SQL SERVER MANAGEMENT (EXPRESS) 2008 Requisitos de HW Virtualización SQL Server se admite en entornos de máquina virtual que se ejecutan en el rol de: Windows Server 2008
Más detallesUso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin
Uso del servidor gráfico X en los servidores del CESGA mediante PuTTY y Cygwin Contenido Introducción... 2 Obtención e instalación del software necesario... 2 Configuración de PuTTY para su uso con Cygwin...
Más detalleslabs Linux para Administradores de Elastix Elastix Certification ELASTIX CERTIFICATION
Linux para Administradores de Elastix Elastix Certification 2012, PALOSANTO SOLUTIONS todos los derechos reservados. Esta documentación y su propiedad intelectual pertenece a PaloSanto Solutions. Cualquier
Más detallesCTSQL Monitor Unix. En este documento se describe el proceso de instalación y configuración básica para monitorizar. BASE 100, S.A. www.base100.
En este documento se describe el proceso de instalación y configuración básica para monitorizar sesiones CTSQL en máquinas Unix. BASE 100, S.A. www.base100.com Índice 1. INTRODUCCIÓN... 3 2. FICHERO DE
Más detallesCOMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX
COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX En este manual se presenta el proceso de configuración de una Maquina Virtual en VirtualBox, que será utilizada para instalar un Servidor
Más detallesUNIDESYS UNIVERSAL BUSINESS SYSTEMS INSTALACIÓN NUEVO PUESTO DE TRABAJO
www.ubs-systems.com Teléfono: 91 3681185 UNIDESYS UNIVERSAL BUSINESS SYSTEMS INSTALACIÓN NUEVO PUESTO DE TRABAJO Unidesys Versión 2011 1 CONTENIDO 1 INTRODUCCIÓN 3 2 FUENTES DE DATOS 4 3 INSTALACIÓN DEL
Más detallesGIT Dinahosting 3. Hola!
GIT Manual de uso GIT Dinahosting 2 Contenidos Sobre Git...3 Software...3 Cómo conectarse?...3 Volcar un repositorio remoto...4 Manejar el repositorio...5 Trabajando con ramificaciones...6 Fusionando ramificaciones...6
Más detallesInstalación de Tomcat7 en Ubuntu
2. Instala el servidor web java TomCat en Windows y Linux. Documenta los módulos/servicios necesarios. Instala el CMS Java Liferay. Documenta el proceso. Instalación de Tomcat7 en Ubuntu Comenzamos instalando
Más detallesGuia rápida EPlus Cliente-Servidor
Guia rápida EPlus Cliente-Servidor Esta guía permitirá al usuario instalar la aplicación e-plus, para firmar y declarar sus trámites a través de acceso remoto. CONSIDERACIONES GENERALES.- El software eplus
Más detallesCONFIGURACIÓN DEL SERVIDOR
CONFIGURACIÓN DEL SERVIDOR Una vez finalizadas las configuraciones iniciales de las interfaces y direcciones IPs, desde cualquier equipo de la red abrimos el navegador e introducimos la dirección IP del
Más detallesManual de instalación Actualizador masivo de Stocks y Precios
Manual de instalación Actualizador masivo de Stocks y Precios Instrucciones para la instalación de Actualizado masivo de Stocks y Precios Módulo para Prestashop desarrollado por OBSolutions Módulo para
Más detallesIntegración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse
Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.
Más detallesUNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA
UNIDAD DIDACTICA 13 INICIAR SESIÓN EN LINUX DE FORMA REMOTA Eduard Lara 1 1. INICIO SESIÓN EN LINUX Inicio en modo local Se enciende el equipo y se introduce el nombre de usuario local y su contraseña,
Más detalles- A continuación, se nos abrirá la siguiente ventana pidiendo contraseña, que el cliente haya especificado al instalar Wingest 7
Copia de seguridad en Wingest 7 desde WgAdmin Los pasos a seguir serán los siguientes: - Todos los usuarios de la aplicación deberán estar fuera de ella. - Deberemos entrar en nuestra carpeta de Wingest
Más detallesShell de Unix ProgPLN
Shell de Unix ProgPLN Víctor Peinado v.peinado@filol.ucm.es 9 de octubre de 2014 Never use the graphical tool; always learn the old Unix tool. You ll be far more effective over time and your data will
Más detallesProblemas comunes en la integración del módulo V.me by Visa en Prestashop
Problemas comunes en la integración del módulo V.me by Visa en Prestashop Índice' 1.! NO%SE%MUESTRA%EL%MÉTODO%DE%PAGO%...%3! 1.1% LIMPIEZA!Y!DESACTIVACIÓN!DE!LA!CACHÉ!...!3% 1.1.1#Desactivar#/#Borrar#caché#Prestashop#1.4#...#3#
Más detallesServicio de Informática Vicerrectorado de Tecnologías de la Información y la Comunicación
Vicerrectorado de Tecnologías de la Información y la Comunicación Conexión mediante Escritorio Remoto de Windows Última Actualización 16 de septiembre de 2013 Histórico de cambios Fecha Descripción Autor
Más detalles30 de Mayo de 2008. www.sigrid.es
Guia de Instalación del servidor SgdWMS 30 de Mayo de 2008 www.sigrid.es 2 Índice 1.- INTRODUCCIÓN... 3 2.- INSTALACIÓN DE INTERNET INFORMATION SERVER (IIS)... 3 3.- INSTALACIÓN DEL SERVIDOR SGDWMS EN
Más detallesResumen. DESlock+ Guía Básica de Configuración. Requerimientos del Sistema:
DESlock+ Guía Básica de Configuración Resumen DESlock+ Enterprise server incluye varias soluciones de encriptación que pueden distribuirse a cada equipo a través de la consola Enterprise Server + DESlock.
Más detallesINSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS
INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS Toda la instalación se lo va a realizar en el directorio opt, la instalación correspondiente al jdk se lo hace así.
Más detallesInstalación de Casandra Para instalar cassandra se recomienda tener la última versión de JAVA instalada.
Bases de Datos Avanzadas GUIA PARA CASSANDRA En esta guía se explicara como instalar cassandra, como agregar datos a cassandra usando spoon, y como corregir algunos problemas que puede aparecer. Para esta
Más detallesINTRODUCCIÓN A APACHE SPARK CON PYTHON
Ls INTRODUCCIÓN A APACHE SPARK CON PYTHON Introducción a Apache Spark Jortilles.com info@jortilles.com Índice de contenido 1.Descripción...3 2.Cual es su ventaja competitiva...3 3.Instalación...3 4.Conceptos
Más detallesCloud Builder Ejercicio práctico
Cloud Builder Ejercicio práctico Raúl Martínez Zabala IaaS + PaaS Product Manager Qué vamos a hacer? Visto desde fuera: Un Blog Visto desde dentro... Nosotros frontal web Internet Backend MySQL CloudBuilder
Más detallesReparar diagramas FUP o MMI con errores de código desde un Backup anterior.
Reparar diagramas FUP o MMI con errores de código desde un Backup anterior. Debemos realizar un backup previo de todos los diagramas FUP y MMI de la ES para poder reponer el diagrama corrupto en el momento
Más detallesDPM Storage calculator
------------------------------------------------------------------------------------------------------------------------------------------------------------------ ------------------------------------------------------------------------------------------------------------------------------------------------------------------
Más detallesGUÍA PARA LA INSTALACIÓN DE MOODLE EN UN COMPUTADOR PERSONAL QUE USA EL SISTEMA OPERATIVO MS. WINDOWS
GUÍA PARA LA INSTALACIÓN DE MOODLE EN UN COMPUTADOR PERSONAL QUE USA EL SISTEMA OPERATIVO MS. WINDOWS Objetivo: El propósito de esta guía es indicarle como configurar un entorno moodle de prácticas en
Más detallesIntegración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse
Integración de Toolchain PTXdist sobre IDE gráfico basado en Eclipse Objetivos Integrar un toolchain basado en PTXdist sobre un IDE gráfico basado en Eclipse. Creación y compilación de un pequeño proyecto.
Más detallesINSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4
Grupo de Innovación y Apropiación de Tecnologías de la Información Archivística Compilador: Pedro Antonio Gómez Guarín INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4 INSTRUCTIVO DE INSTALACIÓN DE OMEKA 2.1.4
Más detallesTUTORIAL DE INSTALACIÓN Y CONFIGURACIÓN DE NETBEANS
TUTORIAL DE INSTALACIÓN Y CONFIGURACIÓN DE NETBEANS Apartado A: Descarga desde la web oficial de Oracle, Java SE e instálalo en tu equipo. Vamos a la página web de Oracle, y seleccionamos en productos
Más detallesINSTALACIÓ N A3ERP. Informática para empresas INTRODUCCIÓN CONSIDERACIONES GENERALES DE LA INSTALACIÓN PAQUETES DE INSTALACIÓN PREDEFINIDOS
Página 1 de 20 INSTALACIÓ N A3ERP INTRODUCCIÓN La instalación de a3erp v9 ha sufrido una trasformación importante respecto a sus versiones anteriores. Cualquier instalación exige la existencia de un pc
Más detallesINSTALACIÓN DE GITLAB
INSTALACIÓN DE GITLAB ÍNDICE INSTALACIÓN GITLAB... 3 CREAR USUARIOS... 5 CREAR PROYECTO... 7 INSTALACIÓN CLIENTE GIT... 9 1 Para tener una especie de Github o Bitbucket personal, podemos hacer uso de la
Más detallesCómo instalar fácilmente tu WordPress tras contratar un hosting en Hostalia
Cómo instalar fácilmente tu WordPress tras contratar un hosting en Hostalia Cardenal Gardoki, 1 48008 BILBAO (Vizcaya) Teléfono: 902 012 199 www.hostalia.com La puesta en marcha de WordPress es muy sencilla,
Más detallesKosmo Desktop Manual de desarrollo Instalación y configuración del código fuente de Kosmo en Eclipse
Kosmo Desktop Manual de desarrollo Instalación y configuración del código fuente de Kosmo en Eclipse Versión 3.0 02/12/2010 2 3 1 Control de versiones VERSIÓN AUTOR FECHA CAMBIO 1.0 SAIG, S.L. 22/03/2007
Más detallesServidor. Comenzaremos por confirmar que el servicio NFS esta instalado y ejecutandose desde la terminal, escribiremos lo siguiente: #rpm -q nfs-utils
NFS Red Hat Enterprise Linux 6 provee dos mecanismos para compartir archivos y carpetas con otros sistemas operativos por medio de la red. Una de las opciones es utilizar una tecnologia llamada samba.
Más detallesManual de Instalación del sistema administrativo PremiumSoft Extended 7
1 P á g i n a M a n u a l d e I n s t a l a c i ó n d e l s i s t e m a a d m i n i s t r a t i v o Manual de Instalación del sistema administrativo PremiumSoft Extended 7 X Realizado por: Enrique Tancredi
Más detallesComprender un poco más de los que es Apache Pig y Hadoop. El tutorial de cerdo muestra cómo ejecutar dos scripts de cerdo en modo local y el
APACHE PIG CONTENIDO 1. Introducción 3 1.1. Apache Pig 3 1.2. Propiedades 4 1.3. Requisitos para Apache Pig 4 1.4. Instalación de Hadoop 5 1.5. Instalación de java 5 1.6. Instalación de Pig 6 1.7. Ejecución
Más detallesGuía de instalación del servidor
Guía de instalación del servidor Autores: Versión: 1.0 Jesús Manuel Rodríguez Sánchez Miguel Ángel Lorente López Fecha: 22/01/2009 Tabla de contenido Manual de Instalación del Servidor 4 Paso 1) Instalar
Más detallesWUS (WINDOWS UPDATE SERVICE)
1 de 13 01/12/2007 1:24 WUS (WINDOWS UPDATE SERVICE) WUS, WUS es un sistema gratuito de microsoft para mantener con las útimas actualizaciones a todos los puestos de nuestra red. Se instala el servicio
Más detallesPROYECTO INTEGRADO CLUSTER DE ALTA DISPONIBILIDAD CON HAPROXY Y KEEPALIVED. Antonio Madrena Lucenilla 21 de Diciembre de 2012 I.E.S.
PROYECTO INTEGRADO CLUSTER DE ALTA DISPONIBILIDAD CON HAPROXY Y KEEPALIVED Obra bajo licencia Creative Commons Antonio Madrena Lucenilla 21 de Diciembre de 2012 I.E.S. Gonzalo Nazareno INDICE DE CONTENIDO
Más detallesServidor FTP en Ubuntu Juan Antonio Fañas
Qué es FTP? FTP (File Transfer Protocol) o Protocolo de Transferencia de Archivos (o ficheros informáticos) es uno de los protocolos estándar más utilizados en Internet siendo el más idóneo para la transferencia
Más detalles10. El entorno de publicación web (Publiweb)
10. El entorno de publicación web (Publiweb) 10.1. Introducción El entorno de publicación Web es una herramienta que permite la gestión de nuestras páginas Web de una forma visual. Algunos ejemplos de
Más detallesInstituto Tecnológico de Las América. Materia Sistemas operativos III. Temas. Facilitador José Doñe. Sustentante Robín Bienvenido Disla Ramirez
Instituto Tecnológico de Las América Materia Sistemas operativos III Temas Servidor Web Apache Facilitador José Doñe Sustentante Robín Bienvenido Disla Ramirez Matricula 2011-2505 Grupo 1 Servidor Web
Más detallesCopias de seguridad con SQL Server 2005 WhitePaper Febrero de 2008
Copias de seguridad con SQL Server 2005 WhitePaper Febrero de 2008 Contenidos 1. Propósito 3 2. Realizar una copia de seguridad con SQL Server 2005 4 3. Restaurar una copia de seguridad con SQL Server
Más detallesWindows Embedded Standard 7
Windows Embedded Standard 7 Objetivos Instalar el Sistema Operativo Windows Embedded Standard 7 sobre la placa de evaluación de Congatec. Requisitos PC de desarrollo con Windows 7. Entorno de desarrollo
Más detallesANEXO III. Creación de plantillas e imagenes en CloudStack y subida de ficheros vhd e iso.
ANEXO III. Creación de plantillas e imagenes en CloudStack y subida de ficheros vhd e iso. En este anexo se explica el procedimiento para crear plantillas con CloudStack así como la forma de subir los
Más detallesActualización Aranda VIRTUAL SUPPORT (AVS) 7.1 a 7.2
Actualización Aranda VIRTUAL SUPPORT (AVS) 7.1 a 7.2 Proyecto: Aranda VIRTUAL SUPPORT 7.2 Responsable del documento: María Camila Gómez Silva Project Manager maria.gomez@arandasoft.com Versión 1.0 Estado
Más detallesINTRANET: MANUAL DE INSTALACIÓN
INTRANET: MANUAL DE INSTALACIÓN 1 de 15 INDICE 1 Requisitos mínimos... 3 2 Instalación... 4 2.1 Instalación de los ficheros de la Intranet... 4 2.2 Registro de las librerías... 4 2.3 Configuración del
Más detallesCONFIGURACIÓN DE SOFTPHONES
CONFIGURACIÓN DE SOFTPHONES Ahora podemos disfrutar del servicio Newcall también en nuestro móvil/tablet o PC. Solo necesitamos tener acceso a Internet a través de Wi-Fi o por 3G / 4G. A continuación se
Más detallesCompartiendo conocimiento... Guía básica de instalación de Asterisk 11 en Centos6.5
Compartiendo conocimiento... Guía básica de instalación de Asterisk 11 en Centos6.5 (c) 2014 Xavier Jiménez Índice de contenido Introducción y propósito del documento...1 Instalación de CentOS...1 Instalación
Más detallesCITRIX 4.5 - Citrix Application Streaming
1 de 39 01/12/2007 1:06 CITRIX 4.5 - Citrix Application Streaming Es la caracteristica principal de la versión 4.5 de Citrix, el Application Streaming, en este documento se explica cómo usarlo. Application
Más detallesInstrucciones para el despliegue de EJBs
Apuntes de J2EE Instrucciones para el despliegue de EJBs Uploaded by Ingteleco http://ingteleco.webcindario.com ingtelecoweb@hotmail.com La dirección URL puede sufrir modificaciones en el futuro. Si no
Más detallesPresentación. Nombre: Marcel Yerobis Pérez de la cruz Matricula: 2013-1670 Trabajo: Profesor: José Doñe. Asignatura: Sistema 3.
Presentación Nombre: Marcel Yerobis Pérez de la cruz Matricula: 2013-1670 Trabajo: FTP server Profesor: José Doñe Asignatura: Sistema 3 Lo primero que debemos de hacer es descargar el servicio de ftp hay
Más detallesAVD, el emulador de Smartphone y Tablets Android que incluye el SDK de Google
AVD, el emulador de Smartphone y Tablets Android que incluye el SDK de Google Para probar nuestras aplicaciones Google nos proporciona un emulador de dispositivos conocido como AVD (Android Virtual Devices).
Más detallesSeguidamente se muestra una pantalla para seleccionar nuestra localización, y comprobamos que la hora y demás es correcto. Podemos hacerlo fácilmente
A continuación se presentarán los diferentes pasos a seguir para la instalación de la distribución de linux Ubuntu 6.06 en su versión Desktop, usando para esto el nuevo instalador gráfico incluido en la
Más detallesTutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows
Tutorial: Cómo realizar tu primer programa en C++ En el Sistema Operativo Windows Lo primero que hay que tener en cuenta para poder hacer nuestro primer programa en C++ es que necesitamos ciertas herramientas
Más detallesFREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral
FREEDOS 1.0. CURSO DE TÉCNICO EN SEGURIDAD DE REDES Y SISTEMAS José María Torres Corral 2011 m a r t e s, 0 8 d e m a r z o d e 2 0 1 1 1 Tabla de contenido 2... Requisitos para la instalación... 2 3...
Más detallesManual de usuario de IBAI BackupRemoto
Manual de usuario de IBAI BackupRemoto Índice Cliente de IBAI BackupRemoto... 3 Descarga del cliente de IBAI BackupRemoto... 4 Instalación del cliente de IBAI BackupRemoto... 5 Instalación sobre Microsoft
Más detallesAquí tenemos que seleccionar el lenguaje que queremos usar mediante la instalación.
Instalación de Elastix Seleccionando el lenguaje Aquí tenemos que seleccionar el lenguaje que queremos usar mediante la instalación. Selección del idioma del teclado Seleccionamos el idioma que queramos
Más detallesGuía para publicar su equipo en Internet.
Antes de comenzar Guía para publicar su equipo en Internet. Para configurar su equipo y poder publicar sus cámaras en Internet, primeramente es necesario haber abierto los puertos de video y web, que por
Más detallesManual de usuario de Windows Live Writer
Manual de usuario de Windows Live Writer Índice 0.- Introducción. 3 1.- Descarga e Instalación. 4 2.- Conexión a un blog. 7 3.- Interfaz de Windows Live Writer. 12 4.- Creación de un Post. 13 5.- Creación
Más detallesInstalación de un servidor con HldsUpdateTool
Dio Joestar Instalación de un servidor con HldsUpdateTool Tutorial donde aprender cómo usar la herramienta HldsUpdateTool para crear un servidor dedicado, en este caso, para Counter-Strike: Source Juego
Más detallesSoporte Técnico Prof. Héctor Herrera. Instalando Fedora 17 en la misma máquina virtual.
Instalando Fedora 17 en la misma máquina virtual. Vamos a instalar Linux Fedora 17 para tener dos sistemas operativos en la misma máquina virtual. Existe por cada Linux un DVD y un CD de instalación, en
Más detallesRoberto Díaz Morales rdiazm@tsc.uc3m.es MLG 24/06/2013
Roberto Díaz Morales rdiazm@tsc.uc3m.es MLG 24/06/2013 Indice Amazon AWS Servicios Capa gratuita Amazon S3 Amazon Elastic MapReduce Amazon Elastic Compute Cloud Amazon EBS Amazon AWS Amazon Web Services
Más detallesActivación de un Escritorio Remoto
Activación de un Escritorio Remoto La activación de un Escritorio Remoto se realiza en dos fases, en la primera se habilita a un Usuario de un ordenador para que pueda admitir una conexión remota, la segunda
Más detallesCENTRAL VIRTUAL IPLAN INSTRUCTIVO DE CONFIGURACIÓN X-LITE 5 (WINDOWS)
CENTRAL VIRTUAL IPLAN INSTRUCTIVO DE CONFIGURACIÓN X-LITE 5 (WINDOWS) 1. INSTALACIÓN DEL SOFTPHONE X-LITE En el presente instructivo te mostraremos la Instalación y Configuración del Softphone X-Lite 5,
Más detallesTarea 1 Programación José Luis Comesaña
Para la descarga de Java he optado por dirigirme a su propietario ORACLE para iniciar la grabación desde su página oficial: http://www.oracle.com/es/index.html donde seleccionamos Java 2 en el apartado
Más detallesINSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS
INSTALACION DE UN SERVIDOR PENTAHO 5.2 CON POSTGRESQL 9.1 EN LINUX CENTOS 6.6 de 32 BITS Toda la instalación se lo va a realizar en el directorio opt, la instalación correspondiente al jdk se lo hace así.
Más detallesESCUELA DE INGENIERIA EN COMPUTACION REDES INFORMATICAS SISTEMAS OPERATIVOS DE RED II
ESCUELA DE INGENIERIA EN COMPUTACION REDES INFORMATICAS SISTEMAS OPERATIVOS DE RED II PRACTICA 4: CONFIGURACION DE SAMBA P2P. INTRODUCCION. Samba es una suite de aplicaciones Unix que entiende el protocolo
Más detallesSERVICIO NACIONAL DE ADUANA DEL ECUADOR INSTRUCTIVO PARA DESCARGAR E INSTALAR EL AGENTE AVS PARA EL CHAT Y CONTROL REMOTO FEBRERO 2012
SERVICIO NACIONAL DE ADUANA DEL ECUADOR INSTRUCTIVO PARA DESCARGAR E INSTALAR EL AGENTE AVS PARA EL CHAT Y CONTROL REMOTO FEBRERO 2012 1 ÍNDICE 1. OBJETIVO... 3 2. ALCANCE... 3 3. RESPONSABILIDAD... 3
Más detallesCreación de imágenes. Pablo Sanz Mercado.
Creación de imágenes. Pablo Sanz Mercado. 1 Cuando hemos instalado un equipo, el tiempo que hemos invertido puede ser realmente elevado, pues no sólo está el tiempo de instalación del mismo, sino además
Más detallesSONARQUBE. Sandoval Lucas, Leutwyler Nicolás 1er cuatrimestre 2015
SONARQUBE Sandoval Lucas, Leutwyler Nicolás 1er cuatrimestre 2015 1. Introduccíon 1.1. Descripción del proyecto El proyecto abarca la idea de ofrecer un servicio de análisis de código que permita analizar
Más detallesREDES DE ÁREA LOCAL. APLICACIONES Y SERVICIOS EN WINDOWS
REDES DE ÁREA LOCAL. APLICACIONES Y SERVICIOS EN WINDOWS Escritorio remoto - 1 - Escritorio Remoto...- 3 - Definición de Escritorio Remoto... - 3 - Habilitar Escritorio Remoto... - 4 - Instalación del
Más detallesGuía de uso del Cloud Datacenter de acens
guíasdeuso Guía de uso del Cloud Datacenter de Calle San Rafael, 14 28108 Alcobendas (Madrid) 902 90 10 20 www..com Introducción Un Data Center o centro de datos físico es un espacio utilizado para alojar
Más detalles