Algoritmos de Computación Paralela aplicados al Aprendizaje de Máquina: una revisión del estado del arte

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Algoritmos de Computación Paralela aplicados al Aprendizaje de Máquina: una revisión del estado del arte"

Transcripción

1 ESTADO DEL ARTE VERSION FINAL 1 Algoritmos de Computación Paralela aplicados al Aprendizaje de Máquina: una revisión del estado del arte Raul E. Torres, Estudiante de la Maestría en Ingeniería de Sistemas y Computación, Universidad Nacional de Colombia Abstract The application of parallel computing to machine learning techniques is a relatively young and wide field of research. We present in this paper a state of the art survey, identifying the associate concepts and related work in the domain, that shows, in contrast to monolithic learners, a significant increase in execution speed of the algorithms and in the capacity to handle big data sets. Finally we conclude that the parallel approach highly improves Machine learning techniques. Index terms distributed learning, machine learning, metalearning, parallel computing Resumen La computación paralela aplicada a las técnicas de aprendizaje de máquina es relativamente un área joven y con un campo amplio, susceptible de investigación. Se presenta en este artículo el estado del arte, identificando los conceptos asociados al tema y los trabajos realizados, que muestran, en comparación con aprendices monolíticos, un aumento significativo en la velocidad de ejecución de los algoritmos y en la capacidad de manejar grandes conjuntos de datos. Se concluye que el enfoque paralelo mejora en gran medida las técnicas de Aprendizaje maquinal. Palabras clave aprendizaje de máquina, aprendizaje distribuido, computación paralela, meta-aprendizaje INDICE I. Introducción.. 1 II. Paralelismo y aprendizaje de máquina A. Motivación...2 B. Marco Teórico..2 C. El problema del aprendizaje de máquina paralelo..5 III. Aproximación a los trabajos realizados en el área 5 IV. Aplicaciones de computación paralela en aprendizaje... maquinal. 7 A. NCV.7 B. Weka-Parallel...7 C. Hardware autoconfigurable. 7 Este trabajo fue creado como parte del Seminario de Investigación I de la Maestría en Ingeniería de Sistemas y Computación de la Universidad Nacional de Colombia, en diciembre de Raul Ernesto Torres es Ingeniero de Sistemas de la Universidad de Nariño y actualmente trabaja en el Departamento de Sistemas de Riesgo de Fractura S.A ( D. Hadoop. 8 E. Aplicaciones en Grid Computing. 8 V. Presente y futuro.8 VI. Conclusiones 8 Apéndice...9 Referencias.10 S I. INTRODUCCIÓN egún [22], ante la complejidad de los algoritmos de aprendizaje de máquina y la gran cantidad de datos que manejan, se hace necesario aprovechar la propiedades de robustez, tolerancia a fallos, escalabilidad y velocidad de ejecución que ofrece la computación en paralelo, disponible gracias al rápido desarrollo en hardware de los últimos años: altas velocidades de las redes de datos, máquinas con procesadores múltiples y procesadores con múltiples núcleos, para citar algunos ejemplos; para tal efecto se deben identificar las diferentes clasificaciones que se dan en el paralelismo y más específicamente aquellas aproximaciones que se ajustan a las propiedades de concurrencia en los algoritmos de Aprendizaje de Máquina. La figura 1 muestra el mapa conceptual de este estado del arte; en la sección II se desarrollan conceptos como los tipos y clasificaciones del paralelismo, así como también las plataformas de programación más utilizadas y los objetivos de estas estrategias. En la sección III y IV se profundiza en los estudios realizados en cada tipo de aprendizaje y sus aplicaciones. Finalmente en la sección V se proyecta el trabajo futuro que se puede desarrollar en el área y en la VI se emiten las conclusiones obtenidas. Para una mayor comprensión de las relaciones entre los conceptos se incluye en el apéndice un diagrama más detallado del mapa conceptual. II. PARALELISMO Y APRENDIZAJE DE MÁQUINA Antes de abordar los trabajos realizados en este dominio de las ciencias de la computación, es indispensable hacer un recorrido por los conceptos que se han construido a su alrededor, lo que permitirá al lector obtener una mejor comprensión de la necesidad imperante de desarrollar algoritmos de aprendizaje de máquina en paralelo.

2 ESTADO DEL ARTE VERSION FINAL 2 A. Motivación Se puede afirmar que para poder asegurar una mayor precisión en las predicciones de los algoritmos de aprendizaje es necesario que se escale el conjunto de datos. Por ejemplo, Provost et al. [15] definen las disyunciones pequeñas (small disjuncts) como reglas correspondientes a casos especiales que no es posible encontrar cuando el tamaño de la muestra es pequeña; si se incrementa el tamaño del conjunto de datos se aumenta el tiempo de ejecución del algoritmo, por lo que la computación paralela entra en juego para obtener mayores velocidades en comparación con el modelo secuencial clásico. B. Marco Teórico continuación. Dichos conceptos han sido aplicados independiente o conjuntamente en los estudios que se relacionan en la sección III. Paralelismo según la granularidad Uno de los problemas más comunes que ser debe manejar en computación paralela es el tamaño del conjunto de datos; la granularidad hace referencia al grado de subdivisiones que se hace a este conjunto de datos para que sea procesado por diferentes instancias; puede ser: Fina: Cuando el conjunto de datos se divide en un número grande de subconjuntos. Gruesa: el conjunto de datos se divide en un número pequeño de grupos. El paralelismo en el aprendizaje de máquina se basa en ciertos conceptos teóricos que se describen con brevedad a Fig. 1. Mapa conceptual del estado del arte A mayor granularidad (fina) se obtiene mayor velocidad y balance de carga pero se los procesos de comunicación entre procesadores se aumentan. Al contrario, a menor granularidad (gruesa) se disminuye esa sobre carga en detrimento de la velocidad y el balance en la distribución de los trabajos de procesamiento. También se debe tener en cuenta que al dividir el conjunto de datos se pueden presentar que los subconjuntos sean o no disyuntos, es decir, que un ejemplo se repita o no en varios subconjuntos. Existe un caso de granularidad fina especializada que se utilizó en máquinas de paralelismo masivo como la Connection Machine [15] denominado Parallel Matching, en la que cada elemento del conjunto de datos es asignado a un procesador; en caso de que el número de elementos sea mayor al número de procesadores se utilizan procesadores virtuales, como lo detalla el trabajo realizado por Blelloch en [2]. Paralelismo según el modo de ejecución Este modo de computación paralela tiene que ver con la relación de dependencia entre los nodos de ejecución. Se consideran dos modelos con sus ventajas y desventajas en el estudio realizado por Blesa et al. [3]. Modelo de ejecución independiente (Figura 2): consiste en la ejecución simultánea del mismo algoritmo sobre diferentes partes del conjunto de datos para después seleccionar la mejor de las soluciones. Modelo Maestro/Esclavo (o Maestro/Trabajador en [11]): el maestro controla toda la ejecución y utiliza a los esclavos para realizar determinadas tareas. La solución puede ser alguna función de las respuestas obtenidas por cada nodo dependiente (Figura 4).

3 ESTADO DEL ARTE VERSION FINAL 3 entre los nodos; esta aproximación minimiza el riesgo de convergencia en óptimos locales. En los algoritmos genéticos de granularidad fina a cada procesador le corresponde una muestra muy pequeña de la población y dichas poblaciones interactúan solamente con sus vecinos. Como es evidente, la evaluación de cada individuo en la generación actual es independiente; aparte de la reducción del tiempo de ejecución, la ventaja de los algoritmos genéticos paralelos sobre los secuenciales reside en su capacidad de manejar poblaciones más grandes y de mantener su diversidad por más tiempo. Fig. 2. Modelo de ejecución independiente. (Tomada de [3]) Paralelismo en Redes Neuronales Rogers et al. identifican en [17] tres tipos de estrategias de paralelización en redes neuronales. Paralelismo de ejemplos: Es aquel que divide el conjunto de datos entre los procesadores (granularidad); no aprovecha el paralelismo implícito en las redes neuronales pero es el que mejor rendimiento ofrece. Paralelismo de bloque: Divide la red en bloques disyuntos de neuronas adyacentes y asigna cada bloque a un procesador. Aprovecha la localidad. Paralelismo Neuronal: Distribuye aleatoriamente las neuronas entre los procesadores. No saca partido de la localidad. Algoritmos Genéticos Paralelos En términos generales, Grefenstette [11] y Thompson et al. [21] establecen los algoritmos genéticos como técnicas de búsqueda adaptativas capaces de imitar la evolución natural sobre poblaciones de soluciones que se evalúan periódicamente y de las cuales se escogen las mejores para combinarse y pasar a las siguientes generaciones (Figura 3). Se espera que al final la población se homogenice en una solución óptima (convergencia). Estos Algoritmos Genéticos constituyen un ejemplo de paralelización inherente a su naturaleza basada en la granularidad en aprendizaje de máquina; los algoritmos genéticos de granularidad gruesa son ideales para el modelo de islas en que cada procesador evoluciona independientemente su población con poca intercomunicación Fig. 3. Modelo de algoritmo genético (Tomada de [11]) Meta-Aprendizaje Consiste en el aprendizaje basado en la información que ofrecen diferentes algoritmos de aprendizaje (Chan et al. [5]). Es una técnica que cohesiona los resultados de múltiples aprendices maquinales; esta multiplicidad permite la paralelización de las ejecuciones de cada uno de los agentes. Los Meta-Clasificadores citados en [26] se aplican al aprendizaje supervisado. Este método combina los resultados de clasificadores entrenados independientemente con el fin de crear un clasificador general para el conjunto de datos de entrenamiento (Figuras 5 y 6). Cabe recordar que en el aprendizaje supervisado se considera que el conjunto de datos tanto de ejemplo como de prueba se encuentran clasificados correctamente. En aprendizaje no supervisado su utilizan los Meta- Categorizadores. En la categorización no existe una correcta clasificación de los datos, por lo que diferentes algoritmos de aprendizaje aplicados al conjunto de datos no van a generar la misma categoría. El meta-aprendizaje presenta algunas limitaciones, detalladas por Thompson et al [20]: la complejidad del clasificador no es transparente para el humano y el árbol jerárquico no aprovechará toda la capacidad de cómputo del sistema.

4 ESTADO DEL ARTE VERSION FINAL 4 Fig. 4. Modelo de ejecución Maestro/Esclavo. (Tomada de [8]) Agentes Múltiples En contraste, los agentes múltiples son una alternativa al meta-aprendizaje que descentraliza el poder de procesamiento entre varios nodos sin dependencia jerárquica; dichos nodos se consideran entidades activas algunas veces autónomas e inteligentes. Fig. 5. Meta clasificador con regla de arbitraje. (Tomada de [26]) Aprendizaje Reforzado Paralelo Usando múltiples agentes se puede abordar el aprendizaje reforzado de una tarea en particular como lo demuestra Kretchmar [13]. Simultáneamente, como lo muestra la figura 7, cada agente emprende su tarea de aprendizaje sobre el mismo problema que los demás y acelera su ganancia de experiencia a medida que comparte información con otros agentes. Fig. 6. Meta clasificador con combinación. (Tomada de [26])

5 ESTADO DEL ARTE VERSION FINAL 5 C. El Problema del Aprendizaje de Máquina Paralelo En la siguiente sección se revisan los más relevantes trabajos realizados en el área, cuyo problema es posible generalizar como la necesidad de reducir los tiempos de ejecución de los algoritmos de aprendizaje de máquina, aumentar la precisión de las predicciones y/o incrementar la capacidad de manejar cantidades de información cada vez más grandes, a través de la paralelización de todas o algunas partes del algoritmo y la distribución total, disyunta o no disyunta de la conjunto de datos. El objetivo: crear aprendices maquinales más exitosos que aprendan (valga la redundancia) cada vez más rápido. III. APROXIMACIÓN A LOS TRABAJOS REALIZADOS EN EL ÁREA Fig. 7. Aprendizaje reforzado con agentes parelelos. La experiencia propia (elipse gruesa) y la compartida (elipse delgada) se almacenan en variables diferentes. (Tomada de [13]) Validación Cruzada en Paralelo Es una metodología para medir el éxito de un algoritmo de aprendizaje de máquina, que divide el conjunto de datos en varios segmentos, ejecuta la labor de aprendizaje en paralelo en algunos de ellos y utiliza el resto para evaluar la estrategia [4] [8]. API S de programación más comunes La plataforma sobre la cual se ejecutan las implementaciones es también de vital importancia a la hora de realizar un estudio en este dominio del conocimiento. Muchos de estos estudios en aprendizaje de máquina en paralelo se han desarrollado bajo MPI (Message Passing Interface), como los realizados por Wooley et al. [26] y Sommer et al. [8]. MPI usa un modelo de memoria distribuida y un sistema de comunicación a través de mensajes que se envían las máquinas cuando requieren los datos. Detalles de esta implementación se pueden encontrar en [1], [10] y [12]. Por otro lado encontramos a PVM (Parallel Virtual Machine), que se erige como un entorno de programación cuyo objetivo es la emulación de una sola máquina en paralelo con un conjunto de máquinas de cómputo de diferentes características a través de un red (ver [19]). En este estudio no se encontraron aplicaciones de Aprendizaje de Máquina bajo esta plataforma. Recientemente, MapReduce se ha constituído en una herramienta de software para el abordaje de problemas de computación que implica el manejo de cantidades grandes de información en un entorno paralelo usando clusters de computadores [9], desarrollada por Google. Existe una implementación de software libre basada en Java y soportada por Apache Group denominada Hadoop en la cual es posible implementar algoritmos de aprendizaje de máquina de acuerdo al patrón de procesamiento: aprendizaje de una sola pasada, aprendizaje iterativo y aprendizaje basado en consultas. Tomando prestado el concepto de agentes múltiples de la inteligencia artificial, se han realizado algunas investigaciones acerca de su posible paralelización, debido a la independencia innata de cada agente. Por ejemplo, Megank et al. en [14] proponen un algoritmo que induce el aprendizaje en Modelos Causales de agentes múltiples. Se asume que la información se encuentra distribuida entre varias máquinas y en cada máquina existe un agente con sus propias reglas de aprendizaje locales. El algoritmo se desarrolla entonces en cuatro fases: 1) Aprendizaje local: las reglas se aplican sin considerar el ámbito global 2) Negociación: si es permitido, se computan las reglas entre dos nodos y la perspectiva se acercaría un poco más a la forma global 3) Post-procesamiento: toda regla del ámbito local que no se vea repetida en todos los nodos se elimina. Por ende, el esquema final diferirá en gran medida cada esquema local 4) Direccionamiento: la direccionalidad de las reglas se mantiene. Lastimosamente este estudio carece de datos experimentales. En [22] se aplica una versión paralelizada de algoritmos de agentes múltiples de aprendizaje de máquina al problema de asignación de tareas (JAP). Los experimentos demuestran que este enfoque acelera el encuentro con el óptimo y es más preciso que una búsqueda aleatoria, pero no se puede asegurar si el óptimo encontrado es global o local. Se da pie para más investigaciones al respecto. En otra dirección, aunque la concurrencia es inherente en los algoritmos genéticos, los investigadores se enfrentan a problemas complejos; por un lado Thompson et al. en [21] presentan la estrategia de paralelizar un algoritmo genético de granularidad fina para reconocimiento de rostros y holografía laser; las recombinaciones se hicieron entre individuos del vecindario cercano pues experimentos con recombinación entre toda la población arrojaron resultados muy pobres. A pesar de los esfuerzos, los resultados no son totalmente asertivos, pues las tasas de clasificación en algunos casos no superan el 60% de éxito. Grefenstette [11] utiliza un algoritmo genético paralelo de granularidad gruesa con el modelo de ejecución Maestro/Esclavo para evaluar estrategias o un conjunto de reglas; la experimentación se hizo sobre dos problemas de optimización para robots: El Gato y el Ratón,

6 ESTADO DEL ARTE VERSION FINAL 6 donde el gato debe mantener a su objetivo (ratón) dentro de su campo de visión sin invadir el campo de visión de su presa; el otro problema es el de la lucha por recursos donde dos robots compiten por ellos con funciones de energía intrínsecas diferentes. A diferencia del estudio de Thompson, este tuvo éxito al obtener una aumento de velocidad de hasta 10 veces con respecto a un algoritmo secuencial. Cambiando de ámbito, en las redes neuronales, en [17] se evalúan los tres tipos de estrategias de paralelización. Para tal efecto, se utiliza una red neuronal en un equipo con 16 procesadores y se evalúan los costos desde la perspectiva del modelo Bulk de paralelismo sincrónico. Las experimentaciones arrojan que el paralelismo de ejemplares minimiza el tiempo por instrucción requerido, debido a que requiere menos intercomunicación entre procesadores; le sigue el paralelismo por bloques y en último lugar aparece el paralelismo neuronal. Anteriormente, Blelloch también había adelantado un trabajo de investigación cuya pretensión original era la de aprovechar el paralelismo fino que ofrecía la Connection Machine [2] y demostrar el incremento de la velocidad de aprendizaje; se implementó un algoritmo que le permitiera a la máquina aprender la pronunciación de palabras en inglés. Los resultados arrojaron que dicho algoritmo en este tipo de hardware superaba en velocidad de aprendizaje hasta en un 40% a la Cray 2, uno de los supercomputadores de aquellos días (1987). Tres años más tarde en otro estudio [6], Cook et al. demuestran en la misma Connection Machine que la paralelización del cálculo de las salidas y el reacomodamiento de los pesos en el algoritmo del Perceptrón, reduce enormemente el tiempo necesario para aprender. Otro de los problema frecuentemente abordado es el del escalamiento del conjunto de datos. En [15] Provost et al. evidencian que la paralelización de los procesos de aprendizaje inductivo es absolutamente necesaria cuando el conjunto de datos debe ser grande (del orden de los y más), y aseveran que entre más grande este conjunto, más precisa es la predicción; lógicamente una sola máquina no podría procesar rápidamente estos datos por lo que se propone la paralelización de una parte del algoritmo. Debido a que la división del conjunto de datos entre los procesadores lleva a una disminución en la precisión, se desecha esta aproximación. Si se dividen las reglas, significaría que cada procesador debe cargar todo el conjunto de datos y las limitaciones de memoria en cada equipo bloquearían el proceso. Se opta por paralelizar las funciones de comparación de los datos con el conjunto de datos de entrenamiento, debido a que este es un proceso intuitivamente paralelizable. Se usan dos conjuntos de datos: uno artificial y otro correspondiente a una base de datos del sistema de salud de los Estados unidos. Los resultados arrojan que esta paralelización supera notablemente a la ejecución secuencial. En otro estudio diferente ([16]) se muestra cómo se puede mejorar el rendimiento de un algoritmo de aprendizaje de máquina cuando de divide el conjunto de datos entre varios equipos de cómputo y se establecen reglas de cooperación entre los mismos para generar una predicción global; una de las ventajas reside en que los requerimientos de máquina no son exigentes; otra consiste en la capacidad de poder manejar cantidades grandes de datos que una sola máquina sería incapaz de direccionar. Las pruebas realizadas arrojan una mejora significativa en el tiempo de procesamiento a medida que el conjunto de datos aumenta. Igualmente en [20] los autores realizan experimentaciones con varios repositorios de datos para aprendizaje de máquina tomados de la UCI. Dicha experimentación consiste en dividir el conjunto de datos entre varios procesadores y analizar los resultados. Los resultados muestran que sí existe una disminución en la precisión de la predicción. A pesar de la simplicidad de los algoritmos de aprendizaje reforzado, no se han realizado muchos trabajos al respecto. En [13] Huang et al. definen un modelo matemático simple para mejorar el aprendizaje basado en el refuerzo usando varios agentes paralelos que comparten sus experiencias después de cada intento; una de las dificultades que se presentan es que la combinación de la experiencia puede conllevar a resultados erróneos. Lo solucionan manteniendo separadas las valoraciones de experiencia propias del agente y las de los demás. Para demostrarlo utilizan el problema de los múltiples bandidos armados (n-arm bandit); la experimentación demuestra que un sólo agente aprende menos que varios, pues sólo puede disponer de su propia experiencia (Figura 8). Fig. 8. Resultados del uso de varios agentes paralelos de aprendizaje reforzado en la tarea de los Múltiples Bandidos Armados. El eje X representa el número de intentos y Y representa el porcentaje de acciones óptimas en cada intento (Tomada de [13]) Otro caso de éxito se evidencia en el estudio [24] realizado por Wolpert et al., que propone un algoritmo combinado de aprendizaje reforzado y templado simulado cuyas experimentaciones claramente demuestran cómo este algoritmo supera al de juegos por equipo en la precisión de la predicción. Dichas experimentaciones consisten en la resolución del problema de las constelaciones de satélites en las que cada satélite dispone de una cantidad específica de almacenamiento y un ancho de banda de transmisión de datos a otro satélite; la Tierra actúa como satélite con capacidad de almacenamiento infinita; cada grupo de información enviada

7 ESTADO DEL ARTE VERSION FINAL 7 tiene un nivel de importancia y el objetivo es minimizar la cantidad de datos importantes que se pierde. Explorando las investigaciones en Meta-aprendizaje en paralelo se encontraron trabajos como el de Chan et al. [5] donde se propone una metodología para abordar el aprendizaje supervisado de manera que sea posible obtener resultados de diferentes estrategias corriendo en varios agentes (Meta-clasificadores); para el procesamiento paralelo utiliza la estrategia "Divide y Vencerás", que fracciona el conjunto de datos entre los nodos. Se crea un árbol de árbitros que son quienes evalúan desde las hojas hasta la raíz el éxito de las estrategias utilizadas en cada nodo; los resultados muestran que se logra una reducción significativa del tiempo de ejecución acompañada de una reducción estadísticamente insignificante de la precisión de las predicciones. También se descubre que la división excesiva del conjunto de datos conlleva a una disminución alarmante de la precisión, debido a que cada aprendiz se queda con menos datos de entrenamiento y su información estadística es menos confiable. Wooley et al. [26] agregan al trabajo de Chan las definiciones de Metacategorizadores para aprendizaje no supervisado, pero centra sus esfuerzos en detallar las características que permiten que MPI sea la plataforma ideal para ejecutar aprendizaje en paralelo en un cluster de computadores pero la carencia de datos experimentales hace de este estudio un acercamiento esencialmente teórico. Como se ha visto, la paralelización en aprendizaje maquinal, aunque estudiada, requiere de mayor cantidad de esfuerzos por parte de la comunidad investigativa para solventar los problemas experimentados en la disminución de la precisión predictiva. IV. APLICACIONES DE COMPUTACIÓN PARALELA EN APRENDIZAJE MAQUINAL Los resultados obtenidos en los estudios anteriores han llevado al desarrollo de varias aplicaciones de software, enfocadas principalmente en la medición del éxito de los algoritmos de aprendizaje. A. NCV (N-Fold Cross Validator) [8] Esta es una librería de programación en C++ perteneciente al Carleton College; se ejecuta sobre un cluster de computadores basado en MPI y permite validar el éxito de los algoritmos de aprendizaje maquinal a través de la validación cruzada repetida en paralelo usando el modelo Maestro-Esclavo; la valoración final la hace el nodo maestro. No requiere que el modelo secuencial del algoritmo se modifique para el paralelismo, lo que hace más fácil el trabajo de programación; son tres las únicas funciones que el programador debe cambiar para que su algoritmo funcione en paralelo: función para el algoritmo de entrenamiento, función para el algoritmo de pruebas y función para destrucción de reglas (liberación de memoria). Las pruebas comparan el rendimiento con varios procesadores y con Weka como aplicación no paralela. Se evidencia una mejora sustancial a medida que se aumentan estaciones paralelas (figura 9); cuando NCV corre en un solo procesador, muestra un rendimiento menor a Weka debido al sobrecosto de usar mensajes MPI en un entorno no paralelo (No hay nada que paralelizar). Fig. 9. Reducción en tiempo de ejecución obtenida con NCV al aumentar el número de nodos esclavos (Tomada de [8]) B. Weka-Parallel [4] Es una modificación hecha también en el Carleton College al software Weka, comúnmente utilizado en Aprendizaje de Máquina para validación cruzada de datos; la diferencia con Weka reside en su capacidad de ejecutar operaciones en paralelo al dividir el conjunto de datos en subconjuntos independientes; se aplican los mismos principios utilizados en NCV, sin embargo, presenta ventajas sobre éste último, debido a que fue desarrollado en Java, lo que permite su ejecución sobre cualquier plataforma y sin la necesidad de disponer de un cluster de computadoras: simplemente se ejecuta una copia del programa sobre las máquinas de la red y se especifica en un archivo de configuración las direcciones de cada equipo. Además, cada nodo corre una misma versión del algoritmo, sin necesidad de implementar las tres funciones nombradas en el literal anterior. Al igual que NCV, los resultados demuestran una reducción significativa en el tiempo de procesamiento de los datos a medida que se adicionan más máquinas al arreglo. C. Hardware Autoconfigurable De manera particular, en [23] los autores encuentran una aplicación práctica del aprendizaje de máquina en la tecnología del hardware autoconfigurable, definido como aquel que puede administrar sus recursos de manera inteligente de acuerdo a las condiciones del entorno. Estos autores hacen experimentaciones en una red de computadores que simula este tipo de hardware; utilizan una aplicación web para realizar el test que mide del número de WIPS (Interacciones Web por segundo). Recolectan un número suficiente de datos para crear un conjunto de ellos que se convierte en el conjunto de entrenamiento; luego ingresan este conjunto en la aplicación Weka analizan sus resultados. El algoritmo Jrip es utilizado para aprender la mejor configuración y el M5D es usado para aprender los beneficios de cambiar de configuración; evidentemente es necesario llevar este trabajo al hardware configurable real.

8 ESTADO DEL ARTE VERSION FINAL 8 D. Hadoop[9] Estos autores utilizan la implementación Open Source de la estrategia MapReduce de Google: Hadoop, para ejecutar algoritmos de aprendizaje de máquina según su el modo de procesamiento visto en la sección II de este artículo y demostrar que esta arquitectura es adecuada para tal fin. Los resultados se comparan con una implementación genérica y serial del algoritmo. Descubren que en muchos casos la paralelización conlleva un costo adicional debido a la comunicación entre las máquinas pero que va desapareciendo a medida que se aumentan más máquinas al ambiente de procesamiento. E. Aplicaciones en Grid Computing[7] Debido al innegable auge de la "Grid computing", se hace necesario buscar una estrategia que supere el simple uso de palabras claves y ontologías cuando un cliente solicita un servicio a la infraestructura. Estos autores por tanto proponen la aplicación de algoritmos de Aprendizaje de Máquina para mejorar la asignación de los recursos; presentan un modelo teórico usando aprendizaje PAC (Probablemente y Aproximadamente Correcto), que permite reducir el número de ejemplos. Así el cliente evalúa a su proveedor de servicio dependiendo del número consecutivo de veces en que su predicción fue correcta. Si hay una incorrecta, el cliente procede a evaluar otro proveedor. Se complementa esta propuesta con el uso de agentes móviles que se trasladan de máquina a máquina (proveedor por proveedor) y regresando al final al lado del cliente, lo que reduce la congestión del tráfico en la red. V. TRABAJOS FUTUROS Sobre los cimientos construidos por estos trabajos de investigación es posible seguir innovando y proponiendo soluciones. En el ámbito de los Algoritmos Genéticos, Thompson et al. [21] proponen aumentar la capacidad para distinguir entre más de dos clasificadores en el algoritmo genético paralelo de granularidad fina desarrollado; además, plantean la posibilidad de seguir investigando para incorporar a su modelo heurísticas basadas en probabilidad, teoría de la información y teoría clásica de la decisión con el fin de eliminar las fallas de la predicción de su algoritmo genético paralelo. Grefenstatte [11] sugiere que se debe experimentar aumentando el tamaño de la población con el fin de reducir los costos de sincronización entre el nodo maestro y los esclavos, y para aumentar la tasa de aprendizaje. Otra aproximación poco abordada es el desarrollo de algoritmos genéticos paralelos asíncronos, de tal manera que los nodos esclavos no se queden inactivos si los demás no han terminado su tarea de evaluación. Weka-Parallel [4] y NVC [8] tratan este problema de sincronía, pero no sobre algoritmos genéticos sino sobre validación cruzada de datos. Si tal como se afirma en [26], MPI ofrece las características necesarias para la implementación de potentes algoritmos de meta-aprendizaje, se deberían realizar trabajos experimentales que las aprovechen (este estudio solo se limita a proponer una variante de MPI MPI Shell- para aprendizaje de máquina en clusters de computadores). Cybenko et al. [7] plantean un modelo para aplicaciones en Grid Computing pero no se presentan datos experimentales, por lo que sería interesante que se desarrolle un prototipo de arquitectura que haga usos de las ideas planteadas en ese estudio. Un estudio muy reciente realizado por Wolpert et al. [25] predice la posibilidad de mejorar el tiempo de ejecución de las máquinas de soporte vectorial a través de la división del conjunto de datos entre varios procesadores; sin embargo no se presentan datos de experimentación. Sería interesante poder continuar con esta línea de investigación, pues estos algoritmos son caros computacionalmente y requieren de optimización. No podían quedarse por fuera del alcance de estas técnicas los sistemas de información; los CIS (sistemas de información cooperativos) pueden aprovecharlas debido a su carácter dinámico [18]. El aprendizaje de máquina se debe enfocar en los siguientes aspectos: a) Extracción de semánticas b) Coordinación y colaboración c) Abstracción y estructura. Las técnicas que se pueden utilizar son las siguientes: a) Clustering para la clasificación de información b) Aprendizaje pasivo para entrenar nuevos miembros c) Aprendizaje activo para aprender de los nuevos miembros d) Aprendizaje sin supervisión para aprender los flujos de trabajo sin intervenir en ellos e) Aprendizaje supervisado que permita que un miembro le suministre información a uno nuevo para acelerar su integración al sistema f) Aprendizaje reforzado para premiar las acciones que generen mayor optimización. Este tipo de agentes inteligentes minimizan la necesidad comunicación y por ende el ancho de banda se optimiza. VI. CONCLUSIONES Existe una tendencia reciente y a largo plazo hacia el desarrollo de hardware y software para la computación en paralelo; este fenómeno no ha sido ajeno a la comunidad investigativa en aprendizaje de máquina, dada la inherente característica de concurrencia de muchos algoritmos. Sin embargo, la cantidad de trabajos en el tema no ha sido suficiente como para establecer un nuevo paradigma de programación, bien sea por la complejidad que implica la paralelización o por los costos y disponibilidades de un ambiente de computación de alto rendimiento. No obstante, estos estudios han demostrado una reducción notable en los tiempos de ejecución y un incremento muy significativo en la capacidad de manejar grandes cantidades de datos, aunque la precisión de las predicciones no ha experimentado aumento significativo, debido a que esta variable depende más del modelo matemático o estadístico que plantee el investigador que de la capacidad de cómputo del sistema. Esta evidencia debe incentivar a los grupos de investigación a enfocar las implementaciones algorítmicas en un ambiente de computación paralela, de tal manera que se aproveche al máximo este nuevo modelo de diseño de aplicaciones.

9 ESTADO DEL ARTE VERSION FINAL 9 APENDICE MAPA CONCEPTUAL DEL ESTADO DEL ARTE EN ALGORITMOS DE COMPUTACION PARALELA APLICADOS AL APRENDIZAJE DE MAQUINA

10 ESTADO DEL ARTE VERSION FINAL 10 REFERENCIAS [1]. Chapman, B. Programming Models For High Performance Computing, University of Houston and University of Southampton, 2004 [2]. Blelloch, G., Network learning on the Connection Machine,In Proceedings of the Tenth International Joint Conference on Artificial Intelligence, 1987, pp [3]. Blesa, M.J., Hernndez, L. & Xhafa, F., Parallel Skeletons for Tabu Search Method, In Proceedings of International Conference on Parallel and Distributed Systems, ICPADS '01, IEEE, 2000 [4]. Celis, S. & Musicant, D.R.,Weka-parallel: machine learning in parallel,carleton College, CS TR, 2002, [5]. Chan, P.K. & Stolfo, S.J.,Toward parallel and distributed learning by meta-learning, In AAAI Workshop in Knowledge Discovery in Databases, 1993, pp , [6]. Cook, D.J. & Holder, L.B., Accelerated learning on the connection machine, In Proceedings of the Second International IEEE Conference on Tools for Artificial Intelligence, San Mateo CA, 1990, pp [7]. Cybenko, G., Jiang, G. & Bilar, D., Machine learning applications in grid computing, Proceedings of the annual Allerton Conference on Communication Control and Computing, The University; 1998, 1999, Vol. 37, pp [8]. Davis, B., Sommer, E. & Musicant, D.R., NCV: A Machine Learning Development Environment for Parallel Evaluation, Carleton College Computer Science, 2001 [9]. Gillick, D., Faria, A. & DeNero, J., MapReduce: Distributed Computing for Machine Learning, UC Berkeley's computer science department, 2006 [10]. Graham, R.L., Woodall, T.S. & Squyres, J.M., Open MPI: A Flexible High Performance MPI, In The 6th Annual International Conference on Parallel Processing and Applied Mathematics, 2005 [11]. Grefenstette, J.J., Robot learning with parallel genetic algorithms on networked computers, In Proceedings of the 1995 Summer Computer Simulation Conference (SCSC '95,1995, pp [12]. Huang, C., Lawlor, O. & Kalé, L.V.,Adaptive MPI, In Proceedings of the 16th International Workshop on Languages and Compilers for Parallel Computing, 2003, pp [13]. Kretchmar, R.M., Parallel reinforcement learning, In The 6th World Conference on Systemics, Cybernetics, and Informatics, 2002 [14]. Meganck, S., Maes, S. & M, B., Distributed learning of multiagent causal models, Accepted at the 2005 IEEE/WIC/ACM International Conference on Intelligent Agent Technology (IAT 05), 2005 [15]. Provost, F.J., Aronis, J.M. & Fisher, H., Scaling up inductive learning with massive parallelism, Machine Learning, 1996, pp [16]. Provost, F.J. & Hennessy, D.N., Scaling Up: Distributed Machine Learning with Cooperation, In Proceedings of the Thirteenth National Conference on Artificial Intelligence, AAAI Press, 1996, pp [17]. Rogers, R.O. & Skillicorn, D.B., Strategies for parallelizing supervised and unsupervised learning in arti cial neural networks using the BSP cost model, Department of Computing and Information Science, Queen s University Canadá, 1997 [18]. Singh, M.P. & Huhns, M.N., Challenges for machine learning in cooperative information systems, Distributed artificial intelligence meets machine learning, Lecture Notes in Artificial in Artificial Intelligence,,1997, Vol. 1221, pp [19]. Sunderam, V.S., PVM: A Framework for Parallel Distributed Computing, Concurrency: Practice and Experience, 1990, Vol. 2, pp [20]. Thompson, S. & Bramer, M., Subsetting as an approach to distributed learning., Artificial Intelligence Research Group, Department of Information Science, University of Portsmouth, 1997 [21]. Thompson, S.G., Bramer, M.A. & Kalus, A., Parallel Genetic Algorithms and Machine Learning., Artificial Intelligence Research Group, Department of Information Science, University of Portsmouth, UK, 1996 [22]. Weiß, G., A multiagent perspective of parallel and distributed machine learning, Proceedings of the 2nd International Conference on Autonomous Agents (Agents 98), 1998, pp [23]. Wildstrom, J., Stone, P., Witchel, E., Mooney, R.J. & Dahlin, M., Towards self-configuring hardware for distributed computer systems, In The Second International Conference on Autonomic Computing, 2005, pp [24]. Wolpert, D.H., Sill, J. & Tumer, K., Reinforcement learning in distributed domains: Beyond team games, In Proceedings of the Seventeenth International Joint Conference on Artificial Intelligence, 2001, pp [25]. Woodsend, K. & Gondzio, J., Parallel support vector machine training, School of Mathematics, University of Edinburgh, 2007 [26]. Wooley, B., Mosser-Wooley, D., Skjellum, A. & Bridges, S., Machine Learning Using Clusters of Computers, Proceedings of MPIDC2000 Message Passing Interface and High- Performance Clusters Developer's and User's Conference, March 21-23, 2000, Cornell University, 2000

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co Universidad Pedagógica y Tecnológica de Colombia Colombia Amézquita-Mesa, Diego Germán; Amézquita-Becerra, Germán; Galindo-Parra, Omaira

Más detalles

4. Programación Paralela

4. Programación Paralela 4. Programación Paralela La necesidad que surge para resolver problemas que requieren tiempo elevado de cómputo origina lo que hoy se conoce como computación paralela. Mediante el uso concurrente de varios

Más detalles

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico.

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico. Desarrollo de un cluster computacional para la compilación de algoritmos en paralelo en el Observatorio Astronómico. John Jairo Parra Pérez Resumen Este artículo muestra cómo funciona la supercomputación

Más detalles

Introducción a selección de. Blanca A. Vargas Govea blanca.vargas@cenidet.edu.mx Reconocimiento de patrones cenidet Octubre 1, 2012

Introducción a selección de. Blanca A. Vargas Govea blanca.vargas@cenidet.edu.mx Reconocimiento de patrones cenidet Octubre 1, 2012 Introducción a selección de atributos usando WEKA Blanca A. Vargas Govea blanca.vargas@cenidet.edu.mx Reconocimiento de patrones cenidet Octubre 1, 2012 Contenido 1 Introducción a WEKA El origen Interfaces

Más detalles

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) CLASIFICACIÓN NO SUPERVISADA CLUSTERING Y MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) info@clustering.50webs.com Indice INTRODUCCIÓN 3 RESUMEN DEL CONTENIDO 3 APRENDIZAJE

Más detalles

JOSÉ OCTAVIO GUTIÉRREZ GARCÍA

JOSÉ OCTAVIO GUTIÉRREZ GARCÍA JOSÉ OCTAVIO GUTIÉRREZ GARCÍA Profesor de Tiempo Completo del Departamento Académico de Computación DOMICILIO Río Hondo No. 1 Progreso Tizapán México 01080, D.F. Tel: +52 (55) 5628-4000 Ext. 3645 Fax:

Más detalles

Módulo: Modelos de programación para Big Data

Módulo: Modelos de programación para Big Data Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data

Más detalles

La inteligencia artificial distribuida (IAD) es una de las ramas de la inteligencia artificial (IA), la cual estudia sistemas inteligentes formados por un conjunto de varios componentes. Lic. Patricia

Más detalles

PLATAFORMA CLÚSTER BASADA EN CENTOS

PLATAFORMA CLÚSTER BASADA EN CENTOS PLATAFORMA CLÚSTER BASADA EN CENTOS Área de conocimiento: Redes y Telecomunicaciones Raúl Hernández Palacios, Felipe de Jesús Núñez Cárdenas, Javier Hervert Hernández, Miriam De la Cruz Bautista. Área

Más detalles

Programación orientada a

Programación orientada a Programación orientada a objetos con Java Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria corcuerp@unican.es Objetivos Presentar los conceptos de la programación

Más detalles

Revista del Centro de Investigación. Universidad La Salle ISSN: 1405-6690 revista.ci@ulsa.mx Universidad La Salle México

Revista del Centro de Investigación. Universidad La Salle ISSN: 1405-6690 revista.ci@ulsa.mx Universidad La Salle México Revista del Centro de Investigación. Universidad La Salle ISSN: 1405-6690 revista.ci@ulsa.mx Universidad La Salle México Gómez Ramírez, Eduardo Maestría en ciencias en el área de cibernética. Un logro

Más detalles

Computación paralela y distribuida

Computación paralela y distribuida Computación paralela y distribuida MSC-0302 Nombre de la asignatura: Computación paralela y distribuida Línea de trabajo: Tecnologías web Tiempo de dedicación del estudiante a las actividades de: DOC TIS

Más detalles

UNIVERSIDAD NACIONAL DEL SUR 1 BAHIA BLANCA DEPARTAMENTO DE CIENCIAS E INGENIERÍA DE LA COMPUTACION CORRELATIVAS OBJETIVOS

UNIVERSIDAD NACIONAL DEL SUR 1 BAHIA BLANCA DEPARTAMENTO DE CIENCIAS E INGENIERÍA DE LA COMPUTACION CORRELATIVAS OBJETIVOS UNIVERSIDAD NACIONAL DEL SUR 1 PROFESOR RESPONSABLE: Mg. Javier Echaiz Profesor Adjunto con Dedicación Exclusiva CARGA HORARIA Teoría 4 hs Práctica 28 hs PARA CURSAR LA MATERIA APROBADAS CURSADAS *Organización

Más detalles

Memoria Compartida Distribuida (DSM) Sistema de Archivos

Memoria Compartida Distribuida (DSM) Sistema de Archivos Memoria Compartida Distribuida (DSM) La memoria compartida distribuida es una abstracción que se propone como alternativa a la comunicación por mensajes. Memoria compartida basada en páginas: este esquema

Más detalles

MINERIA DE DATOS Y Descubrimiento del Conocimiento

MINERIA DE DATOS Y Descubrimiento del Conocimiento MINERIA DE DATOS Y Descubrimiento del Conocimiento UNA APLICACIÓN EN DATOS AGROPECUARIOS INTA EEA Corrientes Maximiliano Silva La información Herramienta estratégica para el desarrollo de: Sociedad de

Más detalles

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software.

TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. . TEMA 37: Arquitecturas Cliente / Servidor. Tipos de cliente. Tipos de Servidor. Clasificación del software. Índice 1 INTRODUCCIÓN 2 2 CARACTERÍSTICAS 2 2.1 Características del cliente...2 2.2 Características

Más detalles

código Java Solicitudes Reportes AJI resultados API

código Java Solicitudes Reportes AJI resultados API Analizador Java Inteligente López De Luise María Daniela, miembro IT-Lab de la Universidad de Palermo, mlopez74@palermo.edu Agüero Martín Jorge, miembro IT-Lab de la Universidad de Palermo, agüero.martin@gmail.com

Más detalles

Metodología y Framework para el Desarrollo de Aplicaciones Científicas con Computación de Alto Rendimiento a través de Servicios Web

Metodología y Framework para el Desarrollo de Aplicaciones Científicas con Computación de Alto Rendimiento a través de Servicios Web Metodología y Framework para el Desarrollo de Aplicaciones Científicas con Computación de Alto Rendimiento a través de Servicios Web J.Corral-García, D.Cortés-Polo, C.Gómez-Martín, J.L.González-Sánchez

Más detalles

Ingeniero en Informática

Ingeniero en Informática UNIVERSIDAD DE ALMERÍA Ingeniero en Informática CLÚSTER DE ALTO RENDIMIENTO EN UN CLOUD: EJEMPLO DE APLICACIÓN EN CRIPTOANÁLISIS DE FUNCIONES HASH Autor Directores ÍNDICE 1. Introducción 2. Elastic Cluster

Más detalles

SERVICIOS: EXPLORACIONES EN SOA y WEB.

SERVICIOS: EXPLORACIONES EN SOA y WEB. SERVICIOS: EXPLORACIONES EN SOA y WEB. López, G. 1 ; Jeder, I 1.; Echeverría, A 1.; Grossi, M.D. 2 ; Servetto, A 2.; Fierro, P. (PhD.) 3 1. Laboratorio de Informática de Gestión - Facultad de Ingeniería.

Más detalles

DES: Programa(s) Educativo(s): Tipo de materia: Clave de la materia: Semestre:

DES: Programa(s) Educativo(s): Tipo de materia: Clave de la materia: Semestre: : : lemas propios de la. lemas propios de la. lemas propios de la. lemas propios de la. lemas propios de la. lemas propios de la. lemas propios de la. 12 6 lemas propios de la. 12 6 lemas propios de la.

Más detalles

Yersinio Jiménez Campos Analista de datos Banco Nacional de Costa Rica

Yersinio Jiménez Campos Analista de datos Banco Nacional de Costa Rica Fundamentos Título de de Big la Data presentación utilizando MATLAB Yersinio Jiménez Campos Analista de datos Banco Nacional de Costa Rica 1 Agenda Qué es Big Data? Buenas prácticas en el manejo de memoria.

Más detalles

UNIVERSIDAD NACIONAL DEL SUR 1 BAHIA BLANCA DEPARTAMENTO DE CIENCIAS E INGENIERÍA DE LA COMPUTACION

UNIVERSIDAD NACIONAL DEL SUR 1 BAHIA BLANCA DEPARTAMENTO DE CIENCIAS E INGENIERÍA DE LA COMPUTACION UNIVERSIDAD NACIONAL DEL SUR 1 CODIGO: 792 CARRERAS Y PLANES Licenciatura en Ciencias de la Computación Plan 2007 Licenciatura en Ciencias de la Computación Plan 2011 PROFESOR RESPONSABLE: Mg. Javier Echaiz

Más detalles

OPTATIVA I: MINERIA DE DATOS

OPTATIVA I: MINERIA DE DATOS UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU007H Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: OPTATIVA I: MINERIA DE DATOS DES: Programa(s) Educativo(s): Tipo de materia: Clave de la

Más detalles

Agentes móviles en SAIPE: Sistema de acceso a Información Personal desde Entornos con conectividad limitada

Agentes móviles en SAIPE: Sistema de acceso a Información Personal desde Entornos con conectividad limitada Agentes móviles en SAIPE: Sistema de acceso a Información Personal desde Entornos con conectividad limitada Jose A. Barcala, Pedro Cuesta, Alma Gómez, Juan C. González, Francisco J. Rodríguez Lenguajes

Más detalles

Propuesta de proyecto de investigación: desarrollo de un rastreador web capaz de aprender a identificar la información más relevante

Propuesta de proyecto de investigación: desarrollo de un rastreador web capaz de aprender a identificar la información más relevante Propuesta de proyecto de investigación: desarrollo de un rastreador web capaz de aprender a identificar la información más relevante 30 de enero de 2016 Responsables Dr. Ricardo Marcelín Jiménez y M. en

Más detalles

Algoritmos genéticos como métodos de aproximación analítica y búsqueda de óptimos locales

Algoritmos genéticos como métodos de aproximación analítica y búsqueda de óptimos locales Algoritmos genéticos como métodos de aproximación analítica y búsqueda de óptimos locales Jorge Salas Chacón A03804 Rubén Jiménez Goñi A93212 Juan Camilo Carrillo Casas A91369 Marco Vinicio Artavia Quesada

Más detalles

Clasificación de Áreas y Subáreas para las inscripciones al Doctorado en Ciencias Informáticas

Clasificación de Áreas y Subáreas para las inscripciones al Doctorado en Ciencias Informáticas Área Algoritmos y Estructuras de Datos Arquitectura de computadoras Subárea - Algoritmos - Análisis de algoritmos - Estructuras de Datos - Verificación y certificación de programas - Lógicas para el desarrollo

Más detalles

Capítulo 1. Introducción. 1.1. Antecedentes

Capítulo 1. Introducción. 1.1. Antecedentes Capítulo 1. Introducción En este capítulo se presenta una descripción general del problema a investigar y el enfoque con el que se aborda. Se establece la necesidad de incorporar técnicas de análisis novedosas

Más detalles

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales *

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales * Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales * Profesor Patrocinante: Dr. Pablo Saez G. ** Profesor Co-patrocinante: Dr. Jaime Araneda

Más detalles

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe Linux Week PUCP 2006 Computación de Alto Rendimiento en Linux Richard Miguel San Martín rmiguel@senamhi.gob.pe Agenda Computación Científica Computación Paralela High Performance Computing Grid Computing

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

METODOLOGÍA PARA ORGANIZAR, RECUPERAR Y COMPARTIR

METODOLOGÍA PARA ORGANIZAR, RECUPERAR Y COMPARTIR METODOLOGÍA PARA ORGANIZAR, RECUPERAR Y COMPARTIR RECURSOS DE INFORMACIÓN Y CONOCIMIENTO EN UN CENTRO I+D+I EN LA PLATAFORMA SURICATA Marrero, S.R; Nelson, J.C; Galán, M; Ocón, A.; Rubio, E. sonia@cicei.com;

Más detalles

código Java Solicitudes Reportes AJI resultados API

código Java Solicitudes Reportes AJI resultados API Analizador Java Inteligente Agüero Martin Jorge, miembro IT-Lab de la Universidad de Palermo, agüero.marin@gmail.com López De Luise María Daniela, miembro IT-Lab de la Universidad de Palermo, mlopez74@palermo.edu

Más detalles

SISTEMAS MULTI-AGENTES PARA TRATAMIENTO DE SITUACIONES ANORMALES EN PROCESOS INDUSTRIALES

SISTEMAS MULTI-AGENTES PARA TRATAMIENTO DE SITUACIONES ANORMALES EN PROCESOS INDUSTRIALES SISTEMAS MULTI-AGENTES PARA TRATAMIENTO DE SITUACIONES ANORMALES EN PROCESOS INDUSTRIALES César Bravo*, Eliezer Colina**, Francklin Rivas Echeverría^, José Aguilar ^^ Universidad de Los Andes Facultad

Más detalles

Tecnología VoIP integrada en Sistemas de Emergencia Policiales

Tecnología VoIP integrada en Sistemas de Emergencia Policiales Tecnología VoIP integrada en Sistemas de Emergencia Policiales Mariela E. Rodriguez 1, José Farfan 2, & José V. Zapana 3 Cátedra de Modelos de Desarrollo de Programas y Programación Concurrente / Facultad

Más detalles

Propuesta de una arquitectura para la generación de mutantes de orden superior en WS-BPEL

Propuesta de una arquitectura para la generación de mutantes de orden superior en WS-BPEL Propuesta de una arquitectura para la generación de mutantes de orden superior en WS-BPEL Emma Blanco Muñoz, Antonio García Domínguez, Juan José Domínguez Jiménez, Inmaculada Medina Bulo Escuela Superior

Más detalles

Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team

Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team Modelado de relaciones existentes en un equipo de proyecto de software Modeling relationships in a software project team Rafael Rodríguez-Puente 1, Eliana B. Ril-Valentin 2 1 Departamento de Técnicas de

Más detalles

Inteligencia Artificial y Seguridad Informática. en plataformas Open Source

Inteligencia Artificial y Seguridad Informática. en plataformas Open Source Inteligencia Artificial y Seguridad Informática en plataformas Open Source Jornadas de Software Libre y Seguridad Informática Santa Rosa La Pampa 4 y 5 de Diciembre de 2009 AGENDA Primera Parte Definiciones

Más detalles

Fundamentos del diseño 3ª edición (2002)

Fundamentos del diseño 3ª edición (2002) Unidades temáticas de Ingeniería del Software Fundamentos del diseño 3ª edición (2002) Facultad de Informática necesidad del diseño Las actividades de diseño afectan al éxito de la realización del software

Más detalles

INGENIERÍA DEL SOFTWARE

INGENIERÍA DEL SOFTWARE INGENIERÍA DEL SOFTWARE Sesión No. 2 Nombre: Procesos de ingeniería del software INGENIERÍA DEL SOFTWARE 1 Contextualización La ingeniería de software actualmente es muy importante, pues con los avances

Más detalles

Nota Técnica. Modelo de Diseño Instruccional de Hannafin & Peck: algunas apreciaciones técnico-funcionales en ambientes WEB 1

Nota Técnica. Modelo de Diseño Instruccional de Hannafin & Peck: algunas apreciaciones técnico-funcionales en ambientes WEB 1 Nota Técnica Modelo de Diseño Instruccional de Hannafin & Peck: algunas apreciaciones técnico-funcionales en ambientes WEB 1 YSRAEL ORLANDO MÁRQUEZ RAMÍREZ ysraelmarquez@gmail.com Universidad Nacional

Más detalles

5. MODELOS DE CLIENTE Y SERVIDOR ORIENTADOS A AGENTES MÓVILES

5. MODELOS DE CLIENTE Y SERVIDOR ORIENTADOS A AGENTES MÓVILES SISTEMAS DISTRIBUIDOS DE REDES 5. MODELOS DE CLIENTE Y SERVIDOR ORIENTADOS A AGENTES MÓVILES Programación remota: Introducción y generalidades INTRODUCCIÓN Debido a la dificultad de la arquitectura actual

Más detalles

Jhoan Sebastián Cadavid Jaramillo Ingeniero Industrial, Universidad Nacional de Colombia, jscadav0@unal.edu.co RESUMEN

Jhoan Sebastián Cadavid Jaramillo Ingeniero Industrial, Universidad Nacional de Colombia, jscadav0@unal.edu.co RESUMEN PROBLEMA DE PROGRAMACIÓN DE PRODUCCIÓN ABIERTA CON CARACTERÍSTICAS DE MÁQUINAS MÓVILES DEDICADAS Y CON TIEMPOS DE PREPARACIÓN DEPENDIENTES DE LA SECUENCIA ENTRE ETAPAS Alexander Alberto Correa Espinal

Más detalles

Resolución de problemas en paralelo

Resolución de problemas en paralelo Resolución de problemas en paralelo Algoritmos Paralelos Tema 1. Introducción a la computación paralela (segunda parte) Vicente Cerverón Universitat de València Resolución de problemas en paralelo Descomposición

Más detalles

Introducción a la Computación Distribuida y Condor

Introducción a la Computación Distribuida y Condor Introducción a la Computación E-Ciencia Supercomputación Cluster Tecnologías de Cluster y su Clasificación Servicios Importantes para Clusters Administración y Planificación de Tareas en Clusters Condor

Más detalles

Nombres y Sistemas de Archivos en Sistemas Distribuidos

Nombres y Sistemas de Archivos en Sistemas Distribuidos Nombres y Sistemas de Archivos en Sistemas Distribuidos Definiciones Nombre: cadena de bits o caracteres que se usan para referirse a una entidad. Entidad: casi cualquier cosa en un sistema distribuido.

Más detalles

Temario III Algoritmos Combinatorios y Metaheurísticas

Temario III Algoritmos Combinatorios y Metaheurísticas Temario III Algoritmos Combinatorios y Metaheurísticas Verificación y Validación de Software UNCo 1 Contenidos Combinación de Datos de Test Algoritmos Combinatorios Metaheurísticas Búsqueda Tabú Algoritmos

Más detalles

ALGORITMOS GENÉTICOS ASÍNCRONOS COMBINADOS PARA UNA RED HETEREOGÉNEA DE COMPUTADORAS

ALGORITMOS GENÉTICOS ASÍNCRONOS COMBINADOS PARA UNA RED HETEREOGÉNEA DE COMPUTADORAS ALGORITMOS GENÉTICOS ASÍNCRONOS COMBINADOS PARA UNA RED HETEREOGÉNEA DE COMPUTADORAS Benjamín Barán y Enrique Chaparro Centro Nacional de Computación Universidad Nacional de Asunción Campus Universitario

Más detalles

Evaluación de modelos para la predicción de la Bolsa

Evaluación de modelos para la predicción de la Bolsa Evaluación de modelos para la predicción de la Bolsa Humberto Hernandez Ansorena Departamento de Ingeniería Telemática Universidad Carlos III de Madrid Madrid, España 10003975@alumnos.uc3m.es Rico Hario

Más detalles

Análisis del Sistema de Información

Análisis del Sistema de Información Análisis del Sistema de Información ÍNDICE DESCRIPCIÓN Y OBJETIVOS... 2 ACTIVIDAD ASI 1: DEFINICIÓN DEL SISTEMA... 6 Tarea ASI 1.1: Determinación del Alcance del Sistema... 6 Tarea ASI 1.2: Identificación

Más detalles

Mgter. Alejandro Ramos

Mgter. Alejandro Ramos Mgter. Alejandro Ramos Servidores Centralizados de Ficheros. Sistemas de Base de Datos. Sistemas Distribuidos. Evolución de la Tecnología Cliente Servidor 1 2 3 4 5 1982 1986 1990 1995 1995 - actualmente

Más detalles

Concepto de Procesamiento Distribuido y Centralizado

Concepto de Procesamiento Distribuido y Centralizado Concepto de Procesamiento Distribuido y Centralizado Procesamiento Centralizado: En la década de los años 50 s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:

Más detalles

Evaluación de Algoritmos de Ruteo de Paquetes en Redes de Computadoras. Fax: 54-2652-430224 Fax: 34-91-3367426

Evaluación de Algoritmos de Ruteo de Paquetes en Redes de Computadoras. Fax: 54-2652-430224 Fax: 34-91-3367426 Evaluación de Algoritmos de Ruteo de Paquetes en Redes de Computadoras Berón, Mario Marcelo Gagliardi, Edilma Olinda Departamento de Informática Facultad de Ciencias Físico, Matemáticas y Naturales Universidad

Más detalles

Inteligencia en Redes de Comunicaciones. Tema 7 Minería de Datos. Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda

Inteligencia en Redes de Comunicaciones. Tema 7 Minería de Datos. Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda Inteligencia en Redes de Comunicaciones Tema 7 Minería de Datos Julio Villena Román, Raquel M. Crespo García, José Jesús García Rueda {jvillena, rcrespo, rueda}@it.uc3m.es Índice Definición y conceptos

Más detalles

Centro de Investigación y Desarrollo en Ingeniería en Sistemas de Información (CIDISI)

Centro de Investigación y Desarrollo en Ingeniería en Sistemas de Información (CIDISI) Centro de Investigación y Desarrollo en Ingeniería en Sistemas de Información (CIDISI) OFERTAS TECNOLÓGICAS 1) GESTIÓN ORGANIZACIONAL Y LOGÍSTICA INTEGRADA: TÉCNICAS Y SISTEMAS DE INFORMACIÓN 2) GESTIÓN

Más detalles

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido

Más detalles

Tópicos de implementación en paralelo

Tópicos de implementación en paralelo Apéndice C Esquema PGP. Implementación en un entorno paralelo. Para poder abordar eficazmente la simulación computacional de grandes problemas estructurales, es necesario utilizar estrategias numéricas

Más detalles

Ingeniería de software orientado a agentes

Ingeniería de software orientado a agentes Ingeniería de software orientado a agentes ECSDI LSI-FIB-UPC cbea Curso 2014/2015 ECSDI (LSI-FIB-UPC cbea) Ingeniería de software orientado a agentes Curso 2014/2015 1 / 52 Índice 1 Ingeniería de software

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

Weka como herramienta de data mining

Weka como herramienta de data mining Weka como herramienta de data mining Lic. Aldave Rojas Isaac Alberto Instituto Tecnológico Superior de Ciudad Serdán Abstract El presente trabajo muestra un ejemplo introductorio a la herramienta de Data

Más detalles

Desarrollo de una Aplicación Móvil para Revisar

Desarrollo de una Aplicación Móvil para Revisar Desarrollo de una Aplicación Móvil para Revisar Horarios de Atención de Tutores de la UNAD Development of a Movil Application for Check Over Office Hours of Tutors of the Unad Correa Rodríguez Arellys

Más detalles

6. CONTRIBUCIÓN A LA FORMACIÓN PROFESIONAL Y FORMACIÓN GENERAL Esta disciplina contribuye al logro de los siguientes resultados de la carrera:

6. CONTRIBUCIÓN A LA FORMACIÓN PROFESIONAL Y FORMACIÓN GENERAL Esta disciplina contribuye al logro de los siguientes resultados de la carrera: Universidad Católica San Pablo Facultad de Ingeniería y Computación Programa Profesional de Ciencia de la Computación SILABO CS360. Computación Bioinspirada (Electivo) 2012-2 1. DATOS GENERALES 1.1 CARRERA

Más detalles

Motores de Búsqueda Web Síncronos/Asíncronos

Motores de Búsqueda Web Síncronos/Asíncronos Motores de Búsqueda Web Síncronos/Asíncronos Gil-Costa V. and Printista M. * LIDIC, Dpto. de Informática UNSL +54 (2652) 424027 - Fax: +54 (2652) 430224 Ejército de los Andes 950 5700 - San Luis, Argentina

Más detalles

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES.

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. Autores: Abelardo Rodríguez L.*, Manuel Pérez M. **, Alberto González T. **, José Hernández

Más detalles

Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica

Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica C1. Capacidad para la resolución de los problemas matemáticos que puedan plantearse en la ingeniería. Aptitud para aplicar

Más detalles

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SUPERCÓMPUTO FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC ( ) APOBL

Más detalles

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Copyright 2006 Linalco Consulting, S.L. Linalco Consulting, S.L., autor de este documento,

Más detalles

Evaluación, limpieza y construcción de los datos: un enfoque desde la inteligencia artificial

Evaluación, limpieza y construcción de los datos: un enfoque desde la inteligencia artificial Universidad del Cauca Facultad de Ingeniería Electrónica y Telecomunicaciones Programas de Maestría y Doctorado en Ingeniería Telemática Seminario de Investigación Evaluación, limpieza y construcción de

Más detalles

BIG DATA. Jorge Mercado. Software Quality Engineer

BIG DATA. Jorge Mercado. Software Quality Engineer BIG DATA Jorge Mercado Software Quality Engineer Agenda Big Data - Introducción Big Data - Estructura Big Data - Soluciones Conclusiones Q&A Big Data - Introducción Que es Big Data? Big data es el termino

Más detalles

Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Introducción

Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Introducción Enero 2010 Agrupación en clusters de las aplicaciones de bases de datos para reducir los costos de TI Reorganizarse para lograr eficiencia, rendimiento y alta disponibilidad Introducción La agrupación

Más detalles

FILTRADO DE CONTENIDOS WEB EN ESPAÑOL DENTRO DEL PROYECTO POESIA

FILTRADO DE CONTENIDOS WEB EN ESPAÑOL DENTRO DEL PROYECTO POESIA FILTRADO DE CONTENIDOS WEB EN ESPAÑOL DENTRO DEL PROYECTO POESIA Enrique Puertas epuertas@uem.es Francisco Carrero fcarrero@uem.es José María Gómez Hidalgo jmgomez@uem.es Manuel de Buenaga buenga@uem.es

Más detalles

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas Unidad I Fundamentos de Sistemas Distribuidos M.C. Juan Carlos Olivares Rojas Temario 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos 1.3. Ventajas y desventajas

Más detalles

Qué es CISE? Computing and Information Sciences and Engineering estudia la filosofía, naturaleza,

Qué es CISE? Computing and Information Sciences and Engineering estudia la filosofía, naturaleza, Qué es CISE? Computing and Information Sciences and Engineering estudia la filosofía, naturaleza, representación y transformación de información incluyendo aspectos teóricos como experimentales. Estructura

Más detalles

Introducción. Francisco J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla

Introducción. Francisco J. Martín Mateos. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Francisco J. Martín Mateos Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Qué es la (KE)? Definición de Wikipedia: La es una disciplina cuyo objetivo es integrar conocimiento

Más detalles

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez Supercómputo Oscar Rafael García Regis Enrique Cruz Martínez 2003-I Oscar Rafael García Regis Laboratorio de Dinámica No Lineal Facultad de Ciencias, UNAM Enrique Cruz Martínez Dirección General de Servicios

Más detalles

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928

Alessandro Chacón 05-38019. Ernesto Level 05-38402. Ricardo Santana 05-38928 Alessandro Chacón 05-38019 Ernesto Level 05-38402 Ricardo Santana 05-38928 CONTENIDO Universo Digital Hadoop HDFS: Hadoop Distributed File System MapReduce UNIVERSO DIGITAL 161 EB 2006 Fuente: International

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET LA PLATAFORMA GOOGLE CLOUD PLATFORM. GOOGLE APP ENGINE Pedro A. Castillo Valdivieso Universidad de Granada http://bit.ly/unia2014

Más detalles

Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982

Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982 Curriculum Vitæ DATOS PERSONALES Nombre: Jair Montoya Martínez. Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982 Teléfono (Medellín): 235 23 61 Teléfono (Barrancabermeja): 057-622

Más detalles

Tema 13. Metodologías en el desarrollo de Sistemas de Software. Prof. Oscar Adolfo Vallejos

Tema 13. Metodologías en el desarrollo de Sistemas de Software. Prof. Oscar Adolfo Vallejos Tema 13 Metodologías en el desarrollo de Sistemas de Software Prof. Oscar Adolfo Vallejos Desarrollo de Sistemas de Software Objetivo Conceptos en el contexto más amplio de Software e Ingeniería de Software

Más detalles

Prototipo de virtualización de un caso de estudio para fundamentar la virtualización en el SNEST

Prototipo de virtualización de un caso de estudio para fundamentar la virtualización en el SNEST L u n a G a r c í a F e l i p e - M a r t í n e z Z a m u d i o M a r í a d e L o u r d e s V Í N C U L O S J U L I O D E 2 0 1 3 VOLUMEN 10 NÚMERO 2 Prototipo de virtualización de un caso de estudio para

Más detalles

CURSO MINERÍA DE DATOS AVANZADO

CURSO MINERÍA DE DATOS AVANZADO CURSO MINERÍA DE DATOS AVANZADO La minería de datos (en inglés, Data Mining) se define como la extracción de información implícita, previamente desconocida y potencialmente útil, a partir de datos. En

Más detalles

HADOOP, como una plataforma de procesamiento masivo de datos

HADOOP, como una plataforma de procesamiento masivo de datos HADOOP, como una plataforma de procesamiento masivo de datos Esquema de Trabajo Objetivo Alcances Limitaciones Fundamentos Teóricos Análisis Preliminar Herramientas Estructura del Cluster Resultados Desarrollo

Más detalles

Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas

Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas 1. DEFINICIONES, UBICACIÓN CONCEPTUAL E HISTORIA DE LA I.A. 2. COMPLEJIDAD COMPUTACIONAL, EXPLOSIÓN COMBINATORIA, DOMINIOS NO

Más detalles

CLASIFICACIÓN NO SUPERVISADA

CLASIFICACIÓN NO SUPERVISADA CLASIFICACIÓN NO SUPERVISADA CLASIFICACION IMPORTANCIA PROPÓSITO METODOLOGÍAS EXTRACTORES DE CARACTERÍSTICAS TIPOS DE CLASIFICACIÓN IMPORTANCIA CLASIFICAR HA SIDO, Y ES HOY DÍA, UN PROBLEMA FUNDAMENTAL

Más detalles

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO TUTORIAL : COMPUTACIÓN de ALTO DESEMPEÑO SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Computadores paralelos

Más detalles

Integrando Información de Fuentes Relevantes para un Sistema Recomendador

Integrando Información de Fuentes Relevantes para un Sistema Recomendador Integrando Información de Fuentes Relevantes para un Sistema Recomendador Silvana Aciar, Josefina López Herrera and Javier Guzmán Obando Agents Research Laboratory University of Girona {saciar, jguzmano}@eia.udg.es,

Más detalles

INGENIERIA DE SOFTWARE I INTRODUCCIÓN A LA INGENIERIA DE SOFTWARE

INGENIERIA DE SOFTWARE I INTRODUCCIÓN A LA INGENIERIA DE SOFTWARE INGENIERIA DE SOFTWARE I INTRODUCCIÓN A LA INGENIERIA DE SOFTWARE Agenda El software. Definición de software Dominios de aplicación Software heredado La naturaleza de las webapps Ingeniería del software

Más detalles

La importancia del desarrollo para el buen diseño del software

La importancia del desarrollo para el buen diseño del software La importancia del desarrollo para el buen diseño del software RESUMEN N L González Morales. 1 En este ensayo se examinan los temas vistos en clase que son Desarrollo de Orientado a Objetos y Arquitectura

Más detalles

CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN.

CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN. SISTEMA EDUCATIVO inmoley.com DE FORMACIÓN CONTINUA PARA PROFESIONALES INMOBILIARIOS. CURSO/GUÍA PRÁCTICA GESTIÓN EMPRESARIAL DE LA INFORMACIÓN. Business Intelligence. Data Mining. PARTE PRIMERA Qué es

Más detalles

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio?

Big Data en la nube. Use los datos. Obtenga información. La pregunta clave es: Qué puede hacer Doopex por mi negocio? Qué es Doopex? Big Data en la nube. Use los datos. Obtenga información. Seguramente, la pregunta clave no es Qué es Doopex?. La pregunta clave es: Qué puede hacer Doopex por mi negocio? El objetivo de

Más detalles

Symantec Enterprise Vault 7.0

Symantec Enterprise Vault 7.0 Symantec Enterprise Vault 7.0 Almacene, gestione e identifique información empresarial vital La presión a la que están sometidas las organizaciones para proteger y gestionar los datos se ha intensificado

Más detalles

Notas. Introducción. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow. Palabras claves: Groupware, Workflow, BPCM, WfMC.

Notas. Introducción. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow. Palabras claves: Groupware, Workflow, BPCM, WfMC. Breve Introducción a los Sistemas Colaborativos: Groupware & Workflow Palabras claves: Groupware, Workflow, BPCM, WfMC. Introducción A partir de la llegada de las computadoras personales al ambiente empresarial

Más detalles

LA GESTIÓN DEL CONOCIMIENTO

LA GESTIÓN DEL CONOCIMIENTO Plan de Formación 2006 ESTRATEGIAS Y HABILIDADES DE GESTIÓN DIRECTIVA MÓDULO 9: 9 LA ADMINISTRACIÓN ELECTRÓNICA EN LA SOCIEDAD DE LA INFORMACIÓN LA GESTIÓN DEL CONOCIMIENTO José Ramón Pereda Negrete Jefe

Más detalles

CARTOGRAFIADO DE TEXTOS Métodos Iconográficos de Observación, Exploración y Comunicación Aplicados a la Minería de Textos

CARTOGRAFIADO DE TEXTOS Métodos Iconográficos de Observación, Exploración y Comunicación Aplicados a la Minería de Textos CARTOGRAFIADO DE TEXTOS Métodos Iconográficos de Observación, Exploración y Comunicación Aplicados a la Minería de Textos Anteproyecto de Tesis de Magíster en Ingeniería del Software Tesista: Lic. Matilde

Más detalles

introducción Simulación de flujos de fluidos utilizando grillas de de cómputo resumen

introducción Simulación de flujos de fluidos utilizando grillas de de cómputo resumen resumen Dentro de los procesos académicos de la Universidad de San Buenaventura se adelantan investigaciones en el Área de Diseño de Prototipos de Aviones, mediante simulaciones computacionales enfocadas

Más detalles

Minería de Datos. Vallejos, Sofia

Minería de Datos. Vallejos, Sofia Minería de Datos Contenido Introducción: Inteligencia de negocios (Business Intelligence). Componentes Descubrimiento de conocimiento en bases de datos (KDD). Minería de Datos: Perspectiva histórica. Fases

Más detalles

Sistemas Multi Agente (SMA) & Inteligencia Artificial Distribuida (IAD)

Sistemas Multi Agente (SMA) & Inteligencia Artificial Distribuida (IAD) Sistemas Multi Agente (SMA) & Inteligencia Artificial Distribuida (IAD) Fundamentos, Arquitecturas, Aplicaciones & Metodologías de Diseño y Desarrollo Prof. Demetrio A. Ovalle C., Ph.D. Agosto 13 de 2009

Más detalles

Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta

Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta Descripción general de la solución Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta Lo que aprenderá A medida que tecnologías como la nube, la movilidad, los medios sociales

Más detalles