Particionamiento Numérico CIMPA-UCR. usando Metaheurísticas de Optimización

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Particionamiento Numérico CIMPA-UCR. usando Metaheurísticas de Optimización"

Transcripción

1 Particionamiento Numérico usando Metaheurísticas de Optimización 1 Métodos de vecindarios 1.1 Sobrecalentamiento simulado 1.2 Búsqueda tabú

2 Optimizacion Combinatoria F: S R S: espacio de estados (soluciones posibles) Minimización: hallar i opt tal que F(i opt ) F(i), para todo i S Maximización: hallar i opt tal que F(i opt ) F(i), para todo i S

3 Búsqueda local Defina una estructura de vecindarios: cómo generar un nuevo estado i a partir del estado actual i Escoger i 0 i :=i 0 ; k:=0 i := i k := k+1 Generar S(i) i S(i): F(i ) < F(i) falso i minimiza F en S(i) k verda dero

4 Sobrecalentamiento simulado También conocido como Recocido simulado, Recocción simulada, o Temple simulado. Son traducciones de Simulated annealing Método iterativo que usa un parámetro externo de temperatura T, que controla la aceptación de nuevos estados con un costo peor

5 Ilustración del SS Habilidad para evitar mínimos locales F i * S

6 Regla de Metropolis Un nuevo estado i (en el vecindario del estado actual i) es aceptado si: El costo F decrece, Si no, puede ser aceptado con probabilidad donde F = F(i ) F(i) exp(- F / T)

7 Ilustración de la R. Metrop. exp(- F / T) t = 1 t max t T

8 Convergencia SS converge asintóticamente (con probabilidad 1) al mínimo global Una cadena de Markov (homogénea) es asociada a cada valor de T Condiciones: reversibilidad y conexidad

9 Reversibilidad La probabilidad de regresar es la misma: i G(i,i ) = G ii i i i G(i,i) = G ii

10 Conexidad Hay una cadena finita entre dos estados, con probabilidades de paso > 0 i i

11 Implementación T 0 : temperatura inicial (estimación mediante unas corridas en blanco con tasa inicial χ 0 ) T f : temperatura (cuando T 0) T t+1 := γt t ;γ [0.8,0.99] (enfriamiento) L t : longitud de las cadenas de Markov F: sencillo de calcular Reversibilidad y conexidad

12 Implementación T 0 : temperatura inicial (estimación mediante unas corridas en blanco con tasa inicial χ 0 ) T f : temperatura (cuando T 0) T t+1 := γt t ;γ [0.8,0.99] (enfriamiento) L t : longitud de las cadenas de Markov F: sencillo de calcular Reversibilidad y conexidad

13 Diagrama del SS Escoger i 0 i :=i 0 ; k:=0 Mejora?(i,T): Aplicar la regla de Metropolis Encontrar un vecino y se acepta si es mejor, si no se acepta aleatoriamente de acuerdo con la temperatura actual T i := i k := k+1 Generar S(i) Mejora?(i,T) falso i minimiza F en S(i) k verdadero

14 SS en Particionamiento A partir de una partición P generar P como sigue: 1. Escoger al azar (unif. en [1,n]) un objeto x Ω 2. Escoger al azar(unif. en [1,k]) un índice de clase l 3. Poner a en la clase C l Nota: corresponde a lo que S. Régnier llamaba transferencia

15 Características Reversibilidad: la probabilidad de P P es la misma que la probabilidad de P P Conexidad: siempre es posible generar cualquier partición P a partir de cualquier P (hay un # finito de transferencias) Vecindarios tienen el mismo tamaño: n(k-1) G ss = 1/n(k-1)

16 Simplificaciones ) ( 1 1 }) { ( ) ( 1 1 }) { ( 1) ( 1) ( ') ( ) ( 2 2 x g x g x g x g x g x g + + = = + = = l l l l j j j j l l l j j j C C C C C C C n C C n C W P W P W

17 Búsqueda tabú Examen de vecindarios Maneja una lista tabú, que prohíbe regresar a estados previamente visitados La lista tabú contiene movimientos Se debe escoger el mejor vecino, que no sea tabú Criterio de aspiración: cómo eliminar el estado tabú a un buen vecino

18 Busqueda Tabú Heurística basada en el examen de un vecindario de un estado y la escogencia del mejor vecino Se manejo una lista tabú que prohíbe el acceso a estados similares a los estados recientemente visitados, procurando evitar los ciclos Hay mucha variantes que pueden mejorar los resultados (criterios de aspiración, estados elite, diversificación, intensificación, uso de muestras en los vecindarios, listas tabú de talla dinámica,...)

19 Particionamiento con BT Estado: partición P en k clases de Ω Criterio: minimizar W Movimiento: crear P por transferencia de un único objeto a una nueva clase Lista tabú: indicador de la clase que contenía al objeto transferido

20 Particionamiento con BT Estado: partición P en k clases de Ω Criterio: minimizar W Movimiento: construir P por la transferencia de un individuo hacia una nueva clase Lista tabú: indicadoras de la clase donde estaba el individuo transferido

21 Ilustración de la BT Sean los datos: Se quieren clasificar en 3 clases Partición inicial: ( ) con W = 3.52

22 Iteración 1 Partición (21111) (31111) (12111) (13111) (11211) (11311) (11121) (11131) (11112) (11113) W Lista tabú:

23 Iteración 2 Partición (11111) (21111) (32111) (31112) (33111) (31211) (31311) (31121) (31131) (31113) W Tabú Tabú Lista tabú:

24 Iteración 3 Partición W (12111) 3.00 (22111) (33111) 1.17 (31111) 2.15 Tabú (32211) (32112) 1.50 (32311) (32131) (32121) (32113) Tabú Lista tabú:

25 Iteración 4 Partición (13111) (23111) (32111) (31111) (33211) (33311) (33121) (33131) (33112) (33113) W Tabú Tabú Lista tabú:

26 Evolución de Valores W = 3.52 W = 2.15 W = 1.07 W = 1.17 W = 0.30

27 Más sobre BT Estados elite: registro de los mejores estados visitados Intensificación: en un sector bueno, continuar la búsqueda Diversificación: cambiar el sector del espacio de búsqueda Generación aleatoria de una muestra de vecinos

28 Diagrama de BT Escoger i 0 i :=i 0 ; k:=0 Mejora?(i,T): Depende de la lista tabú y del estado actual i Analyza todo el vecindario o una muestra de él i := i k := k+1 Generar S(i) mejora?(i,t) false i minimiza F sobre S(i) k true

29 Particionamiento Numérico 2 Métodos multiagentes 2.1 Algoritmos genéticos 2.2 Colonias de hormigas 2.3 Enjambres de partículas

30 Algoritmos genéticos Algoritmos iterativos que simulan la evolución de las especies en la Naturaleza Principios: Representación cromosómica de los estados Función de adaptación (al medio ambiente), Selección de los elementos mejor adaptados Combinación de las características de los elementos usando operadores genéticos Mutaciones Cruzamientos

31 Evolución del AG 1 F(j) j m P(0) P(1) P(2)

32 Elementos del AG 1 j F(j) Función de adaptación Selección Mutación Cruzamiento m Cromosomas P(t)

33 Operadores genéticos Mutación: Cruzamiento: con probabilidad p m } { con probabilidad p c

34 Evolución del AG 1 Población F(j) j m Selección Operadores (p m,p c )

35 AG para particionamiento Estados: índices de clases ( ) x 1 x 2 x 3.. x n Función de adaptación: B Selección: ruleta aleatoria proporcional a B Cruzamiento: con probabilidad p c (cromos.) Mutación: con probabilidad p m (alelo)

36 Cruzamiento Dados dos padres, escoger al azar una clase en el primero y copiarla en el segundo, para generar un hijo Ejem. : P 1 = ( ) P 2 = ( ) P 1 : {x 1,x 2,x 5,x 6 }, {x 3,x 7,x 9,x 10 }, {x 4,x 8,x 11,x 12 } P 2 : {x 1,x 2,x 4,x 7 }, {x 3,x 5,x 8,x 9 }, {x 6,x 10,x 11,x 12 }

37 Cruzamiento (2) Escoger al azar (unif.) la clase 2 de P 1 : P 1 = ( ) Copiar la clase 2 de P 1 en P 2 : Crear la partición: P 2 = ( ) H = ( ) H : {x 1,x 2,x 4 }, {x 3,x 5,x 7,x 8,x 9,x 10 }, {x 6,x 11,x 12 }

38 Mutación Modicar un índice de clase escogido al azar: Ejem. P = ( ) Si se escoge x 3 al azar (unif. in [1,n]) entonces la clase de pertenencia de x 3 es transformada en la clase 2 (índice escogido al azar unif. en [1,k]): H = ( )

39 Ejemplo: Notas escolares Mate. Ciencias Historia Latín Ed. Fis. Jean Alain Anne Monique Didier André Pierre Brigitte Evelyne

40 Componentes Principales

41 Ilustración del AG 3 clases 4 clases Iteración Max Min Media Max Min Media

42 Colonias de hormigas Metáfora: cómo hacen las hormigas para buscar alimento y evitar obstáculos Reforzamiento: trazo de feromonas Representación de las soluciones Se maneja una población de hormigas Cada hormiga construye o modifica una solución Heurística local o visibilidad Regla para actualizar las feromonas Regla probabilística de transición

43 Colonias de hormigas ACO: Ant Colony Optimization Metafora: manera como buscan alimento las hormigas Reforzamiento: trazo de feromona

44 ACO en Particionamiento M hormigas asociadas a M particiones Cada hormiga modifica su particion Heurística local: η ij = 1/d(i,j) Trazo de feromonas: τ ij (t)

45 ACO en Particionamiento Sea m una hormiga Sea i un objeto escogido al azar Se escoge un objeto j con probabilidad

46 Trazo de feromonas Para i,j Ω: con ρ ]0,1]: parámetro de evaporación

47 Algoritmo ACOCLUS Inicializar τ = τ 0 ; calcular η; inicializar p Dar P 1,,P m (al azar) Para t = 1 hasta t max hacer Para m = 1 hasta M, hacer S veces Escoger al azar i Ω Escoger j segun las reglas dadas Calcular B(P 1 ),,B(P m ) y actualizar τ

48 Enjambres de partículas Particle Swarm Optimization (PSO): Kennedy & Eberhardt (1995) Modela el comportamiento social: cada individuo trata de mejorar de acuerdo con su propia experiencia y observando a sus vecinos Se maneja una población de M partículas o agentes en un espacio multidimensional

49 Principios de la PSO Para cada partícula: Recordar mi mejorposición en el pasado Pregunto a mis vecinos por su mejor posición Tendencias: 1. Seguir mi camino (inercia) 2. Regresar a mimejor posición (conservador) 3. Imitatar al líder (imitación)

50 PSO: modelo v m ( t [ ( ) ( )] [ ( ) ( )] * * z t z t + z t z + 1) = αv( t) + λ λ 1 m m 2 m t z m ( t + 1) = z ( t) + v ( t + 1) m m donde: λ ϕ = rand(0, ϕ ), λ = rand(0, ϕ ) = ϕ 1 + ϕ 2

51 PSO Modelo (t v m + 1) =α v m ( t) + + rand(0, ϕ ) 1 + rand(0, ϕ ) 2 [ ] * zm( t) zm( t) [ ( ) ( )] * z t z t m + Inercia Regresar Imitación z m ( t + 1) = z ( t ) + v ( t + m m 1)

52 Ilustración de PSO

53 Ilustración de PSO líder regresar a mi mejor posición z * z m (t+1) z m (t) v m (t) z * m inercia imitación

54 Ilustración de PSO z * z m (t+1) z m (t) z * m v m (t) v z m m ( t [ ( ) ( )] [ ( ) ( )] * * z t z t + z t z + 1) = α v ( t) + λ λ m ( t + 1) = z ( t ) + v ( t + m 1 m m 2 m t m 1)

55 Condiciones Definir: κ χ = ][ ] [ ϕ 4ϕ e 2)( ϕ 1) 11+ = ( ϕ 2 ϕ 2 + 2κ ϕ 2 4ϕ 2 Heuristica, resultados parciales: α = e Condiciones para no divergencia: κ ]0,1[ 1+ χ( ϕ α = ϕ 1 2) Resultados empírico: κ 0.577,4 < ϕ 4.276

56 PSO en particionamiento Cada partícula es un conjunto de K centroides g 1,...g K R p Cada centroide tiene asociada una clase C k por asignación de los objetos a la clase del centroide más cercano Los centroides se mueven en R p de acuerdo con los principios de la PSO y la partición se redefine por asignación Las partículas se mueven en R Kp

57 Algoritmo Repeat for t=1,2,... max_iter or convergencia For m=1:m (particulas) For k=1:k (clases) use ecuación de PSO para cada variable numérica Asigne los objetos al centroide más cercano Actualizar mejor posición de partícula m Actualizar mejor partícula global

58 Parámetros α = 0.5: coeficiente para v i (t) ϕ = ϕ 1 + ϕ 2 4: suma de coefficients aleat. ε (tolerancia): para convergencia Máximo # de iteraciones (= 200)

59 Métodos comparados Nuestros métodos: SA: Sobrecalentamiento simulado TS: Búsqueda tabú GA: Algoritmo genético ACO: Colonias de hormigas PSO: Enjambres de partículas Métodos clásicos: KM: k-means Ward: Clasif. Jerárquica Ascendente

60 Resultados comparativos Tablas de datos reales Tablas de datos simuladas

61 Resultados preliminares Cuatro tablas de datos de la literatura: Notas escolares francesas (9 x 5) Peces de Amiard (23 x 16) Sociomatriz de Thomas (24 x 24) Iris de Fisher (150 x 4)

62 Parámetros de comparación Mínimo valor de inercia W(P) Porcentaje de veces alcanzado (tasa de atracción)

63 Resultados: Notas Escolares Tabla 9 x 5 K W PSO #=100 SA #=150 TS #=1000 GA #=100 ACO #=25 KM #=10000 Ward No No Sí Sí

64 Resultados: Peces de Amiard Tabla 23 x 16 K W PSO #=100 SA #=150 TS #=200 GA #=100 ACO #=25 KM #=10000 Ward No No Sí

65 Resultados: Sociomatriz de Thomas Tabla 24 x 24 K W PSO #=100 SA #=150 TS #=200 GA #=100 ACO #=25 KM #=10000 Ward No No No

66 Resultados: Iris de Fisher Tabla 150 x 4 K W PSO SA TS GA ACO KM Ward #=100 #=150 #=1000 #=100 #=25 #= No No No No

67 Experimentación Simulación de Monte-Carlo: Generar variables gaussianas N (µ,σ 2 ) Número de objetos (100,500) Number of clusters (3,7) Varianza σ 2 (similares, diferentes) Cardinalidades de las clases (similares, diferentes)

68 Tablas de Datos: Experimento Factores # objetos # clases Card clases Desv.est. Nivel C i = C j s i = s j Nivel C 1 > C j, j 1 s 2 > s j, j 2 Repeticiones : 100

69 Tablas de Datos

70 *.def Generación de las Tablas de Datos *.esp *.dat

71 Parámetros SA TS GA

72 Desarrollo de Software Programación en Delphi Implementación de nuestros métodos aplicando las Metaheurísticas de Optimización Generación aleatoria de tablas de datos Comparaciones: tablas resumen

73 Generación de Datos

74 Métodos

75 Ejemplo: SS

76 Ejemplo: AG & ACO

77 Parámetros de comparación: Mínimo valor de inercia W(P) Porcentaje de veces alcanzado Valor promedio de W en las ejecuciones % de mala clasificación

78 Comparación de métodos

79 Resultados 1 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

80 Resultados 2 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

81 Resultados 3 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

82 Resultados 4 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % Alg.Gen % Hormigas % K-medias % Ward %

83 Resultados 5 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

84 Resultados 6 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

85 Resultados 7 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %

86 Resultados 8 n K C k σ = W 0 = 9.37 W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

87 Resultados 9 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

88 Resultados 10 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %

89 Resultados 11 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

90 Resultados 12 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %

91 Resultados 13 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

92 Resultados 14 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

93 Resultados 15 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

94 Resultados 16 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %

95 Frecuencia de W*

96 Valor medio de W

97 Parametros SA TS GA

98 Resultados Tiempo Tiempo aproximado en minutos para cada corrida

99 Observaciones finales El método jerárquico de Ward es el peor Cuando las cardinalidades son iguales, los métodos obtienen los mismos óptimos; sin embargo, SS tiene mejor tasa de atracción (100%) Cuando las cardinalidades son diferentes y se desean muchas clases, SS y BT tienen problemas, incluso k- medias es mejor. En este caso, AGA y ACO son claramente los mejores ACO se comporta bien con diferentes varianzas y cardinalidades El método más rápido es k-medias y el más lento es BT La calibración de los parámetros es una tarea difícil.

Son una clase particular de los algoritmos evolutivos.

Son una clase particular de los algoritmos evolutivos. Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver

Más detalles

Inteligencia Artificial

Inteligencia Artificial Algoritmos genéticos Bases En la naturaleza todos los seres vivos se enfrentan a problemas que deben resolver con éxito, como conseguir más luz solar o conseguir comida. La Computación Evolutiva interpreta

Más detalles

Una Versión de ACO para Problemas con Grafos de. muy Gran Extensión. Enrique Alba y Francisco Chicano. Introducción. ACOhg.

Una Versión de ACO para Problemas con Grafos de. muy Gran Extensión. Enrique Alba y Francisco Chicano. Introducción. ACOhg. 1/22 Puerto de La Cruz, Tenerife, España, 14 a 16 de Febrero de 2007 Una Versión de ACO para s con Grafos de muy Gran Extensión Enrique Alba y Francisco Chicano Puerto de La Cruz, Tenerife, España, 14

Más detalles

Algoritmos basados en hormigas

Algoritmos basados en hormigas Algoritmos basados en hormigas Inteligencia Artificial Avanzada 1er. Semestre 2008 1 Aspectos Generales La metáfora de los insectos sociales para resolver problemas ha sido un tema importante a partir

Más detalles

Tema 1. Heurísticos en Optimización Combinatorial

Tema 1. Heurísticos en Optimización Combinatorial Tema 1. Heurísticos en Optimización Combinatorial p. 1/2 Tema 1. Heurísticos en Optimización Combinatorial Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e

Más detalles

ALGORÍTMICA

ALGORÍTMICA ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda

Más detalles

ALGORÍTMICA

ALGORÍTMICA ALGORÍTMICA 2012 2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda

Más detalles

Programación Evolutiva

Programación Evolutiva Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:

Más detalles

Inteligencia colectiva.

Inteligencia colectiva. Métodos evolutivos.. A. Jiménez, A. Murillo, E. Piza, M. Villalobos, J. Trejos. April 27, 2010 Descripción Métodos evolutivos 1 Métodos evolutivos Algoritmos genéticos 2 Colonias de hormigas Problema de

Más detalles

Tema 2: Algoritmos Genéticos

Tema 2: Algoritmos Genéticos Tema 2: Algoritmos Genéticos p. 1/3 Tema 2: Algoritmos Genéticos Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País

Más detalles

Índice. Planteamiento del Problema. UDS mediante SA. UDS mediante SA. Unidimensional Scaling y. Multidimensional Scaling (MDS)

Índice. Planteamiento del Problema. UDS mediante SA. UDS mediante SA. Unidimensional Scaling y. Multidimensional Scaling (MDS) Unidimensional Scaling (UDS) Multidimensional Scaling (MDS) Álex Murillo*, Javier Trejos, Eduardo Piza, Mario Villalobos y Alejandra Jimenez** CIMPA - Universidad de Costa Rica *Sede del Atlántico **Instituto

Más detalles

ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA

ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mosaicos Matemáticos No. 11 Diciembre, 23. Nivel Superior ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mario Alberto Villalobos Arias Departamento de Matemáticas Centro de Investigación y de

Más detalles

NUEVO METODO DE OPTIMIZACION: BIG BANG BIG CRUNCH

NUEVO METODO DE OPTIMIZACION: BIG BANG BIG CRUNCH NUEVO METODO DE OPTIMIZACION: BIG BANG BIG CRUNCH OSMAN K. EROL IBRAHIM EKSIN Istanbul Technical University GABRIEL LEIVA FRANCISCO ORTIZ SERGIO FERNANDEZ 1 OBJETIVO DE LA INVESTIGACIÓN Mejorar el criterio

Más detalles

Metaheurísticas y heurísticas. Algoritmos y Estructuras de Datos III

Metaheurísticas y heurísticas. Algoritmos y Estructuras de Datos III Metaheurísticas y heurísticas Algoritmos y Estructuras de Datos III Metaheurísticas Heurísticas clásicas. Metaheurísticas o heurísticas modernas. Cuándo usarlas? Problemas para los cuales no se conocen

Más detalles

El problema de selección de carteras: modelos y algoritmos

El problema de selección de carteras: modelos y algoritmos El problema de selección de carteras: modelos y algoritmos Enriqueta Vercher González Departamento de Estadística e Investigación Operativa. Universitat de València Facultad de CC. Económicas y Empresariales.

Más detalles

Introducción la placa alveolar OBJETO Y ALCANCE DE LA TESIS REQUISITOS EXIGIBLES A LOS PRODUCTOS DE CONSTRUCCIÓN...

Introducción la placa alveolar OBJETO Y ALCANCE DE LA TESIS REQUISITOS EXIGIBLES A LOS PRODUCTOS DE CONSTRUCCIÓN... Indice general. Índice general. Introducción la placa alveolar... 59 1.1 OBJETO Y ALCANCE DE LA TESIS.... 59 1.2 REQUISITOS EXIGIBLES A LOS PRODUCTOS DE CONSTRUCCIÓN.... 64 1.3 LA PLACA ALVEOLAR EN SITUACIÓN

Más detalles

Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado

Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado Cristhian D SANDOVAL Ximena GALINDO Roberto E SALAS RESUMEN Este artículo expone el diseño del prototipo de

Más detalles

ALGORÍTMICA

ALGORÍTMICA ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda

Más detalles

Grafos Eulerianos y Hamiltonianos. Algoritmos y Estructuras de Datos III

Grafos Eulerianos y Hamiltonianos. Algoritmos y Estructuras de Datos III Grafos Eulerianos y Hamiltonianos Algoritmos y Estructuras de Datos III Grafos eulerianos Definiciones: Un circuito C en un grafo (o multigrafo) G es un circuito euleriano si C pasa por todos las aristas

Más detalles

BIOINFORMÁTICA

BIOINFORMÁTICA BIOINFORMÁTICA 2013-2014 PARTE I. INTRODUCCIÓN Tema 1. Computación Basada en Modelos Naturales PARTE II. MODELOS BASADOS EN ADAPTACIÓN SOCIAL (Swarm Intelligence) Tema 2. Introducción a los Modelos Basados

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

SIMULADOR DE SISTEMAS MULTI-ROBOTS UTILIZANDO MODELOS DE ENJAMBRE PARA LA COORDINACION DE TAREAS

SIMULADOR DE SISTEMAS MULTI-ROBOTS UTILIZANDO MODELOS DE ENJAMBRE PARA LA COORDINACION DE TAREAS SIMULADOR DE SISTEMAS MULTI-ROBOTS UTILIZANDO MODELOS DE ENJAMBRE PARA LA COORDINACION DE TAREAS Wilson Pérez Angel Gil Yurisan Collado weps84@gmail.com agil@unet.edu.ve yurisan29@gmail.com Laboratorio

Más detalles

Tema 6: Búsqueda local y algoritmos genéticos

Tema 6: Búsqueda local y algoritmos genéticos Tema 6: Búsqueda local y algoritmos genéticos José Luis Ruiz Reina Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial I, 2012 Índice Problemas

Más detalles

BÚSQUEDA TABÚ (Tabu Search TS)

BÚSQUEDA TABÚ (Tabu Search TS) BÚSQUEDA TABÚ (Tabu Search TS) Oscar Lozano Búsqueda Tabú Metaheurístico que usa búsqueda agresiva del óptimo del problema. Agresiva = evitar que la búsqueda quede "atrapada" en un óptimo local que no

Más detalles

Algoritmos basados en inteligencia de enjambres: Hormigas y Abejas

Algoritmos basados en inteligencia de enjambres: Hormigas y Abejas Algoritmos basados en inteligencia de enjambres: Hormigas y Abejas Miguel Cárdenas Montes - Antonio Gómez Iglesias Centro de Investigaciones Energéticas Medioambientales y Tecnológicas, Madrid, Spain miguel.cardenas@ciemat.es

Más detalles

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1 Funciones de mérito José Francisco Tudón Maldonado Mario Roberto Urbina Núñez 9 de abril de 011 1 Introducción Las funciones de mérito surgen para determinar en un algoritmo que resuelve un problema de

Más detalles

Simulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico.

Simulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico. Simulación Temario de la clase Introducción. Generacion de variables aleatorias: método de la transformada inversa. Avance del tiempo de simulación. Determinación de la cantidad de iteraciones requeridas.

Más detalles

Algoritmos genéticos

Algoritmos genéticos Algoritmos genéticos Introducción 2 Esquema básico 3 El problema de la mochila 7 Asignación de recursos 0 El problema del viajante 3 Variantes del esquema básico 5 Por qué funciona? 9 Observaciones finales

Más detalles

Tema 8: Métodos de cadenas de Markov Monte Carlo

Tema 8: Métodos de cadenas de Markov Monte Carlo Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas

Más detalles

Tema 5: Algoritmos Genéticos

Tema 5: Algoritmos Genéticos Tema 5: Algoritmos Genéticos José Luis Ruiz Reina Miguel A. Gutiérrez Naranjo Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial Búsqueda

Más detalles

Inteligencia Computacional (IA95 021) Algoritmos Simples de Optimización Ciega

Inteligencia Computacional (IA95 021) Algoritmos Simples de Optimización Ciega Algoritmos Simples de Optimización Ciega c M. Valenzuela 1996 2002 (17 de enero de 2006) 1. Optimización ciega 1.1. Introducción Algoritmos genéticos y recocido simulado son métodos de optimización ciega.

Más detalles

ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS)

ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS) ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS) AGRUPAMIENTOS Cuál agrupamiento es mejor? MÉTODOS DE AGRUPACIÓN Métodos jerárquicos: Los objetos se agrupan (dividen) i por partes hasta clasificar todos los

Más detalles

A MEMETIC ALGORITHM FOR. Zhipeng Lü, Jin-Kao Hao

A MEMETIC ALGORITHM FOR. Zhipeng Lü, Jin-Kao Hao A MEMETIC ALGORITHM FOR GRAPH COLORING Zhipeng Lü, Jin-Kao Hao European Jornal of Operational Research Introducción Aplicaciones generales Aplicaciones prácticas Heurísticas Algoritmo propuesto: MACOL

Más detalles

Introducción a la Computación (Matemática)

Introducción a la Computación (Matemática) Introducción a la Computación (Matemática) Heurísticas de Programación Introducción a la Computación Menú del día de hoy Problemas Difíciles P y NP Viajante de Comercio Coloreo Problema de la mochila Ruteo

Más detalles

Diseño de Bloques al azar. Diseño de experimentos p. 1/25

Diseño de Bloques al azar. Diseño de experimentos p. 1/25 Diseño de Bloques al azar Diseño de experimentos p. 1/25 Introducción En cualquier experimento, la variabilidad proveniente de un factor de ruido puede afectar los resultados. Un factor de ruido es un

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Preparación de los datos de entrada

Preparación de los datos de entrada Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:

Más detalles

Identificación mediante el método de los mínimos cuadrados

Identificación mediante el método de los mínimos cuadrados Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:

Más detalles

Primero se inicializan dos puntos (tantos como clusters queremos) al azar. Estos puntos se denominan centroides del cluster.

Primero se inicializan dos puntos (tantos como clusters queremos) al azar. Estos puntos se denominan centroides del cluster. K-Means Introducción El algoritmo k-means es el algoritmo de clustering más popular y ampliamente utilizado. Algoritmo Supongamos que queremos agrupar los siguientes datos en dos clusters Primero se inicializan

Más detalles

OPTIMIZACIÓN VECTORIAL

OPTIMIZACIÓN VECTORIAL OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de

Más detalles

CAPÍTULO 3. GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica.

CAPÍTULO 3. GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica. CAPÍTULO 3 GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica. Estos problemas se aplican en distintas áreas, tales como:

Más detalles

Un Algoritmo Memético basado en PSO para la programación de producción en una fábrica de flujo continuo.

Un Algoritmo Memético basado en PSO para la programación de producción en una fábrica de flujo continuo. Un Algoritmo Memético basado en PSO para la programación de producción en una fábrica de flujo continuo. Bo Liu, Ling Wang, y Yi-Hui Jin Resumen: Este artículo propone un algoritmo memético (MA) eficiente,

Más detalles

Métodos evolutivos de Optimización. Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid

Métodos evolutivos de Optimización. Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid Métodos evolutivos de Optimización Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid Indice Introducción Método de Montecarlo Algoritmos genéticos Tabú Search Simulated

Más detalles

Método de mínimos cuadrados (Continuación)

Método de mínimos cuadrados (Continuación) Clase No. 11: MAT 251 Método de mínimos cuadrados (Continuación) Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Introducción a Aprendizaje no Supervisado

Introducción a Aprendizaje no Supervisado Introducción a Aprendizaje no Supervisado Felipe Suárez, Álvaro Riascos 25 de abril de 2017 2 / 33 Contenido 1. Motivación 2. k-medias Algoritmos Implementación 3. Definición 4. Motivación 5. Aproximación

Más detalles

Una introducción al análisis dinámico. Análisis del algoritmo de Euclides para enteros.

Una introducción al análisis dinámico. Análisis del algoritmo de Euclides para enteros. Una introducción al análisis dinámico. Análisis del algoritmo de Euclides para enteros. Eda Cesaratto Universidad Nacional de Gral. Sarmiento and CONICET (Argentina) Jornadas de Combinatoria Analítica

Más detalles

Análisis de algoritmos

Análisis de algoritmos Tema 14: Algoritmos de aproximación M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom 1 Contenido Introducción Algoritmos de aproximación

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002 Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Georgina Flesia FaMAF 3 de mayo, 2012 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

OPTIMIZACIÓN DE RUTAS EN LA PESCA DEL ATÚN

OPTIMIZACIÓN DE RUTAS EN LA PESCA DEL ATÚN OPTIMIZACIÓN DE RUTAS EN LA PESCA DEL ATÚN CASO DE INVESTIGACIÓN APLICADA EN EL SECTOR DE LA PESCA Carlos Groba 28/11/2014 SANTIAGO DE COMPOSTELA Quiénes somos Marine Instruments es una empresa especializada

Más detalles

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias.

Sistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Índice 1 Introducción 1 2 Agrupamientos particionales

Más detalles

BIOINFORMÁTICA

BIOINFORMÁTICA BIOINFORMÁTICA 2013-2014 PARTE I. INTRODUCCIÓN Tema 1. Computación Basada en Modelos Naturales PARTE II. MODELOS BASADOS EN ADAPTACIÓN SOCIAL (Swarm Intelligence) Tema 2. Introducción a los Modelos Basados

Más detalles

Panorámica de los procedimientos metaheurísticos

Panorámica de los procedimientos metaheurísticos Panorámica de los procedimientos metaheurísticos ABRAHAM DUARTE www.grafo.etsii.urjc.es 1 Optimización o En lenguaje coloquial, optimizar significa mejorar o En el contexto científico, es el proceso de

Más detalles

CONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal...

CONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal... CONTENIDO Prefacio XV CAPITULO 1: Qué es la investigación de operaciones? 1 1.1 Modelos de investigación de operaciones 1 1.2 Solución del modelo de investigación de operaciones.. 4 1.3 Modelos de colas

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

SINTONIZACION DE UN CONTROLADOR PID PARA FUNCION DE TRANSFERENCIA DE SEGUNDO ORDEN USANDO ALGORITMOS GENETICOS BASADO EN TOOLBOX DE MATLAB.

SINTONIZACION DE UN CONTROLADOR PID PARA FUNCION DE TRANSFERENCIA DE SEGUNDO ORDEN USANDO ALGORITMOS GENETICOS BASADO EN TOOLBOX DE MATLAB. 1 SINTONIZACION DE UN CONTROLADOR PID PARA FUNCION DE TRANSFERENCIA DE SEGUNDO ORDEN USANDO ALGORITMOS GENETICOS BASADO EN TOOLBOX DE MATLAB. Fredy Alexander Guasmayan Guasmayan Cedula: 14 590 212 Universidad

Más detalles

CAPITULO 1: PERSPECTIVE GENERAL DE LA

CAPITULO 1: PERSPECTIVE GENERAL DE LA CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de

Más detalles

Diseño de experimentos

Diseño de experimentos Diseño de experimentos Quimiometría Por qué diseñar experimentos? Exploración: cuáles factores son importantes para realizar exitosamente un proceso Optimización: cómo mejorar un proceso Ahorro de tiempo:

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Combinatoria y análisis de algoritmos en teoría de números, teoría de la información y criptografía

Combinatoria y análisis de algoritmos en teoría de números, teoría de la información y criptografía Combinatoria y análisis de algoritmos en teoría de números, teoría de la información y criptografía Eda Cesaratto INFINIS, UNGS y CONICET 3 de agosto de 2016 Integrantes Valérie Berthé, Univ. Paris 7 y

Más detalles

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................

Más detalles

Reduciendo el Ancho de Banda de Matrices Dispersas Simétricas con Algoritmos Genéticos

Reduciendo el Ancho de Banda de Matrices Dispersas Simétricas con Algoritmos Genéticos Reduciendo el Ancho de Banda de Matrices Dispersas Simétricas con Algoritmos Genéticos RICARDO LÓPEZ GUEVARA rlopezg@unmsm.edu.pe rlopezgperu@yahoo.es Universidad Nacional Mayor de San Marcos Facultad

Más detalles

Programación NO Lineal (PNL) Optimización sin restricciones

Programación NO Lineal (PNL) Optimización sin restricciones Programación NO Lineal (PNL) Optimización sin restricciones Ejemplos de los problemas que se aplica la programación NO Lineal: Problema de transporte con descuentos por cantidad : El precio unitario de

Más detalles

Estado 0 (valor = 3) Estado 2 (valor = 7) Estado 1.3 (valor = 9)

Estado 0 (valor = 3) Estado 2 (valor = 7) Estado 1.3 (valor = 9) Búsqueda local Fernando Berzal, berzal@acm.org Búsqueda local Ascensión de colinas Enfriamiento simulado Algoritmos genéticos 1 Ascensión de colinas Ascensión de colinas simple E: Estado activo while (E

Más detalles

ALGORÍTMICA

ALGORÍTMICA ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda

Más detalles

TÉCNICAS HEURÍSTICAS APLICADAS AL PROBLEMA DEL CARTERO VIAJANTE (TSP)

TÉCNICAS HEURÍSTICAS APLICADAS AL PROBLEMA DEL CARTERO VIAJANTE (TSP) TÉCNICAS HEURÍSTICAS APLICADAS AL PROBLEMA DEL CARTERO VIAJANTE (TSP) RESUMEN El problema del cartero viajante (Traveling Salesman Problem TSP) es un problema típico de optimización. En este documento

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Búsqueda Informada. Algoritmos primero el mejor Algoritmos de búsqueda local

Búsqueda Informada. Algoritmos primero el mejor Algoritmos de búsqueda local Búsqueda Informada Algoritmos primero el mejor Algoritmos de búsqueda local Algoritmos primero el mejor Búsqueda primero el mejor Búsqueda Voraz A* Algoritmos primero el mejor Familia de algoritmos de

Más detalles

Metaheurísticas aplicadas a Clustering

Metaheurísticas aplicadas a Clustering Metaheurísticas aplicadas a Clustering Andrea Villagra Departamento de Informática Universidad Nacional de San Luis Ejército de los Andes 950 (5700) San Luis Argentina e-mail: avillagra@uaco.unpa.edu.ar

Más detalles

Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos

Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos XXVI Simposio Internacional de Estadística 2016 Sincelejo, Sucre, Colombia, 8 al 12 de Agosto de 2016 Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos Catalina Patiño Bustamante 1,a,

Más detalles

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población

Más detalles

Programación Lineal. María Muñoz Guillermo Matemáticas I U.P.C.T. M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13

Programación Lineal. María Muñoz Guillermo Matemáticas I U.P.C.T. M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13 Programación Lineal María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13 Qué es la Programación Lineal? Introducción La Programación

Más detalles

1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos

1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos 1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo Algoritmos genéticos Introducción Propuestos por Holland, mediados 70, computación evolutiva Popularizados

Más detalles

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir

Más detalles

Metaheurísticas. Seminario 4. Problemas de optimización con técnicas basadas en adaptación social

Metaheurísticas. Seminario 4. Problemas de optimización con técnicas basadas en adaptación social Metaheurísticas Seminario 4. Problemas de optimización con técnicas basadas en adaptación social 1. Diseño de Componentes para Resolver un Problema con un Algoritmo de Optimización Basada en Colonias de

Más detalles

CAPÍTULO 1 PRESENTACIÓN DEL PROBLEMA DE OPTIMIZACIÓN DE CARTERAS DE INVERSIÓN

CAPÍTULO 1 PRESENTACIÓN DEL PROBLEMA DE OPTIMIZACIÓN DE CARTERAS DE INVERSIÓN CAPÍTULO 1 PRESENTACIÓN DEL PROBLEMA DE OPTIMIZACIÓN DE CARTERAS DE INVERSIÓN Este capítulo da una introducción al problema de Optimización de Carteras de Inversión. Se menciona el objetivo general y los

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

Comparación de dos métodos de aprendizaje sobre el mismo problema

Comparación de dos métodos de aprendizaje sobre el mismo problema Comparación de dos métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2.

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades

Más detalles

Predicción de la estructura TriDimensional de la Proteina

Predicción de la estructura TriDimensional de la Proteina Predicción de la estructura TriDimensional de la Proteina October 15, 2008 Dogma de la Biología Molecular Proteina Mecánica Molecular Dinámica Molecular Método Monte Carlo Algoritmos Genéticos Dogma de

Más detalles

Para llevar a cabo una simulación, se requiere implementar las siguientes etapas:

Para llevar a cabo una simulación, se requiere implementar las siguientes etapas: SIMULACIÓN: La simulación se define como una técnica numérica utilizada para representar un proceso o fenómeno mediante otro más simple que permite analizar sus características. Esta técnica emplea relaciones

Más detalles

OPTIMIZACIÓN BASADA EN SISTEMA DE HORMIGAS CON HEURÍSTICA DE INICIALIZACIÓN 1

OPTIMIZACIÓN BASADA EN SISTEMA DE HORMIGAS CON HEURÍSTICA DE INICIALIZACIÓN 1 OPTIMIZACIÓN BASADA EN SISTEMA DE HORMIGAS CON HEURÍSTICA DE INICIALIZACIÓN 1 Marta Almirón malmiron@cnc.una.py Enrique Chaparro Viveros eviveros@cnc.una.py Benjamín Barán bbaran@cnc.una.py Centro Nacional

Más detalles

Estimación por intervalos

Estimación por intervalos Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto

Más detalles

Inteligencia de enjambres

Inteligencia de enjambres Inteligencia de enjambres Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Autómata de estados finitos Definición A =< X, Y, E, D > Autómata de estados finitos Definición A

Más detalles

Introducción a la Investigación Operativa

Introducción a la Investigación Operativa Introducción a la Investigación Operativa José María Ferrer Caja Universidad Pontificia Comillas Definición Conjunto de métodos científicos que se aplican para mejorar la eficiencia de las operaciones,

Más detalles

Caracterización de la incertidumbre del precio futuro del cobre

Caracterización de la incertidumbre del precio futuro del cobre USc/lb Caracterización de la incertidumbre del precio futuro del cobre La incertidumbre en un modelo de programación estocástica debe tener la estructura de árbol de escenarios, como se muestra en la Figura

Más detalles

Técnicas metaheurísticas. Álvaro García Sánchez

Técnicas metaheurísticas. Álvaro García Sánchez Álvaro García Sánchez 1. Introducción Desde los años sesenta han ido apareciendo diferentes métodos de resolución de problemas conocidos por el nombre de técnicas metaheurísticas. Estas técnicas son de

Más detalles

Minería de datos (Algoritmos evolutivos)

Minería de datos (Algoritmos evolutivos) Minería de datos (Algoritmos evolutivos) M. en C. Sergio Luis Pérez Pérez UAM CUAJIMALPA, MÉXICO, D. F. Trimestre 14-I. Sergio Luis Pérez (UAM CUAJIMALPA) Curso de minería de datos 1 / 23 Extracción de

Más detalles

CONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP

CONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP CONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP Mauricio Carrillo Oliveros Prof. Guía: Juan Alfredo Gómez Universidad de la Frontera,

Más detalles

ÍNDICE ÍNDICE DE FIGURAS ÍNDICE DE TABLAS PREFACIO LOS SISTEMAS PRODUCTIVOS SECCIÓN I PREVISIÓN DE LA DEMANDA

ÍNDICE ÍNDICE DE FIGURAS ÍNDICE DE TABLAS PREFACIO LOS SISTEMAS PRODUCTIVOS SECCIÓN I PREVISIÓN DE LA DEMANDA ÍNDICE ÍNDICE DE FIGURAS... 15 ÍNDICE DE TABLAS... 21 PREFACIO... 25 1. LOS SISTEMAS PRODUCTIVOS... 29 1.1. Introducción... 31 1.2. Elementos de diseño del proceso... 32 1.2.1. Localización de la planta...

Más detalles

Enrutamiento Multicast Multiobjetivo basado en Colonia de Hormigas

Enrutamiento Multicast Multiobjetivo basado en Colonia de Hormigas Enrutamiento Multicast Multiobjetivo basado en Colonia de Hormigas Diego Pinto & Benjamín Barán Centro Nacional de Computación, Universidad Nacional de Asunción, San Lorenzo, Paraguay {dpinto,bbaran}@cnc.una.py

Más detalles

Deriva selección: Pob. grande, deriva pequeña. Estudios de simulación nos dan una idea del efecto de deriva en las poblaciones:

Deriva selección: Pob. grande, deriva pequeña. Estudios de simulación nos dan una idea del efecto de deriva en las poblaciones: DERIVA GENÉTICA = Genetic drift Deriva genética: cambio producido en las frecuencias alélicas debido al muestreo de los gametos, que se realiza generación tras generación, a causa del tamaño finito de

Más detalles

Teoría del valor extremo como criterio de parada en la optimización heurística de bóvedas de hormigón estructural

Teoría del valor extremo como criterio de parada en la optimización heurística de bóvedas de hormigón estructural VII Congreso Español sobre Metaheurísticas, Algoritmos Evolutivos y Bioinspirados MAEB 2010 Valencia, 8-10 Septiembre 2010 Teoría del valor extremo como criterio de parada en la optimización heurística

Más detalles

Técnicas recientes de procesado geométrico de imágenes y de secuencias de vídeo. Philippe Salembier

Técnicas recientes de procesado geométrico de imágenes y de secuencias de vídeo. Philippe Salembier Técnicas recientes de procesado geométrico de imágenes y de secuencias de vídeo Philippe Salembier JORNADA CIENTÍFICA RSME TELECOMUNICACIONES Y MATEMÁTICAS Junio 2005 Estructura de la Presentación 1. Introducción

Más detalles

INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Análisis comparativo de metaheurísticas para calibración de localizadores de fallas en sistemas de distribución

INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Análisis comparativo de metaheurísticas para calibración de localizadores de fallas en sistemas de distribución INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Análisis comparativo de metaheurísticas para calibración de localizadores de fallas en sistemas de distribución ELECTRICAL AND ELECTRONICS ENGINEERING Comparative analysis

Más detalles

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA CONTENIDOS Y OBJETIVOS MÍNIMOS PARA EL CURSO 2007/08. 1. INTRODUCCIÓN A LOS CONTENIDOS. ( Decreto 208/2002. B.O.J.A. de 20.08.02

Más detalles

Análisis de la relación precio marginal y demanda de electricidad mediante conglomerados

Análisis de la relación precio marginal y demanda de electricidad mediante conglomerados Análisis de la relación precio marginal y demanda de electricidad mediante conglomerados Andrés Ramos, Gonzalo Cortés, Jesús María Latorre, Santiago Cerisola Universidad Pontificia Comillas Índice Introducción

Más detalles

SECUENCIA DIDÁCTICA. Módulo IV Competencia de Módulo:

SECUENCIA DIDÁCTICA. Módulo IV Competencia de Módulo: SECUENCIA DIDÁCTICA Nombre de curso: Simulación de Sistemas. Antecedente: Ninguno Módulo IV Competencia de Módulo: Clave de curso: COM1505B21 Clave de antecedente: Ninguna Desarrollar software con la finalidad

Más detalles