Particionamiento Numérico CIMPA-UCR. usando Metaheurísticas de Optimización
|
|
- Eugenio Figueroa Naranjo
- hace 6 años
- Vistas:
Transcripción
1 Particionamiento Numérico usando Metaheurísticas de Optimización 1 Métodos de vecindarios 1.1 Sobrecalentamiento simulado 1.2 Búsqueda tabú
2 Optimizacion Combinatoria F: S R S: espacio de estados (soluciones posibles) Minimización: hallar i opt tal que F(i opt ) F(i), para todo i S Maximización: hallar i opt tal que F(i opt ) F(i), para todo i S
3 Búsqueda local Defina una estructura de vecindarios: cómo generar un nuevo estado i a partir del estado actual i Escoger i 0 i :=i 0 ; k:=0 i := i k := k+1 Generar S(i) i S(i): F(i ) < F(i) falso i minimiza F en S(i) k verda dero
4 Sobrecalentamiento simulado También conocido como Recocido simulado, Recocción simulada, o Temple simulado. Son traducciones de Simulated annealing Método iterativo que usa un parámetro externo de temperatura T, que controla la aceptación de nuevos estados con un costo peor
5 Ilustración del SS Habilidad para evitar mínimos locales F i * S
6 Regla de Metropolis Un nuevo estado i (en el vecindario del estado actual i) es aceptado si: El costo F decrece, Si no, puede ser aceptado con probabilidad donde F = F(i ) F(i) exp(- F / T)
7 Ilustración de la R. Metrop. exp(- F / T) t = 1 t max t T
8 Convergencia SS converge asintóticamente (con probabilidad 1) al mínimo global Una cadena de Markov (homogénea) es asociada a cada valor de T Condiciones: reversibilidad y conexidad
9 Reversibilidad La probabilidad de regresar es la misma: i G(i,i ) = G ii i i i G(i,i) = G ii
10 Conexidad Hay una cadena finita entre dos estados, con probabilidades de paso > 0 i i
11 Implementación T 0 : temperatura inicial (estimación mediante unas corridas en blanco con tasa inicial χ 0 ) T f : temperatura (cuando T 0) T t+1 := γt t ;γ [0.8,0.99] (enfriamiento) L t : longitud de las cadenas de Markov F: sencillo de calcular Reversibilidad y conexidad
12 Implementación T 0 : temperatura inicial (estimación mediante unas corridas en blanco con tasa inicial χ 0 ) T f : temperatura (cuando T 0) T t+1 := γt t ;γ [0.8,0.99] (enfriamiento) L t : longitud de las cadenas de Markov F: sencillo de calcular Reversibilidad y conexidad
13 Diagrama del SS Escoger i 0 i :=i 0 ; k:=0 Mejora?(i,T): Aplicar la regla de Metropolis Encontrar un vecino y se acepta si es mejor, si no se acepta aleatoriamente de acuerdo con la temperatura actual T i := i k := k+1 Generar S(i) Mejora?(i,T) falso i minimiza F en S(i) k verdadero
14 SS en Particionamiento A partir de una partición P generar P como sigue: 1. Escoger al azar (unif. en [1,n]) un objeto x Ω 2. Escoger al azar(unif. en [1,k]) un índice de clase l 3. Poner a en la clase C l Nota: corresponde a lo que S. Régnier llamaba transferencia
15 Características Reversibilidad: la probabilidad de P P es la misma que la probabilidad de P P Conexidad: siempre es posible generar cualquier partición P a partir de cualquier P (hay un # finito de transferencias) Vecindarios tienen el mismo tamaño: n(k-1) G ss = 1/n(k-1)
16 Simplificaciones ) ( 1 1 }) { ( ) ( 1 1 }) { ( 1) ( 1) ( ') ( ) ( 2 2 x g x g x g x g x g x g + + = = + = = l l l l j j j j l l l j j j C C C C C C C n C C n C W P W P W
17 Búsqueda tabú Examen de vecindarios Maneja una lista tabú, que prohíbe regresar a estados previamente visitados La lista tabú contiene movimientos Se debe escoger el mejor vecino, que no sea tabú Criterio de aspiración: cómo eliminar el estado tabú a un buen vecino
18 Busqueda Tabú Heurística basada en el examen de un vecindario de un estado y la escogencia del mejor vecino Se manejo una lista tabú que prohíbe el acceso a estados similares a los estados recientemente visitados, procurando evitar los ciclos Hay mucha variantes que pueden mejorar los resultados (criterios de aspiración, estados elite, diversificación, intensificación, uso de muestras en los vecindarios, listas tabú de talla dinámica,...)
19 Particionamiento con BT Estado: partición P en k clases de Ω Criterio: minimizar W Movimiento: crear P por transferencia de un único objeto a una nueva clase Lista tabú: indicador de la clase que contenía al objeto transferido
20 Particionamiento con BT Estado: partición P en k clases de Ω Criterio: minimizar W Movimiento: construir P por la transferencia de un individuo hacia una nueva clase Lista tabú: indicadoras de la clase donde estaba el individuo transferido
21 Ilustración de la BT Sean los datos: Se quieren clasificar en 3 clases Partición inicial: ( ) con W = 3.52
22 Iteración 1 Partición (21111) (31111) (12111) (13111) (11211) (11311) (11121) (11131) (11112) (11113) W Lista tabú:
23 Iteración 2 Partición (11111) (21111) (32111) (31112) (33111) (31211) (31311) (31121) (31131) (31113) W Tabú Tabú Lista tabú:
24 Iteración 3 Partición W (12111) 3.00 (22111) (33111) 1.17 (31111) 2.15 Tabú (32211) (32112) 1.50 (32311) (32131) (32121) (32113) Tabú Lista tabú:
25 Iteración 4 Partición (13111) (23111) (32111) (31111) (33211) (33311) (33121) (33131) (33112) (33113) W Tabú Tabú Lista tabú:
26 Evolución de Valores W = 3.52 W = 2.15 W = 1.07 W = 1.17 W = 0.30
27 Más sobre BT Estados elite: registro de los mejores estados visitados Intensificación: en un sector bueno, continuar la búsqueda Diversificación: cambiar el sector del espacio de búsqueda Generación aleatoria de una muestra de vecinos
28 Diagrama de BT Escoger i 0 i :=i 0 ; k:=0 Mejora?(i,T): Depende de la lista tabú y del estado actual i Analyza todo el vecindario o una muestra de él i := i k := k+1 Generar S(i) mejora?(i,t) false i minimiza F sobre S(i) k true
29 Particionamiento Numérico 2 Métodos multiagentes 2.1 Algoritmos genéticos 2.2 Colonias de hormigas 2.3 Enjambres de partículas
30 Algoritmos genéticos Algoritmos iterativos que simulan la evolución de las especies en la Naturaleza Principios: Representación cromosómica de los estados Función de adaptación (al medio ambiente), Selección de los elementos mejor adaptados Combinación de las características de los elementos usando operadores genéticos Mutaciones Cruzamientos
31 Evolución del AG 1 F(j) j m P(0) P(1) P(2)
32 Elementos del AG 1 j F(j) Función de adaptación Selección Mutación Cruzamiento m Cromosomas P(t)
33 Operadores genéticos Mutación: Cruzamiento: con probabilidad p m } { con probabilidad p c
34 Evolución del AG 1 Población F(j) j m Selección Operadores (p m,p c )
35 AG para particionamiento Estados: índices de clases ( ) x 1 x 2 x 3.. x n Función de adaptación: B Selección: ruleta aleatoria proporcional a B Cruzamiento: con probabilidad p c (cromos.) Mutación: con probabilidad p m (alelo)
36 Cruzamiento Dados dos padres, escoger al azar una clase en el primero y copiarla en el segundo, para generar un hijo Ejem. : P 1 = ( ) P 2 = ( ) P 1 : {x 1,x 2,x 5,x 6 }, {x 3,x 7,x 9,x 10 }, {x 4,x 8,x 11,x 12 } P 2 : {x 1,x 2,x 4,x 7 }, {x 3,x 5,x 8,x 9 }, {x 6,x 10,x 11,x 12 }
37 Cruzamiento (2) Escoger al azar (unif.) la clase 2 de P 1 : P 1 = ( ) Copiar la clase 2 de P 1 en P 2 : Crear la partición: P 2 = ( ) H = ( ) H : {x 1,x 2,x 4 }, {x 3,x 5,x 7,x 8,x 9,x 10 }, {x 6,x 11,x 12 }
38 Mutación Modicar un índice de clase escogido al azar: Ejem. P = ( ) Si se escoge x 3 al azar (unif. in [1,n]) entonces la clase de pertenencia de x 3 es transformada en la clase 2 (índice escogido al azar unif. en [1,k]): H = ( )
39 Ejemplo: Notas escolares Mate. Ciencias Historia Latín Ed. Fis. Jean Alain Anne Monique Didier André Pierre Brigitte Evelyne
40 Componentes Principales
41 Ilustración del AG 3 clases 4 clases Iteración Max Min Media Max Min Media
42 Colonias de hormigas Metáfora: cómo hacen las hormigas para buscar alimento y evitar obstáculos Reforzamiento: trazo de feromonas Representación de las soluciones Se maneja una población de hormigas Cada hormiga construye o modifica una solución Heurística local o visibilidad Regla para actualizar las feromonas Regla probabilística de transición
43 Colonias de hormigas ACO: Ant Colony Optimization Metafora: manera como buscan alimento las hormigas Reforzamiento: trazo de feromona
44 ACO en Particionamiento M hormigas asociadas a M particiones Cada hormiga modifica su particion Heurística local: η ij = 1/d(i,j) Trazo de feromonas: τ ij (t)
45 ACO en Particionamiento Sea m una hormiga Sea i un objeto escogido al azar Se escoge un objeto j con probabilidad
46 Trazo de feromonas Para i,j Ω: con ρ ]0,1]: parámetro de evaporación
47 Algoritmo ACOCLUS Inicializar τ = τ 0 ; calcular η; inicializar p Dar P 1,,P m (al azar) Para t = 1 hasta t max hacer Para m = 1 hasta M, hacer S veces Escoger al azar i Ω Escoger j segun las reglas dadas Calcular B(P 1 ),,B(P m ) y actualizar τ
48 Enjambres de partículas Particle Swarm Optimization (PSO): Kennedy & Eberhardt (1995) Modela el comportamiento social: cada individuo trata de mejorar de acuerdo con su propia experiencia y observando a sus vecinos Se maneja una población de M partículas o agentes en un espacio multidimensional
49 Principios de la PSO Para cada partícula: Recordar mi mejorposición en el pasado Pregunto a mis vecinos por su mejor posición Tendencias: 1. Seguir mi camino (inercia) 2. Regresar a mimejor posición (conservador) 3. Imitatar al líder (imitación)
50 PSO: modelo v m ( t [ ( ) ( )] [ ( ) ( )] * * z t z t + z t z + 1) = αv( t) + λ λ 1 m m 2 m t z m ( t + 1) = z ( t) + v ( t + 1) m m donde: λ ϕ = rand(0, ϕ ), λ = rand(0, ϕ ) = ϕ 1 + ϕ 2
51 PSO Modelo (t v m + 1) =α v m ( t) + + rand(0, ϕ ) 1 + rand(0, ϕ ) 2 [ ] * zm( t) zm( t) [ ( ) ( )] * z t z t m + Inercia Regresar Imitación z m ( t + 1) = z ( t ) + v ( t + m m 1)
52 Ilustración de PSO
53 Ilustración de PSO líder regresar a mi mejor posición z * z m (t+1) z m (t) v m (t) z * m inercia imitación
54 Ilustración de PSO z * z m (t+1) z m (t) z * m v m (t) v z m m ( t [ ( ) ( )] [ ( ) ( )] * * z t z t + z t z + 1) = α v ( t) + λ λ m ( t + 1) = z ( t ) + v ( t + m 1 m m 2 m t m 1)
55 Condiciones Definir: κ χ = ][ ] [ ϕ 4ϕ e 2)( ϕ 1) 11+ = ( ϕ 2 ϕ 2 + 2κ ϕ 2 4ϕ 2 Heuristica, resultados parciales: α = e Condiciones para no divergencia: κ ]0,1[ 1+ χ( ϕ α = ϕ 1 2) Resultados empírico: κ 0.577,4 < ϕ 4.276
56 PSO en particionamiento Cada partícula es un conjunto de K centroides g 1,...g K R p Cada centroide tiene asociada una clase C k por asignación de los objetos a la clase del centroide más cercano Los centroides se mueven en R p de acuerdo con los principios de la PSO y la partición se redefine por asignación Las partículas se mueven en R Kp
57 Algoritmo Repeat for t=1,2,... max_iter or convergencia For m=1:m (particulas) For k=1:k (clases) use ecuación de PSO para cada variable numérica Asigne los objetos al centroide más cercano Actualizar mejor posición de partícula m Actualizar mejor partícula global
58 Parámetros α = 0.5: coeficiente para v i (t) ϕ = ϕ 1 + ϕ 2 4: suma de coefficients aleat. ε (tolerancia): para convergencia Máximo # de iteraciones (= 200)
59 Métodos comparados Nuestros métodos: SA: Sobrecalentamiento simulado TS: Búsqueda tabú GA: Algoritmo genético ACO: Colonias de hormigas PSO: Enjambres de partículas Métodos clásicos: KM: k-means Ward: Clasif. Jerárquica Ascendente
60 Resultados comparativos Tablas de datos reales Tablas de datos simuladas
61 Resultados preliminares Cuatro tablas de datos de la literatura: Notas escolares francesas (9 x 5) Peces de Amiard (23 x 16) Sociomatriz de Thomas (24 x 24) Iris de Fisher (150 x 4)
62 Parámetros de comparación Mínimo valor de inercia W(P) Porcentaje de veces alcanzado (tasa de atracción)
63 Resultados: Notas Escolares Tabla 9 x 5 K W PSO #=100 SA #=150 TS #=1000 GA #=100 ACO #=25 KM #=10000 Ward No No Sí Sí
64 Resultados: Peces de Amiard Tabla 23 x 16 K W PSO #=100 SA #=150 TS #=200 GA #=100 ACO #=25 KM #=10000 Ward No No Sí
65 Resultados: Sociomatriz de Thomas Tabla 24 x 24 K W PSO #=100 SA #=150 TS #=200 GA #=100 ACO #=25 KM #=10000 Ward No No No
66 Resultados: Iris de Fisher Tabla 150 x 4 K W PSO SA TS GA ACO KM Ward #=100 #=150 #=1000 #=100 #=25 #= No No No No
67 Experimentación Simulación de Monte-Carlo: Generar variables gaussianas N (µ,σ 2 ) Número de objetos (100,500) Number of clusters (3,7) Varianza σ 2 (similares, diferentes) Cardinalidades de las clases (similares, diferentes)
68 Tablas de Datos: Experimento Factores # objetos # clases Card clases Desv.est. Nivel C i = C j s i = s j Nivel C 1 > C j, j 1 s 2 > s j, j 2 Repeticiones : 100
69 Tablas de Datos
70 *.def Generación de las Tablas de Datos *.esp *.dat
71 Parámetros SA TS GA
72 Desarrollo de Software Programación en Delphi Implementación de nuestros métodos aplicando las Metaheurísticas de Optimización Generación aleatoria de tablas de datos Comparaciones: tablas resumen
73 Generación de Datos
74 Métodos
75 Ejemplo: SS
76 Ejemplo: AG & ACO
77 Parámetros de comparación: Mínimo valor de inercia W(P) Porcentaje de veces alcanzado Valor promedio de W en las ejecuciones % de mala clasificación
78 Comparación de métodos
79 Resultados 1 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
80 Resultados 2 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
81 Resultados 3 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
82 Resultados 4 n K C k σ = = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % Alg.Gen % Hormigas % K-medias % Ward %
83 Resultados 5 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
84 Resultados 6 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
85 Resultados 7 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %
86 Resultados 8 n K C k σ = W 0 = 9.37 W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
87 Resultados 9 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
88 Resultados 10 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %
89 Resultados 11 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
90 Resultados 12 n K C k σ = W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % K-medias % % Ward %
91 Resultados 13 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
92 Resultados 14 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
93 Resultados 15 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
94 Resultados 16 n K C k σ W 0 = W* τ W prom % mal cl. Sob.simul % % Bus.Tabu % % Alg.Gen % % Hormigas % % K-medias % % Ward %
95 Frecuencia de W*
96 Valor medio de W
97 Parametros SA TS GA
98 Resultados Tiempo Tiempo aproximado en minutos para cada corrida
99 Observaciones finales El método jerárquico de Ward es el peor Cuando las cardinalidades son iguales, los métodos obtienen los mismos óptimos; sin embargo, SS tiene mejor tasa de atracción (100%) Cuando las cardinalidades son diferentes y se desean muchas clases, SS y BT tienen problemas, incluso k- medias es mejor. En este caso, AGA y ACO son claramente los mejores ACO se comporta bien con diferentes varianzas y cardinalidades El método más rápido es k-medias y el más lento es BT La calibración de los parámetros es una tarea difícil.
Son una clase particular de los algoritmos evolutivos.
Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver
Más detallesInteligencia Artificial
Algoritmos genéticos Bases En la naturaleza todos los seres vivos se enfrentan a problemas que deben resolver con éxito, como conseguir más luz solar o conseguir comida. La Computación Evolutiva interpreta
Más detallesUna Versión de ACO para Problemas con Grafos de. muy Gran Extensión. Enrique Alba y Francisco Chicano. Introducción. ACOhg.
1/22 Puerto de La Cruz, Tenerife, España, 14 a 16 de Febrero de 2007 Una Versión de ACO para s con Grafos de muy Gran Extensión Enrique Alba y Francisco Chicano Puerto de La Cruz, Tenerife, España, 14
Más detallesAlgoritmos basados en hormigas
Algoritmos basados en hormigas Inteligencia Artificial Avanzada 1er. Semestre 2008 1 Aspectos Generales La metáfora de los insectos sociales para resolver problemas ha sido un tema importante a partir
Más detallesTema 1. Heurísticos en Optimización Combinatorial
Tema 1. Heurísticos en Optimización Combinatorial p. 1/2 Tema 1. Heurísticos en Optimización Combinatorial Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e
Más detallesALGORÍTMICA
ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda
Más detallesALGORÍTMICA
ALGORÍTMICA 2012 2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda
Más detallesProgramación Evolutiva
Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:
Más detallesInteligencia colectiva.
Métodos evolutivos.. A. Jiménez, A. Murillo, E. Piza, M. Villalobos, J. Trejos. April 27, 2010 Descripción Métodos evolutivos 1 Métodos evolutivos Algoritmos genéticos 2 Colonias de hormigas Problema de
Más detallesTema 2: Algoritmos Genéticos
Tema 2: Algoritmos Genéticos p. 1/3 Tema 2: Algoritmos Genéticos Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País
Más detallesÍndice. Planteamiento del Problema. UDS mediante SA. UDS mediante SA. Unidimensional Scaling y. Multidimensional Scaling (MDS)
Unidimensional Scaling (UDS) Multidimensional Scaling (MDS) Álex Murillo*, Javier Trejos, Eduardo Piza, Mario Villalobos y Alejandra Jimenez** CIMPA - Universidad de Costa Rica *Sede del Atlántico **Instituto
Más detallesALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA
Mosaicos Matemáticos No. 11 Diciembre, 23. Nivel Superior ALGORITMOS GENÉTICOS: ALGUNOS RESULTADOS DE CONVERGENCIA Mario Alberto Villalobos Arias Departamento de Matemáticas Centro de Investigación y de
Más detallesNUEVO METODO DE OPTIMIZACION: BIG BANG BIG CRUNCH
NUEVO METODO DE OPTIMIZACION: BIG BANG BIG CRUNCH OSMAN K. EROL IBRAHIM EKSIN Istanbul Technical University GABRIEL LEIVA FRANCISCO ORTIZ SERGIO FERNANDEZ 1 OBJETIVO DE LA INVESTIGACIÓN Mejorar el criterio
Más detallesMetaheurísticas y heurísticas. Algoritmos y Estructuras de Datos III
Metaheurísticas y heurísticas Algoritmos y Estructuras de Datos III Metaheurísticas Heurísticas clásicas. Metaheurísticas o heurísticas modernas. Cuándo usarlas? Problemas para los cuales no se conocen
Más detallesEl problema de selección de carteras: modelos y algoritmos
El problema de selección de carteras: modelos y algoritmos Enriqueta Vercher González Departamento de Estadística e Investigación Operativa. Universitat de València Facultad de CC. Económicas y Empresariales.
Más detallesIntroducción la placa alveolar OBJETO Y ALCANCE DE LA TESIS REQUISITOS EXIGIBLES A LOS PRODUCTOS DE CONSTRUCCIÓN...
Indice general. Índice general. Introducción la placa alveolar... 59 1.1 OBJETO Y ALCANCE DE LA TESIS.... 59 1.2 REQUISITOS EXIGIBLES A LOS PRODUCTOS DE CONSTRUCCIÓN.... 64 1.3 LA PLACA ALVEOLAR EN SITUACIÓN
Más detallesHerramienta software para resolver procesos de decisión de Markov utilizando recocido simulado
Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado Cristhian D SANDOVAL Ximena GALINDO Roberto E SALAS RESUMEN Este artículo expone el diseño del prototipo de
Más detallesALGORÍTMICA
ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda
Más detallesGrafos Eulerianos y Hamiltonianos. Algoritmos y Estructuras de Datos III
Grafos Eulerianos y Hamiltonianos Algoritmos y Estructuras de Datos III Grafos eulerianos Definiciones: Un circuito C en un grafo (o multigrafo) G es un circuito euleriano si C pasa por todos las aristas
Más detallesBIOINFORMÁTICA
BIOINFORMÁTICA 2013-2014 PARTE I. INTRODUCCIÓN Tema 1. Computación Basada en Modelos Naturales PARTE II. MODELOS BASADOS EN ADAPTACIÓN SOCIAL (Swarm Intelligence) Tema 2. Introducción a los Modelos Basados
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesALN - Curso 2007 Gradiente Conjugado
ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada
Más detallesSIMULADOR DE SISTEMAS MULTI-ROBOTS UTILIZANDO MODELOS DE ENJAMBRE PARA LA COORDINACION DE TAREAS
SIMULADOR DE SISTEMAS MULTI-ROBOTS UTILIZANDO MODELOS DE ENJAMBRE PARA LA COORDINACION DE TAREAS Wilson Pérez Angel Gil Yurisan Collado weps84@gmail.com agil@unet.edu.ve yurisan29@gmail.com Laboratorio
Más detallesTema 6: Búsqueda local y algoritmos genéticos
Tema 6: Búsqueda local y algoritmos genéticos José Luis Ruiz Reina Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial I, 2012 Índice Problemas
Más detallesBÚSQUEDA TABÚ (Tabu Search TS)
BÚSQUEDA TABÚ (Tabu Search TS) Oscar Lozano Búsqueda Tabú Metaheurístico que usa búsqueda agresiva del óptimo del problema. Agresiva = evitar que la búsqueda quede "atrapada" en un óptimo local que no
Más detallesAlgoritmos basados en inteligencia de enjambres: Hormigas y Abejas
Algoritmos basados en inteligencia de enjambres: Hormigas y Abejas Miguel Cárdenas Montes - Antonio Gómez Iglesias Centro de Investigaciones Energéticas Medioambientales y Tecnológicas, Madrid, Spain miguel.cardenas@ciemat.es
Más detallesJosé Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1
Funciones de mérito José Francisco Tudón Maldonado Mario Roberto Urbina Núñez 9 de abril de 011 1 Introducción Las funciones de mérito surgen para determinar en un algoritmo que resuelve un problema de
Más detallesSimulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico.
Simulación Temario de la clase Introducción. Generacion de variables aleatorias: método de la transformada inversa. Avance del tiempo de simulación. Determinación de la cantidad de iteraciones requeridas.
Más detallesAlgoritmos genéticos
Algoritmos genéticos Introducción 2 Esquema básico 3 El problema de la mochila 7 Asignación de recursos 0 El problema del viajante 3 Variantes del esquema básico 5 Por qué funciona? 9 Observaciones finales
Más detallesTema 8: Métodos de cadenas de Markov Monte Carlo
Tema 8: Métodos de cadenas de Markov Monte Carlo Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Introducción Los métodos de cadenas
Más detallesTema 5: Algoritmos Genéticos
Tema 5: Algoritmos Genéticos José Luis Ruiz Reina Miguel A. Gutiérrez Naranjo Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Inteligencia Artificial Búsqueda
Más detallesInteligencia Computacional (IA95 021) Algoritmos Simples de Optimización Ciega
Algoritmos Simples de Optimización Ciega c M. Valenzuela 1996 2002 (17 de enero de 2006) 1. Optimización ciega 1.1. Introducción Algoritmos genéticos y recocido simulado son métodos de optimización ciega.
Más detallesANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS)
ANÁLISIS DE CONGLOMERADOS (CLUSTER ANALYSIS) AGRUPAMIENTOS Cuál agrupamiento es mejor? MÉTODOS DE AGRUPACIÓN Métodos jerárquicos: Los objetos se agrupan (dividen) i por partes hasta clasificar todos los
Más detallesA MEMETIC ALGORITHM FOR. Zhipeng Lü, Jin-Kao Hao
A MEMETIC ALGORITHM FOR GRAPH COLORING Zhipeng Lü, Jin-Kao Hao European Jornal of Operational Research Introducción Aplicaciones generales Aplicaciones prácticas Heurísticas Algoritmo propuesto: MACOL
Más detallesIntroducción a la Computación (Matemática)
Introducción a la Computación (Matemática) Heurísticas de Programación Introducción a la Computación Menú del día de hoy Problemas Difíciles P y NP Viajante de Comercio Coloreo Problema de la mochila Ruteo
Más detallesDiseño de Bloques al azar. Diseño de experimentos p. 1/25
Diseño de Bloques al azar Diseño de experimentos p. 1/25 Introducción En cualquier experimento, la variabilidad proveniente de un factor de ruido puede afectar los resultados. Un factor de ruido es un
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesPreparación de los datos de entrada
Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:
Más detallesIdentificación mediante el método de los mínimos cuadrados
Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:
Más detallesPrimero se inicializan dos puntos (tantos como clusters queremos) al azar. Estos puntos se denominan centroides del cluster.
K-Means Introducción El algoritmo k-means es el algoritmo de clustering más popular y ampliamente utilizado. Algoritmo Supongamos que queremos agrupar los siguientes datos en dos clusters Primero se inicializan
Más detallesOPTIMIZACIÓN VECTORIAL
OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de
Más detallesCAPÍTULO 3. GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica.
CAPÍTULO 3 GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica. Estos problemas se aplican en distintas áreas, tales como:
Más detallesUn Algoritmo Memético basado en PSO para la programación de producción en una fábrica de flujo continuo.
Un Algoritmo Memético basado en PSO para la programación de producción en una fábrica de flujo continuo. Bo Liu, Ling Wang, y Yi-Hui Jin Resumen: Este artículo propone un algoritmo memético (MA) eficiente,
Más detallesMétodos evolutivos de Optimización. Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid
Métodos evolutivos de Optimización Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid Indice Introducción Método de Montecarlo Algoritmos genéticos Tabú Search Simulated
Más detallesMétodo de mínimos cuadrados (Continuación)
Clase No. 11: MAT 251 Método de mínimos cuadrados (Continuación) Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
Más detallesIntroducción a Aprendizaje no Supervisado
Introducción a Aprendizaje no Supervisado Felipe Suárez, Álvaro Riascos 25 de abril de 2017 2 / 33 Contenido 1. Motivación 2. k-medias Algoritmos Implementación 3. Definición 4. Motivación 5. Aproximación
Más detallesUna introducción al análisis dinámico. Análisis del algoritmo de Euclides para enteros.
Una introducción al análisis dinámico. Análisis del algoritmo de Euclides para enteros. Eda Cesaratto Universidad Nacional de Gral. Sarmiento and CONICET (Argentina) Jornadas de Combinatoria Analítica
Más detallesAnálisis de algoritmos
Tema 14: Algoritmos de aproximación M. en C. Edgardo Adrián Franco Martínez http://www.eafranco.com edfrancom@ipn.mx @edfrancom edgardoadrianfrancom 1 Contenido Introducción Algoritmos de aproximación
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesSolución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002
Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material
Más detallesSelección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Georgina Flesia FaMAF 3 de mayo, 2012 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
Más detallesOPTIMIZACIÓN DE RUTAS EN LA PESCA DEL ATÚN
OPTIMIZACIÓN DE RUTAS EN LA PESCA DEL ATÚN CASO DE INVESTIGACIÓN APLICADA EN EL SECTOR DE LA PESCA Carlos Groba 28/11/2014 SANTIAGO DE COMPOSTELA Quiénes somos Marine Instruments es una empresa especializada
Más detallesSistemas Inteligentes. Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias.
Sistemas Inteligentes Escuela Técnica Superior de Informática Universitat Politècnica de València Tema B2T4: Aprendizaje no supervisado: algoritmo k-medias. Índice 1 Introducción 1 2 Agrupamientos particionales
Más detallesBIOINFORMÁTICA
BIOINFORMÁTICA 2013-2014 PARTE I. INTRODUCCIÓN Tema 1. Computación Basada en Modelos Naturales PARTE II. MODELOS BASADOS EN ADAPTACIÓN SOCIAL (Swarm Intelligence) Tema 2. Introducción a los Modelos Basados
Más detallesPanorámica de los procedimientos metaheurísticos
Panorámica de los procedimientos metaheurísticos ABRAHAM DUARTE www.grafo.etsii.urjc.es 1 Optimización o En lenguaje coloquial, optimizar significa mejorar o En el contexto científico, es el proceso de
Más detallesCONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal...
CONTENIDO Prefacio XV CAPITULO 1: Qué es la investigación de operaciones? 1 1.1 Modelos de investigación de operaciones 1 1.2 Solución del modelo de investigación de operaciones.. 4 1.3 Modelos de colas
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesSINTONIZACION DE UN CONTROLADOR PID PARA FUNCION DE TRANSFERENCIA DE SEGUNDO ORDEN USANDO ALGORITMOS GENETICOS BASADO EN TOOLBOX DE MATLAB.
1 SINTONIZACION DE UN CONTROLADOR PID PARA FUNCION DE TRANSFERENCIA DE SEGUNDO ORDEN USANDO ALGORITMOS GENETICOS BASADO EN TOOLBOX DE MATLAB. Fredy Alexander Guasmayan Guasmayan Cedula: 14 590 212 Universidad
Más detallesCAPITULO 1: PERSPECTIVE GENERAL DE LA
CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de
Más detallesDiseño de experimentos
Diseño de experimentos Quimiometría Por qué diseñar experimentos? Exploración: cuáles factores son importantes para realizar exitosamente un proceso Optimización: cómo mejorar un proceso Ahorro de tiempo:
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesCombinatoria y análisis de algoritmos en teoría de números, teoría de la información y criptografía
Combinatoria y análisis de algoritmos en teoría de números, teoría de la información y criptografía Eda Cesaratto INFINIS, UNGS y CONICET 3 de agosto de 2016 Integrantes Valérie Berthé, Univ. Paris 7 y
Más detallesviii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos
Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................
Más detallesReduciendo el Ancho de Banda de Matrices Dispersas Simétricas con Algoritmos Genéticos
Reduciendo el Ancho de Banda de Matrices Dispersas Simétricas con Algoritmos Genéticos RICARDO LÓPEZ GUEVARA rlopezg@unmsm.edu.pe rlopezgperu@yahoo.es Universidad Nacional Mayor de San Marcos Facultad
Más detallesProgramación NO Lineal (PNL) Optimización sin restricciones
Programación NO Lineal (PNL) Optimización sin restricciones Ejemplos de los problemas que se aplica la programación NO Lineal: Problema de transporte con descuentos por cantidad : El precio unitario de
Más detallesEstado 0 (valor = 3) Estado 2 (valor = 7) Estado 1.3 (valor = 9)
Búsqueda local Fernando Berzal, berzal@acm.org Búsqueda local Ascensión de colinas Enfriamiento simulado Algoritmos genéticos 1 Ascensión de colinas Ascensión de colinas simple E: Estado activo while (E
Más detallesALGORÍTMICA
ALGORÍTMICA 2012-2013 Parte I. Introducción a las Metaheurísticas Tema 1. Metaheurísticas: Introducción y Clasificación Parte II. Métodos Basados en Trayectorias y Entornos Tema 2. Algoritmos de Búsqueda
Más detallesTÉCNICAS HEURÍSTICAS APLICADAS AL PROBLEMA DEL CARTERO VIAJANTE (TSP)
TÉCNICAS HEURÍSTICAS APLICADAS AL PROBLEMA DEL CARTERO VIAJANTE (TSP) RESUMEN El problema del cartero viajante (Traveling Salesman Problem TSP) es un problema típico de optimización. En este documento
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesBúsqueda Informada. Algoritmos primero el mejor Algoritmos de búsqueda local
Búsqueda Informada Algoritmos primero el mejor Algoritmos de búsqueda local Algoritmos primero el mejor Búsqueda primero el mejor Búsqueda Voraz A* Algoritmos primero el mejor Familia de algoritmos de
Más detallesMetaheurísticas aplicadas a Clustering
Metaheurísticas aplicadas a Clustering Andrea Villagra Departamento de Informática Universidad Nacional de San Luis Ejército de los Andes 950 (5700) San Luis Argentina e-mail: avillagra@uaco.unpa.edu.ar
Más detallesDiseños D-óptimos bayesianos para modelos lineales heteroscedásticos
XXVI Simposio Internacional de Estadística 2016 Sincelejo, Sucre, Colombia, 8 al 12 de Agosto de 2016 Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos Catalina Patiño Bustamante 1,a,
Más detallesÍndice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables
Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población
Más detallesProgramación Lineal. María Muñoz Guillermo Matemáticas I U.P.C.T. M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13
Programación Lineal María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13 Qué es la Programación Lineal? Introducción La Programación
Más detalles1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo. Algoritmos genéticos
1. Introducción 2. Esquema básico 3. Codificación 4. Evaluación 5. Selección 6. Operadores 7. Ejemplo Algoritmos genéticos Introducción Propuestos por Holland, mediados 70, computación evolutiva Popularizados
Más detallesClasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO
Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir
Más detallesMetaheurísticas. Seminario 4. Problemas de optimización con técnicas basadas en adaptación social
Metaheurísticas Seminario 4. Problemas de optimización con técnicas basadas en adaptación social 1. Diseño de Componentes para Resolver un Problema con un Algoritmo de Optimización Basada en Colonias de
Más detallesCAPÍTULO 1 PRESENTACIÓN DEL PROBLEMA DE OPTIMIZACIÓN DE CARTERAS DE INVERSIÓN
CAPÍTULO 1 PRESENTACIÓN DEL PROBLEMA DE OPTIMIZACIÓN DE CARTERAS DE INVERSIÓN Este capítulo da una introducción al problema de Optimización de Carteras de Inversión. Se menciona el objetivo general y los
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesComparación de dos métodos de aprendizaje sobre el mismo problema
Comparación de dos métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2.
Más detallesAnálisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades
Más detallesPredicción de la estructura TriDimensional de la Proteina
Predicción de la estructura TriDimensional de la Proteina October 15, 2008 Dogma de la Biología Molecular Proteina Mecánica Molecular Dinámica Molecular Método Monte Carlo Algoritmos Genéticos Dogma de
Más detallesPara llevar a cabo una simulación, se requiere implementar las siguientes etapas:
SIMULACIÓN: La simulación se define como una técnica numérica utilizada para representar un proceso o fenómeno mediante otro más simple que permite analizar sus características. Esta técnica emplea relaciones
Más detallesOPTIMIZACIÓN BASADA EN SISTEMA DE HORMIGAS CON HEURÍSTICA DE INICIALIZACIÓN 1
OPTIMIZACIÓN BASADA EN SISTEMA DE HORMIGAS CON HEURÍSTICA DE INICIALIZACIÓN 1 Marta Almirón malmiron@cnc.una.py Enrique Chaparro Viveros eviveros@cnc.una.py Benjamín Barán bbaran@cnc.una.py Centro Nacional
Más detallesEstimación por intervalos
Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto
Más detallesInteligencia de enjambres
Inteligencia de enjambres Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Autómata de estados finitos Definición A =< X, Y, E, D > Autómata de estados finitos Definición A
Más detallesIntroducción a la Investigación Operativa
Introducción a la Investigación Operativa José María Ferrer Caja Universidad Pontificia Comillas Definición Conjunto de métodos científicos que se aplican para mejorar la eficiencia de las operaciones,
Más detallesCaracterización de la incertidumbre del precio futuro del cobre
USc/lb Caracterización de la incertidumbre del precio futuro del cobre La incertidumbre en un modelo de programación estocástica debe tener la estructura de árbol de escenarios, como se muestra en la Figura
Más detallesTécnicas metaheurísticas. Álvaro García Sánchez
Álvaro García Sánchez 1. Introducción Desde los años sesenta han ido apareciendo diferentes métodos de resolución de problemas conocidos por el nombre de técnicas metaheurísticas. Estas técnicas son de
Más detallesMinería de datos (Algoritmos evolutivos)
Minería de datos (Algoritmos evolutivos) M. en C. Sergio Luis Pérez Pérez UAM CUAJIMALPA, MÉXICO, D. F. Trimestre 14-I. Sergio Luis Pérez (UAM CUAJIMALPA) Curso de minería de datos 1 / 23 Extracción de
Más detallesCONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP
CONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP Mauricio Carrillo Oliveros Prof. Guía: Juan Alfredo Gómez Universidad de la Frontera,
Más detallesÍNDICE ÍNDICE DE FIGURAS ÍNDICE DE TABLAS PREFACIO LOS SISTEMAS PRODUCTIVOS SECCIÓN I PREVISIÓN DE LA DEMANDA
ÍNDICE ÍNDICE DE FIGURAS... 15 ÍNDICE DE TABLAS... 21 PREFACIO... 25 1. LOS SISTEMAS PRODUCTIVOS... 29 1.1. Introducción... 31 1.2. Elementos de diseño del proceso... 32 1.2.1. Localización de la planta...
Más detallesEnrutamiento Multicast Multiobjetivo basado en Colonia de Hormigas
Enrutamiento Multicast Multiobjetivo basado en Colonia de Hormigas Diego Pinto & Benjamín Barán Centro Nacional de Computación, Universidad Nacional de Asunción, San Lorenzo, Paraguay {dpinto,bbaran}@cnc.una.py
Más detallesDeriva selección: Pob. grande, deriva pequeña. Estudios de simulación nos dan una idea del efecto de deriva en las poblaciones:
DERIVA GENÉTICA = Genetic drift Deriva genética: cambio producido en las frecuencias alélicas debido al muestreo de los gametos, que se realiza generación tras generación, a causa del tamaño finito de
Más detallesTeoría del valor extremo como criterio de parada en la optimización heurística de bóvedas de hormigón estructural
VII Congreso Español sobre Metaheurísticas, Algoritmos Evolutivos y Bioinspirados MAEB 2010 Valencia, 8-10 Septiembre 2010 Teoría del valor extremo como criterio de parada en la optimización heurística
Más detallesTécnicas recientes de procesado geométrico de imágenes y de secuencias de vídeo. Philippe Salembier
Técnicas recientes de procesado geométrico de imágenes y de secuencias de vídeo Philippe Salembier JORNADA CIENTÍFICA RSME TELECOMUNICACIONES Y MATEMÁTICAS Junio 2005 Estructura de la Presentación 1. Introducción
Más detallesINGENIERÍA ELÉCTRICA Y ELECTRÓNICA Análisis comparativo de metaheurísticas para calibración de localizadores de fallas en sistemas de distribución
INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Análisis comparativo de metaheurísticas para calibración de localizadores de fallas en sistemas de distribución ELECTRICAL AND ELECTRONICS ENGINEERING Comparative analysis
Más detallesMATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA CONTENIDOS Y OBJETIVOS MÍNIMOS PARA EL CURSO 2007/08. 1. INTRODUCCIÓN A LOS CONTENIDOS. ( Decreto 208/2002. B.O.J.A. de 20.08.02
Más detallesAnálisis de la relación precio marginal y demanda de electricidad mediante conglomerados
Análisis de la relación precio marginal y demanda de electricidad mediante conglomerados Andrés Ramos, Gonzalo Cortés, Jesús María Latorre, Santiago Cerisola Universidad Pontificia Comillas Índice Introducción
Más detallesSECUENCIA DIDÁCTICA. Módulo IV Competencia de Módulo:
SECUENCIA DIDÁCTICA Nombre de curso: Simulación de Sistemas. Antecedente: Ninguno Módulo IV Competencia de Módulo: Clave de curso: COM1505B21 Clave de antecedente: Ninguna Desarrollar software con la finalidad
Más detalles