Fiabilidad. Fiabilidad. María Isabel Hartillo Hermoso Granada, 25 de Mayo FQM-5849
|
|
- Sergio Chávez Cordero
- hace 5 años
- Vistas:
Transcripción
1 Fiabilidad María Isabel Hartillo Hermoso Granada, 25 de Mayo FQM-5849
2 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4
3 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) =
4 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) = P(X 1 = 1, X 2 = 1, X 3 = 1, X 4 = 1) =
5 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) = P(X 1 = 1, X 2 = 1, X 3 = 1, X 4 = 1) = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1) P(X 4 = 1) = r 1 r 2 r 3 r 4
6 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5
7 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0)
8 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0)
9 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0) 5 = 1 P(X 1 = 0) P(X 2 = 0) P(X 5 = 0) = 1 (1 r i ) i=1
10 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1
11 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0)
12 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0)
13 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0) = 1 P(X 1 = 0) P(X 2 = 0) P(X 5 = 0) = 1 (1 r 1 ) 5
14 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3
15 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 La fiabilidad del sistema es: R = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1)
16 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 La fiabilidad del sistema es: 3 R = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1) = (1 (1 r i ) 5 ) i=1
17 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n
18 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n n R(x) = (1 (1 r i ) x i ) i=1
19 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 x i u i
20 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn x 1j x 2j x nj
21 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn x 1j x 2j x nj k n j R(x) = (1 (1 r ij ) x ij ) i=1 j=1
22 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn (P2) s.t. x 1j x 2j x nj mín i,j c ijx ij R(x) = n i=1 (1 k j j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j
23 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn (P2) s.t. x 1j x 2j x nj mín i,j c ijx ij R(x) = n i=1 (1 k j j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1
24 Trabajos previos Optimizando la fiabilidad
25 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema.
26 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto.
27 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Optimización C.S. Sung, Y.K. Cho. Reliability optimization of a series system with multiple-choice and budget constraint. European Journal of Operational Research, 75(1): , 2000.
28 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Aproximación F. Ahmadizar, H. Soltanpanah. Reliability optimization of a series system with multiple-choice and budget constraints using an efficient ant colony approach. Expert Systems with Applications, 38(4): , 2011.
29 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima.
30 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. M. Djerdjour, K. Rekab. A branch and bound algorithm for designing reliable systems at a minimum cost. Applied Mathematics and Computation, 118(2): , Optimización
31 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. Optimización N. Ruan, X. Sun. An exact algorithm for cost minimization in series reliability systems with multiple component choices. Applied Mathematics and Computation, 181(1): , 2006.
32 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. Aproximación J.E. Ramirez-Marquez, D.W. Coit. A heuristic for solving the redundancy allocation problem for multi-state series-parallel systems. Reliability Engineering & System Safety, 83(3): , 2004.
33 Trabajos previos Djerdjour & Rekab (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 l i x i u i
34 Trabajos previos Djerdjour & Rekab (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 l i x i u i y i = u i x i
35 Trabajos previos Djerdjour & Rekab y i = u i x i (MP1) s.t. máx i c iy i n i=1 log(1 (1 r i) u i y i ) log(r 0 ), 0 y i u i l i
36 Trabajos previos Djerdjour & Rekab y i = u i x i (MP1) s.t. máx i c iy i n i=1 log(1 (1 r i) u i y i ) log(r 0 ), 0 y i u i l i
37 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros
38 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i )
39 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i ) f i (y i ) log(1 (1 r i ) u i y i ) y i
40 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i ) f i (y i ) log(1 (1 r i ) u i y i ) f i (y i ) es función convexa no decreciente. y i
41 Trabajos previos Djerdjour & Rekab Si denominamos f ik = f i (k), (MP1) es equivalente a: (MP1 ) máx i k c iw ik s.t. n ui l i i=1 k=1 (f ik f ik 1 )w ik log(r 0 ), w ik = 0, 1 w ik > 0 w ij = 1 j < k
42 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). }
43 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0
44 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0
45 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0 Z LP = c i y 0 i
46 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0 Z LP = c i y 0 i Z G = c i y G i
47 Trabajos previos Ruan & Sun (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1
48 Trabajos previos Ruan & Sun (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 Relajamos el problema a uno lineal: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j
49 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i 0 x i,j u i,j
50 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i Con problema dual 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ)
51 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i Relajación lagrangiana D 2 d 2 (λ) = mín i,j c ijx ij + λ 0 ( ij a ijx ij b 0 )) + i λ i( j a ijx ij b i ) s.t. 0 x i,j u i,j Con problema dual 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ)
52 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. Con problema dual ki j=1 a ijx ij b i 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ) Relajación lagrangiana D 2 d 2 (λ) = mín i,j c ijx ij + λ 0 ( ij a ijx ij b 0 )) + i λ i( j a ijx ij b i ) s.t. Con problema dual (D 2 ) máx λ R n x i,j u i,j d 2 (λ)
53 Trabajos previos Ruan & Sun Partición 1
54 Trabajos previos Ruan & Sun Partición 1
55 Trabajos previos Ruan & Sun Partición 1
56 Trabajos previos Ruan & Sun Partición 1 Partición 2
57 Trabajos previos Ruan & Sun Partición 1 Partición 2
58 Trabajos previos Ruan & Sun Partición 1 Partición 2
59 Trabajos previos Ruan & Sun Partición 1 Partición 2
60 Trabajos previos Ruan & Sun Partición 1 Partición 2
61 Trabajos previos Ruan & Sun Partición 1 Partición 2
62 Trabajos previos Ruan & Sun Partición 1 Partición 2
63 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun Require: x opt factible Ensure: x óptimo (P2) Ω =, α 1 = (0,..., 0), β 1 = (u 11,..., u nkn ) X 1 = α 1, β 1 f opt = c(x opt ). Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X 1. Calcula x 1 solución óptima asociada a LB 1
64 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun Require: x opt factible Ensure: x óptimo (P2) Ω =, α 1 = (0,..., 0), β 1 = (u 11,..., u nkn ) X 1 = α 1, β 1 f opt = c(x opt ). Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X 1. Calcula x 1 solución óptima asociada a LB 1 (Paso 1) if x k es factible then X k Partición 1, N nuevas cajas if f opt > c(x k ) then x opt = x k end if else X k Partición 2, N nuevas cajas end if
65 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1.
66 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k.
67 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k. Sea LB(X k ) = mín(lb 1, LB 2 ) if LB(X k ) < f opt then Ω = Ω X k end if end for
68 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k. Sea LB(X k ) = mín(lb 1, LB 2 ) if LB(X k ) < f opt then Ω = Ω X k end if end for if Ω = then x opt es óptimo else LB(X k+1 ) = mín{lb(x )X Ω} x k+1 solución óptima asociada a LB(X k+1 ) Ω = Ω\X k+1 Ir a (Paso 1)
69 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1
70 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1
71 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 Relajamos el problema a uno lineal: (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j
72 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j
73 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j Si r ij R 0 k i x ij 1 (log(1 r ij ))x ij log(1 R 0 ) j j=1
74 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j Si r ij R 0 k i x ij 1 (log(1 r ij ))x ij log(1 R 0 ) j j=1
75 Algoritmo greedy à la Ruan & Sun ( y 0 = (u 11,..., u nkn ), c 0 c = 11 log(1 r,..., 11) I = {(1, 1),..., (1, k 1 )..., (n, k n )}, Ordena I por orden decreciente de ci,j 0 for all (i, j) I do fiable=true & subsisnovacio=true while fiable & subsisnovacio & yi,j 0 > 0 do yi,j 0 = y i,j 0 1 if k y 0 ik < 1 then subsisnovacio=false end if if R(y 0 ) < R 0 then fiable=false end if if fiable=false o subsisnovacio=false then y 0 i,j = y 0 ij + 1 end if end while ) c nkn log(1 r nkn )
76 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2).
77 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G
78 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G El óptimo de (P2), tendrá coste inferior o igual a c G, por lo que (P2) es equivalente a:
79 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G El óptimo de (P2), tendrá coste inferior o igual a c G, por lo que (P2) es equivalente a: (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 ij c ijx ij c G
80 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G
81 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G Queremos calcular un conjunto test para (LP2).
82 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G Queremos calcular un conjunto test para (LP2). Usar el conjunto test para resolver (P2).
83 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b.
84 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b. Definición conjunto test Un conjunto G >c Z N es un conjunto test de una familia de IP con matriz A y coste c si para cada punto no óptimo α en cada fibra de IP existe g G >c tal que α g es un punto factible en la fibra y α > c α g,
85 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b. Definición conjunto test Un conjunto G >c Z N es un conjunto test de una familia de IP con matriz A y coste c si para cada punto no óptimo α en cada fibra de IP existe g G >c tal que α g es un punto factible en la fibra y α > c α g, para el punto óptimo β en una fibra de IP, β g es no factible para todo g G >c.
86 Propiedades de un conjunto test Un conjunto test proporciona un método para resolver un IP dado un punto factible. En cada paso, o existe un elemento del conjunto test que mejora al actual, o no hay mejora (estamos en el óptimo). El proceso finaliza por la hipótesis de coste acotado.
87 Entrada al laberinto Dado b, se construye un grafo dirigido a partir de G >c (esqueleto de b), que verifica existe un grafo dirigido de cada punto no óptimo, factible α al único óptimo β,
88 Entrada al laberinto Dado b, se construye un grafo dirigido a partir de G >c (esqueleto de b), que verifica existe un grafo dirigido de cada punto no óptimo, factible α al único óptimo β, la función objetivo sobre puntos contiguos decrece de forma monótona desde α a β.
89
90 α
91 α
92 α
93 α
94 α
95 α
96 β α
97 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior.
98 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior. Existe un grafo dirigido desde el óptimo a un punto factible de la fibra, con la función objetivo en decrecimiento monótono.
99 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior. Existe un grafo dirigido desde el óptimo a un punto factible de la fibra, con la función objetivo en decrecimiento monótono. P(α): camino en el esqueleto reverso de la fibra desde el punto óptimo β a α.
100 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G
101 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2).
102 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2).
103 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c.
104 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c :
105 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama.
106 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama. Si γ i < 0 podamos la rama.
107 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama. Si γ i < 0 podamos la rama. Si γ es fiable, y c(γ) < c G, actualizamos c G e y 0.
108
109 β y 0
110 β y 0
111 β y 0
112 β y 0
113 β y 0
114 β y 0
115 β y 0
116 β y 0
117 β y 0
118 β y 0
119 β y 0
120 β y 0
121 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G
122 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura.
123 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1
124 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i
125 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i ij c ijx ij + b = c G
126 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i ij c ijx ij + b = c G Supondremos que c iq c ip si q < p.
127 Usando las n primeras desigualdades: j x ij 1, llamamos: k 1 k 2 k n {}}{{}}{{}}{ D =
128 Usando las n primeras desigualdades: j x ij 1, llamamos: k 1 k 2 k n {}}{{}}{{}}{ D = El sistema anterior viene dado por la matriz, por bloques: x D I n 0 0 ij I k1 +...k n 0 I k1 +...k n 0 d i 1 t c c nkn ij = u i c b G
129 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es:
130 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es: G = {x ik d k t ik b c ik, x iq t ip x ip t iq b c iq c ip }
131 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es: G = {x ik d k t ik b c ik, x iq t ip x ip t iq b c iq c ip } G también es base de Gröbner reducida para > c.
132 Un ejemplo Consideramos un sistema con 3 subsistemas en serie, y con 2 tipos de componentes para cada subsistema: r 11 r 21 r 31 r 12 r 22 r r 12 r 22 r 32 x 11 x 12 x 21 x 22 x 31 x 32
133 Un ejemplo r ij c ij (1, 1) 0, (1, 2) 0, (2, 1) 0, (2, 2) 0, (3, 1) 0, (3, 2) 0,
134 Un ejemplo r ij c ij (1, 1) 0, (1, 2) 0, (2, 1) 0, (2, 2) 0, (3, 1) 0, (3, 2) 0, y R 0 = 0,99 c y 0 = (0, 1, 0, 2, 0, 2) 0,99 67 β = (0, 1, 0, 1, 0, 1) 0, (1, 1, 0, 1, 0, 1) 0, (0, 2, 0, 1, 0, 1) 0, (0, 1, 1, 1, 0, 1) 0, (0, 1, 0, 2, 0, 1) 0, (0, 1, 0, 1, 1, 1) 0, (0, 1, 0, 1, 0, 2) 0, (1, 0, 0, 1, 0, 1) 0, (0, 1, 1, 0, 0, 1) 0, (0, 1, 0, 1, 1, 0) 0,
135 Un ejemplo y R 0 = 0,99 c (1, 1, 0, 1, 1, 0) 0, (0, 2, 0, 1, 1, 0) 0, (0, 1, 1, 1, 1, 0) 0, (0, 1, 0, 2, 1, 0) 0, (1, 0, 0, 1, 1, 0) 0, (0, 1, 1, 0, 1, 0) 0, (1, 0, 1, 0, 0, 1) 0, (1, 0, 0, 2, 0, 1) 0, (1, 0, 1, 0, 1, 0) 0,
136 Un ejemplo y R 0 = 0,99 c (1, 1, 0, 1, 1, 0) 0, (0, 2, 0, 1, 1, 0) 0, (0, 1, 1, 1, 1, 0) 0, (0, 1, 0, 2, 1, 0) 0, (1, 0, 0, 1, 1, 0) 0, (0, 1, 1, 0, 1, 0) 0, (1, 0, 1, 0, 0, 1) 0, (1, 0, 0, 2, 0, 1) 0, (1, 0, 1, 0, 1, 0) 0, Por tanto (0, 2, 0, 1, 1, 0) es el óptimo.
137 Tiempos Ruan & Sun n k N o medio de iteraciones N o medio de cajas Tiempo medio de ejecución , , , , , ,9
138 Nuestros tiempos n k Nodos Tiempo Ordenado ,0 Sí ,0 Sí ,5 Sí ,5 Sí ,0 Sí ,0 No ,0 No ,0 No
139 Nuestros tiempos n k Nodos Tiempo Ordenado ,5 0,0 Sí ,1 0,0 Sí ,5 0,5 Sí ,6 34,5 Sí ,0 Sí ,0 No ,0 No ,9 370,0 No
Conjuntos test en optimización entera no lineal. J. Gago M. I. Hartillo J. Puerto J.M. Ucha. Priego de Córdoba, de Septiembre 2013
Conjuntos test en optimización entera no lineal J. Gago M. I. Hartillo J. Puerto J.M. Ucha Priego de Córdoba, 27-29 de Septiembre 2013 Método Walk-Back Programación entera con ayuda del álgebra Recordaremos
Más detallesAlgoritmos de Planos de Corte
Algoritmos de Planos de Corte Problema: max {cx / x X} con X = {x / Ax b, x Z n + } Proposición: conv (X) es un poliedro que puede entonces escribirse como conv (X) = {x / Ax b, x 0} Lo mismo ocurre para
Más detallesAlgoritmos de Aproximación para el problema de Corte de Multicaminos (Multiway Cut)
Algoritmos de Aproximación para el problema de Corte de Multicaminos (Multiway Cut) Julián Viera Curso de Algoritmos de Aproximación 2016 Facultad de Ingeniería - IMERL 24 de octubre de 2016 Definición
Más detallesProgramación Entera. Nelson Devia C. IN Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile
IN3701 - Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile 2011 Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulos 10 y 11
Más detallesEscuela de algoritmos de aproximación
Escuela de algoritmos de aproximación Módulo 2: Introducción a los algoritmos de aproximación Francisco Javier Zaragoza Martínez Universidad Autónoma Metropolitana Unidad Azcapotzalco ITAM, 14 de septiembre
Más detallesmáx 5x 1 + 7x 2 s.a 2x 1 + x x 1 + 9x 2 41 x 1 0, x 2 0, enteras, z opt z opt 38
Programación Lineal Entera / Investigación Operativa PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 4. Resuelve el siguiente problema de programación entera por el método Branch and Bound: máx 5x + 7x s.a
Más detallesTema 3 Optimización lineal. Algoritmo del simplex
Tema 3 Optimización lineal. Algoritmo del simplex José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 3 Teorema fundamental de la programación lineal. Algoritmo
Más detallesProgramación entera 1
Programación entera 1 1. El modelo de programación entera. 2. Aplicaciones de la programación entera. 3. Solución gráfica de problemas enteros. 4. El algoritmo de ramificación y acotación. 5. El algoritmo
Más detallesForma estándar de un programa lineal
Forma estándar de un programa lineal Sin pérdida de generalidad, todo programa lineal se puede escribir como: min cx s.t Ax = b x 0 Objetivo: minimizar Todas las desigualdades como ecuaciones Todas las
Más detallesPráctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut
Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut 8.1 Para cada uno de los siguientes conjuntos, encontrar una desigualdad válida que agregada a la formulación
Más detallesTema 5 Dualidad y condiciones de Karush-Kuhn-Tucker
Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 5 Condiciones de Karush-Kuhn-Tucker (KKT). Problemas
Más detallesDualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.
Dualidad 1 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. Condiciones de holgura complementaria. 6 Solución dual óptima en la tabla. 7 Interpretación
Más detallesMétodos de Optimización para la toma de decisiones
Facultad de Ingeniería Departamento de Ciencias de la Ingeniería Magíster en Logística y Gestión de Operaciones Métodos de Optimización para la toma de decisiones MLG-521 Programación Entera 1º Semestre
Más detalles84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas.
Tema 3 Dualidad En el desarrollo de la programación lineal la teoria de la dualidad es importante, tanto desde el punto de vista teórico como desde el punto de vista práctico. Para cada modelo lineal se
Más detallesCO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008
Dantzig-Wolfe / Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 06 de febrero de 2008 Contenido 1 Dantzig-Wolfe 2 Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2 Ahora la nueva base produce
Más detallesTema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten
Tema 2 Fundamentos Teóricos de la Programación Dinámica 2.1. Teorema de Optimalidad de Mitten El objetivo básico en la programación dinámica consiste en descomponer un problema de optimización en k variables
Más detallesGeneración de variables aleatorias continuas Método de rechazo
Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa
Más detallesProgramación Lineal. Yolanda Hinojosa
Programación Lineal Yolanda Hinojosa Contenido Formulación primal de un programa lineal. Propiedades Algoritmo del simplex Algoritmo dual del simplex Formulación dual de un programa lineal. Propiedades
Más detallesCAPÍTULO II METODOLOGÍA DE SOLUCIÓN. Este capítulo es de suma importancia ya que en él se explica la metodología de solución
CAPÍTULO II METODOLOGÍA DE SOLUCIÓN Este capítulo es de suma importancia ya que en él se explica la metodología de solución utilizada en este trabajo para resolver de manera exacta el Problema de Localización
Más detallesTeniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros:
Tema 5 Programación entera En este tema introducimos problemas lineales en los que algunas o todas las variables están restringidas a tomar valores enteros. Para resolver este tipo de problemas se han
Más detallesFundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari
Fundamentos de Programación Entera A. Revisión Carlos Testuri Germán Ferrari Departamento de Investigación Operativa Instituto de Computación Facultad de Ingeniería Universidad de la República 2012-2018
Más detallesIntroducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.
Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),
Más detallesContenido. 1 Resolución mediante planos de corte. Resolución mediante planos de corte
Contenido 1 Resolución mediante planos de corte para LP para IP Facultad de Ingeniería. UdelaR Fundamentos de Programación Entera 1/20 para LP para IP Resolución mediante planos de corte La metodología
Más detallesModelización Avanzada en Logística y Transporte
Modelización Avanzada en Logística y Transporte Unidad 2: Bases de programación matemática y teoría de grafos Luis M. Torres Escuela Politécnica del Litoral Guayaquil, Octubre 2006 Maestría en Control
Más detallesUNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 16 de febrero de 2007
UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa de febrero de 7 Problema. ( puntos Dado el problema de programación lineal: Maximizar x x + x s.a x + x x x x +
Más detallesEl método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.
El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.
Más detallesEjercicios de Programación Entera
Ejercicios de Programación Entera Investigación Operativa Ingeniería Informática, UC3M Curso 08/09. En una ciudad se intenta disminuir la contaminación reduciendo la circulación interurbana. Un primer
Más detallesGeneración de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas
Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 11 de abril, 2013 Método de Aceptación y Rechazo
Más detallesFundamentos de Programación Entera. 6. Planos de corte. Carlos Testuri Germán Ferrari
Fundamentos de Programación Entera 6. Planos de corte Carlos Testuri Germán Ferrari Departamento de Investigación Operativa Instituto de Computación Facultad de Ingeniería Universidad de la República 2012-2018
Más detallesUNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa
UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 8 de Septiembre de 23 25 puntos Dado el problema lineal máx x + x 2 x 3 sa x + x 2 + x 3 2 2x x 2 x 3 2 x, se pide
Más detallesClasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas
Clasificación de Sistemas Clasificación de Sistemas Simples, complicados o complejos Deterministas o probabilistas Centralizados o distribuidos Reactivos o proactivos Rígidos o adaptativos Simples, complicados
Más detallesMultiplicadores de Lagrange y dualidad
Multiplicadores de Lagrange y dualidad Problemas con solo restricciones de igualdad Sea x* un mínimo local y regular ( : son linealmente independientes), entonces existen tales que: Interpretación y ejemplos.
Más detallesTema 18. Programación lineal Formulación primal de un programa lineal
Tema 18 Programación lineal 18.1. Formulación primal de un programa lineal Dentro de la programación matemática hablamos de programación lineal (PL) si tanto la función objetivo como las restricciones
Más detalles1. Defina el problema de particionamiento. Escriba un ejemplo de este tipo de problema, junto con su formulación general en AMPL.
DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA o. DIPLOMATURA DE ESTADÍSTICA Ampliación de la Investigación Operativa. Curso 00/0 a Prueba de Evaluación Continua. Fecha: 6-6-0. Defina el problema
Más detallesJosé Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1
Funciones de mérito José Francisco Tudón Maldonado Mario Roberto Urbina Núñez 9 de abril de 011 1 Introducción Las funciones de mérito surgen para determinar en un algoritmo que resuelve un problema de
Más detallesCAPÍTULO 4 PROGRAMACIÓN LINEAL ENTERA
CAPÍTULO 4 PROGRAMACIÓN LINEAL ENTERA Programación Lineal Entera Es una técnica que permite modelar y resolver problemas cuya característica principal es que el conjunto de soluciones factibles es discreto.
Más detallesProgramación lineal Optimización de procesos químicos DIQUIMA-ETSII
Programación lineal PROGRAMACIÓN LINEAL PROGRAMACIÓN LINEAL se formula siguiendo el planteamiento general: Función objetivo Restricciones de igualdad Restricciones de desigualdad Límite variables PROGRAMACIÓN
Más detallesFormas canónicas reales
Capítulo 7 Formas canónicas reales Introducción Sea V un espacio vectorial sobre C, f End(V y M B (f = A M(n n Sea λ = a + bi es una autovalor complejo de f de multiplicidad m Para tal autovalor complejo
Más detallesOptimización de Problemas de Producción
Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de
Más detallesFactorización QR Método iterativo de Jacobi
Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
Más detallesGeneración de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas
Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 10 de abril, 2012 Método de Aceptación y Rechazo
Más detallesAnálisis Post Optimal y Algoritmo de Ramificación y Acotamiento
Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN34A: Clase Auxiliar Análisis Post Optimal y Algoritmo de Ramificación y Acotamiento Marcel Goic F.
Más detallesProgramación Lineal. - Si no: Sea j tal que c
Programación Lineal El objetivo de este documento es hacer una breve introducción a la programación lineal que pueda contribuir al fácil manejo de la aplicación. La programación lineal es un procedimiento
Más detallesTema 6: Resolución aproximada de sistemas de ecuaciones lineales
Métodos Numéricos: Resumen y ejemplos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesMétodos de gradiente. Métodos de Krylov
Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso
Más detallesTema 5: Problemas de Optimización
Modelos de Informática Teórica - Universidad de Granada Contenido Problemas de Optimización Algoritmos ǫ-aproximados Análisis de problemas: cubrimiento por vértices, viajante de comercio, corte máximo,
Más detallesFormulando con modelos lineales enteros
Universidad de Chile 19 de marzo de 2012 Contenidos 1 Forma de un problema Lineal Entero 2 Modelando con variables binarias 3 Tipos de Problemas Forma General de un MILP Problema de optimización lineal
Más detallesAlgoritmos en teoría de números
Algoritmos en teoría de números IIC2283 IIC2283 Algoritmos en teoría de números 1 / 92 Para recordar: aritmética modular Dados dos números a, b Z, si b > 0 entonces existen α, β Z tales que 0 β < b y a
Más detallesProblemas resueltos C3 IN
Problemas resueltos C3 IN77 28 Profesores: Cristián Cortés, Daniel Espinoza Auxiliares: Gustavo Angulo, Diego Morán y José Mu~noz P Sea S = {s,..., s n } subconjunto de R n y considere y R n \ conv(s).
Más detallesFormulación del problema de la ruta más corta en programación lineal
Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,
Más detallesE.T.S. Minas: Métodos Matemáticos Soluciones Tema 3: Resolución aproximada de ecuaciones
E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3: Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Octubre
Más detallesUNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 10 de septiembre de 2008
UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 10 de septiembre de 2008 Problema 1. (2 puntos) Trabajas en una compañía de transporte aéreo de mercancías. Tienes
Más detallesCO5411. Prof. Bernardo Feijoo. 13 de febrero de Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar
Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 13 de febrero de 2008 Contenido 1 Contenido 1 Existe un vector x 0 que cumple Bx = a a T u 0 para todos los u que satisfacen B T
Más detallesE.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones
ETS Minas: Métodos Matemáticos Soluciones Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesSistemas Inteligentes I Tema 3. Juegos José A. Montenegro Montes
Sistemas Inteligentes I Tema 3. Juegos José A. Montenegro Montes monte@lcc.uma.es Resumen! Juegos! Algoritmo Minimax! Poda Alfa-Beta! Funciones de Evaluación Juegos! Entornos multiagente, donde cada agente
Más detallesEl algoritmo del Simplex. Forma tabular
El algoritmo del Simplex. Forma tabular 1 Soluciones básicas factibles Consideremos el siguiente poliedro P = {x R n, tal que Ax = b, x } con A M m n, b R m, m n, x y RangoA = RangoA, b = m. Observación
Más detallesTema 2: Bases de Gröbner
Tema 2: Bases de Gröbner Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Febrero de 2018 Olalla (Universidad de Sevilla) Tema 2: Bases de Gröbner Febrero de
Más detallesEn el siguiente capítulo se hablará del uso del método de generación de columnas para resolver el problema de corte ( cutting stock ).
Capitulo 3 Método de Generación de Columnas El método de generación de columnas, es muy útil en problemas con un gran número de variables pero con un relativamente pequeño número de restricciones (Hunsaker,
Más detallesSECUENCIACIÓN DE UNA LÍNEA DE PRODUCCIÓN CON MÁQUINAS EN PARALELO MEDIANTE PROGRAMACIÓN ENTERA MIXTA MULTI-OBJETIVO
SECUENCIACIÓN DE UNA LÍNEA DE PRODUCCIÓN CON MÁQUINAS EN PARALELO MEDIANTE PROGRAMACIÓN ENTERA MIXTA MULTI-OBJETIVO Beatriz Murrieta Cortés ab, Juan Carlos Espinoza García ac, Fabiola Regis Hernández ad
Más detallesDualidad y postoptimización
Dualidad y postoptimización José María Ferrer Caja Universidad Pontificia Comillas Definición A cada problema de optimización lineal le corresponde otro que se denomina problema dual En forma canónica
Más detallesE.T.S. Minas: Métodos Matemáticos Soluciones Tema 3 Resolución aproximada de ecuaciones
E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3 Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Curso
Más detallesMultiplicación de matrices simétricas
Multiplicación de matrices simétricas La traspuesta de una matriz A n n es definida como una matriz A T n n tal que A T [i, j] =A[j, i] paracadai, j 2{1,...,n} Además, una matriz A es simétrica si A =
Más detallesMA37A. Optimización con restricciones: Gradiente Reducido. Oscar Peredo. 14 de Octubre del 2008
MA37A Sesión #5 Optimización con restricciones: Gradiente Reducido Oscar Peredo 14 de Octubre del 2008 Esquema 1 Explicación del Método del Gradiente Reducido 2 Problema Ejemplo 3 Implementación en Octave
Más detallesMétodos Numéricos: Ejercicios resueltos
Métodos Numéricos: Ejercicios resueltos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica
Más detallesMétodo Simplex en Optimización de Problemas de Producción
Método Simplex en Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile - Fernando Islas - Carlos Testuri Héctor Cancela - Antonio Mauttone Depto. Investigación Operativa. Instituto de Computación.
Más detallesTema 5: Resolución aproximada de ecuaciones
Métodos Numéricos: Solución de los ejercicios Tema 5: Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Abril
Más detallesmax z = c T x sujeto a Ax b
Tema 4 Análisis de sensibilidad El análisis de sensibilidad se realiza después de obtener la solución óptima de un modelo lineal para deteminar como afectan los cambios en los parámetros del modelo a la
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detallesOptimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19
Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R
Más detallesOptimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR
Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad
Más detallesGeneración de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Georgina Flesia FaMAF 9 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesExamen de Investigación Operativa 2006/07
Examen de Investigación Operativa 2006/07 ITIG-UC3M, 10 de septiembre de 2007, 10:00-12:00 Nombre, apellidos, grupo y NIA: Problema 1 Problema 2 Problema 3 Problema 4 Total Nota: indica en cada caso el
Más detallesSimulación y Optimización de Procesos Químicos. Titulación: Ingeniería Química. 5º Curso Optimización
Simulación Optimización de Procesos Químicos Titulación: Ingeniería Química. 5º Curso Optimización MILP, MINLP (Mixed Integer (Non) Linear Programming). Octubre de 009. Optimización Discreta Programación
Más detallesOptimizando el mundo real utilizando inteligencia artificial
Optimizando el mundo real utilizando inteligencia artificial Dr. Ricardo Soto [ricardo.soto@ucv.cl] [http://www.inf.ucv.cl/ rsoto] FONDECYT Iniciación 11130459, CONICYT Adaptive Enumeration and Propagation
Más detallesIntroducción a la Programación Matemática. Yolanda Hinojosa
Introducción a la Programación Matemática Yolanda Hinojosa Contenido Planteamiento general de un problema de programación matemática. Convexidad. ANEXO: Derivadas Sucesivas. Fórmula de Taylor. Clasificación
Más detallesTema 1. Modelos lineales y solución gráfica. 1.1 El modelo lineal
Tema 1 Modelos lineales y solución gráfica La programación lineal es una importante rama de la Investigación Operativa. Esta técnica matemática consiste en una serie de métodos que permiten obtener la
Más detallesNicolás Rivera. 23 de Junio de 2011
Teoría de Matroides. Nicolás Rivera 23 de Junio de 2011 Pontificia Universidad Católica de Chile Índice 1 Introducción: Definiciones y Propiedades básicas Índice 1 Introducción: Definiciones y Propiedades
Más detalles4.6. Interpolación mediante splines (polinomios a trozos) Figura 4.1: Datos de interpolación
Capítulo 4 INTERPOLACIÓN 46 Interpolación mediante splines polinomios a trozos En las figuras siguientes se puede observar alguno de los problemas que la interpolación clásica con polinomios puede plantear
Más detallesCI63G Planificación de Sistemas de Transporte Público Urbano. Clase 12 Semestre Otoño 2008
CI63G Planificación de Sistemas de Transporte Público Urbano Clase 12 Semestre Otoño 2008 Modelos de asignación de Transporte Público Para una oferta y demanda dadas de transporte público, se decide como
Más detallesProgramación lineal entera (PLE)
Programación lineal entera (PLE) Qué es un problema de programación lineal entera?: sujeto a Max c x Ax b x Z + Qué es un problema de programación lineal entera mixta (PLEM)? Algunas variables son continuas
Más detallesTEMA 11: INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA CON VARIABLES DISCRETAS
TEMA 11: INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA CON VARIABLES DISCRETAS 1.- ECUACIONES LINEALES (MILP) 1.1.- Formulación 1.2.- Algoritmos para resolver MILPs 2.- VISIÓN GENERAL DE LOS ALGORITMOS DE
Más detallesCompromiso entre Pares e ISPs: Un Modelo de Optimización Multiobjetivo
Compromiso entre Pares e ISPs: Un Modelo de Optimización Multiobjetivo Darío Padula Director de Tesis: Dr. Pablo Rodriguez-Bocca Director Académico: Dr. Franco Robledo Amoza Instituto de Investigación:
Más detallesFundamentos de Investigación de Operaciones Modelos de Grafos
Fundamentos de Investigación de Operaciones de junio de 00 Muchos problemas de optimización puedes ser analizados y resueltos a través de representaciones gráficas. Tal es el caso de los problemas de planificación
Más detallesDeducción de las fórmulas del método del gradiente conjugado
Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por
Más detallesCálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior
Cálculo infinitesimal Grado en Matemáticas Curso 2004/5 Clave de soluciones n o 6 Derivadas de orden superior 70. Hallar los polinomios de Taylor del grado indicado y en el punto indicado para las siguientes
Más detallesIntroducción a la Teoría de Códigos
Introducción a la Teoría de Códigos M.A. García, L. Martínez, T. Ramírez Facultad de Ciencia y Tecnología. UPV/EHU Resumen Teórico Tema 4: CÓDIGOS CÍCLICOS Mayo de 2017 Tema 4 Códigos cíclicos 1 Definición
Más detallesPROGRAMACION ENTERA: METODO DE BIFURCACIÓN Y ACOTAMIENTO
PROGRAMACION ENTERA: METODO DE BIFURCACIÓN Y ACOTAMIENTO La mayor parte de los PE se resuelven en la práctica mediante la técnica de ramificación y acotamiento. En este método se encuentra la solución
Más detallesTema 2 Conjuntos convexos
Tema 2 Conjuntos convexos José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 2 Conjuntos convexos. Propiedades básicas y ejemplos. Cierre e interior de un
Más detallesResolución del problema. Problema: Los puntos extremos no tienen por qué ser enteros
Resolución del problema Problema: Los puntos extremos no tienen por qué ser enteros Si fueran enteros no habría problema por qué no obtener la envoltura convexa? demasiado costoso Hay unas formulaciones
Más detallesE.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones
ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesSupport Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Más detalles3. Algoritmos de puntos interiores para. Programación Lineal Introducción CO-5411 (S08) 23/02/
CO-5411 S08) 23/02/2008 35 3. Algoritmos de puntos interiores para Programación Lineal 3.1. Introducción A nales de la década de los años 40, George B. Dantzig diseña el algoritmo Simplex y da comienzo
Más detallesJosé Manuel Arroyo Sánchez
Programación lineal entera-mixta José Manuel Arroyo Sánchez Área de Ingeniería Eléctrica Universidad de Castilla La Mancha 1 PROGRAMACIÓN LINEAL ENTERA-MIXTA BIBLIOGRAFÍA G. L. NEMHAUSER, L. A. WOLSEY.
Más detallesMATEMÁTICAS II Examen del 2/12/2004 Solución Importante
MATEMÁTICAS II Examen del //004 Solución Importante Las calificaciones se harán públicas en la página web de la asignatura y en el tablón de anuncios del Dpto. de Métodos Cuantitativos en Economía y Gestión
Más detallesColección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30
1.- Dado el siguiente problema mín Z = 8x 1 + 9x + 7x 3 s. a: x 1 + x + x 3 40 x 1 + 3x + x 3 10 x 1 + x x 3 30 x 1 0, x 0, x 3 0 A) Plantear el problema dual y escribir las condiciones de la holgura complementaria
Más detallesEXTENSIONES DE LA PROGRAMACIÓN LINEAL
EXTENSIONES DE LA PROGRAMACIÓN LINEAL MODELOS OPTIMIZANTES MUNDO REAL ABSTRACCION OPERACION M MODELOS DE DECISIÓN NO RESTRINGIDOS RESTRINGIDOS MIN 6 / x 1 + 5 x 1 + 7 / x 2 + x 1.x 2 PROGRAMAS MATEMÁTICOS
Más detallesProgramación Lineal. El modelo Matemático
Programación Lineal. El modelo Matemático 1 Modelización Definición 1.1 Consideremos el problema de optimización con restricciones, definido como sigue Min f(x) s.a. g i (x) b i i = 1, 2,..., m (P OR)
Más detallesx 1, x 2 0 Maximizar 3x 1 + x 2 s.a 2x 1 + x 2 4 2x 1 + 3x 2 4 x 1 + 3x 2 3
EJERCICIOS DE INVESTIGACIÓN OPERATIVA. Hoja. Dado el PL: Maximizar x + x x s.a x + x + x x x x x, x, x Calcula la solución del problema aplicando el algoritmo del Simplex. Existe más de una solución óptima?
Más detalles