Fiabilidad. Fiabilidad. María Isabel Hartillo Hermoso Granada, 25 de Mayo FQM-5849

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Fiabilidad. Fiabilidad. María Isabel Hartillo Hermoso Granada, 25 de Mayo FQM-5849"

Transcripción

1 Fiabilidad María Isabel Hartillo Hermoso Granada, 25 de Mayo FQM-5849

2 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4

3 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) =

4 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) = P(X 1 = 1, X 2 = 1, X 3 = 1, X 4 = 1) =

5 Sistemas Partimos de un sistema en serie: r 1 r 2 r 3 r 4 La fiabilidad del sistema es: R = P(X S = 1) = P(X 1 = 1, X 2 = 1, X 3 = 1, X 4 = 1) = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1) P(X 4 = 1) = r 1 r 2 r 3 r 4

6 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5

7 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0)

8 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0)

9 Sistemas Partimos de un sistema en paralelo: r 1 r 2 r 3 r 4 r 5 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0) 5 = 1 P(X 1 = 0) P(X 2 = 0) P(X 5 = 0) = 1 (1 r i ) i=1

10 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1

11 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0)

12 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0)

13 Sistemas Partimos de un sistema en paralelo: r 1 r 1 r 1 r 1 r 1 La fiabilidad del sistema es: R = P(X s = 1) = 1 P(X s = 0) = 1 P(X 1 = 0, X 2 = 0,..., X 5 = 0) = 1 P(X 1 = 0) P(X 2 = 0) P(X 5 = 0) = 1 (1 r 1 ) 5

14 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3

15 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 La fiabilidad del sistema es: R = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1)

16 Sistemas Combinando, tenemos un sistema en serie paralelo: r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 r 1 r 2 r 3 La fiabilidad del sistema es: 3 R = P(X 1 = 1) P(X 2 = 1) P(X 3 = 1) = (1 (1 r i ) 5 ) i=1

17 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n

18 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n n R(x) = (1 (1 r i ) x i ) i=1

19 Sistemas Consideramos un sistema en serie, con n subsistemas en paralelo: r 1 r 2 r n r 1 r 2 r n... r 1 r 2 r n x 1 x 2 x n (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 x i u i

20 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn x 1j x 2j x nj

21 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn x 1j x 2j x nj k n j R(x) = (1 (1 r ij ) x ij ) i=1 j=1

22 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn (P2) s.t. x 1j x 2j x nj mín i,j c ijx ij R(x) = n i=1 (1 k j j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j

23 Sistemas Si consideramos diferentes componentes en cada subsistema: r 11 r 21 r n1 r 12 r 22 r n2... r 1k1 r 2k2 r nkn (P2) s.t. x 1j x 2j x nj mín i,j c ijx ij R(x) = n i=1 (1 k j j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1

24 Trabajos previos Optimizando la fiabilidad

25 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema.

26 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto.

27 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Optimización C.S. Sung, Y.K. Cho. Reliability optimization of a series system with multiple-choice and budget constraint. European Journal of Operational Research, 75(1): , 2000.

28 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Aproximación F. Ahmadizar, H. Soltanpanah. Reliability optimization of a series system with multiple-choice and budget constraints using an efficient ant colony approach. Expert Systems with Applications, 38(4): , 2011.

29 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima.

30 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. M. Djerdjour, K. Rekab. A branch and bound algorithm for designing reliable systems at a minimum cost. Applied Mathematics and Computation, 118(2): , Optimización

31 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. Optimización N. Ruan, X. Sun. An exact algorithm for cost minimization in series reliability systems with multiple component choices. Applied Mathematics and Computation, 181(1): , 2006.

32 Trabajos previos Optimizando la fiabilidad Cantidad óptima de componentes redundantes, en cada subsistema. Maximizar la fiabilidad, sujeto a un presupuesto. Podemos minimizar el coste, fijada una fiabilidad mínima. Aproximación J.E. Ramirez-Marquez, D.W. Coit. A heuristic for solving the redundancy allocation problem for multi-state series-parallel systems. Reliability Engineering & System Safety, 83(3): , 2004.

33 Trabajos previos Djerdjour & Rekab (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 l i x i u i

34 Trabajos previos Djerdjour & Rekab (P1) s.t. mín i c ix i R(x) = n i=1 (1 (1 r i) x i ) R 0, 1 l i x i u i y i = u i x i

35 Trabajos previos Djerdjour & Rekab y i = u i x i (MP1) s.t. máx i c iy i n i=1 log(1 (1 r i) u i y i ) log(r 0 ), 0 y i u i l i

36 Trabajos previos Djerdjour & Rekab y i = u i x i (MP1) s.t. máx i c iy i n i=1 log(1 (1 r i) u i y i ) log(r 0 ), 0 y i u i l i

37 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros

38 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i )

39 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i ) f i (y i ) log(1 (1 r i ) u i y i ) y i

40 Trabajos previos Djerdjour & Rekab Como R(y) es separable, podemos construir una función f i (y i ) lineal a trozos con uniones en los valores enteros f i (0) log(1 (1 r i ) u i ) f i (1) log(1 (1 r i ) u i 1 ).. f i (u i l i ) log(1 (1 r i ) l i ) f i (y i ) log(1 (1 r i ) u i y i ) f i (y i ) es función convexa no decreciente. y i

41 Trabajos previos Djerdjour & Rekab Si denominamos f ik = f i (k), (MP1) es equivalente a: (MP1 ) máx i k c iw ik s.t. n ui l i i=1 k=1 (f ik f ik 1 )w ik log(r 0 ), w ik = 0, 1 w ik > 0 w ij = 1 j < k

42 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). }

43 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0

44 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0

45 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0 Z LP = c i y 0 i

46 Trabajos previos Djerdjour & Rekab Algoritmo greedy ( y 0 = (0,..., 0) c 0 = repeat i = máx{c1 0,... c0 n} y 0 i = y 0 i + mín { c 0 i = c i f i (y i +1) f i (y i ) c 1 f 1 (1) f 1 (0),..., 1, log(r 0)+log(R(y 0 )) f i (y i +1) f i (y i ) until y 0 i = u i l i or R(y 0 ) = R 0 ) c n f n(1) f n(0). } y 0 y G = y 0 Z LP = c i y 0 i Z G = c i y G i

47 Trabajos previos Ruan & Sun (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1

48 Trabajos previos Ruan & Sun (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 Relajamos el problema a uno lineal: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j

49 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i 0 x i,j u i,j

50 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i Con problema dual 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ)

51 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. ki j=1 a ijx ij b i Relajación lagrangiana D 2 d 2 (λ) = mín i,j c ijx ij + λ 0 ( ij a ijx ij b 0 )) + i λ i( j a ijx ij b i ) s.t. 0 x i,j u i,j Con problema dual 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ)

52 Trabajos previos Ruan & Sun Relajación lagrangiana D 1 d 1 (λ) = mín ( i,j c ijx ij + ) λ ij a ijx ij b 0 s.t. Con problema dual ki j=1 a ijx ij b i 0 x i,j u i,j (D 1 ) máx λ 0 d 1 (λ) Relajación lagrangiana D 2 d 2 (λ) = mín i,j c ijx ij + λ 0 ( ij a ijx ij b 0 )) + i λ i( j a ijx ij b i ) s.t. Con problema dual (D 2 ) máx λ R n x i,j u i,j d 2 (λ)

53 Trabajos previos Ruan & Sun Partición 1

54 Trabajos previos Ruan & Sun Partición 1

55 Trabajos previos Ruan & Sun Partición 1

56 Trabajos previos Ruan & Sun Partición 1 Partición 2

57 Trabajos previos Ruan & Sun Partición 1 Partición 2

58 Trabajos previos Ruan & Sun Partición 1 Partición 2

59 Trabajos previos Ruan & Sun Partición 1 Partición 2

60 Trabajos previos Ruan & Sun Partición 1 Partición 2

61 Trabajos previos Ruan & Sun Partición 1 Partición 2

62 Trabajos previos Ruan & Sun Partición 1 Partición 2

63 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun Require: x opt factible Ensure: x óptimo (P2) Ω =, α 1 = (0,..., 0), β 1 = (u 11,..., u nkn ) X 1 = α 1, β 1 f opt = c(x opt ). Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X 1. Calcula x 1 solución óptima asociada a LB 1

64 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun Require: x opt factible Ensure: x óptimo (P2) Ω =, α 1 = (0,..., 0), β 1 = (u 11,..., u nkn ) X 1 = α 1, β 1 f opt = c(x opt ). Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X 1. Calcula x 1 solución óptima asociada a LB 1 (Paso 1) if x k es factible then X k Partición 1, N nuevas cajas if f opt > c(x k ) then x opt = x k end if else X k Partición 2, N nuevas cajas end if

65 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1.

66 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k.

67 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k. Sea LB(X k ) = mín(lb 1, LB 2 ) if LB(X k ) < f opt then Ω = Ω X k end if end for

68 Trabajos previos Ruan & Sun Algoritmo Ruan & Sun for all X k Caja de alguna partición anterior do Calcula cota lagrangiana LB 1 de D 1 ó D 2 en X k. Calcula x k solución óptima asociada a LB 1. Calcula una cota alternativa LB 2 resolviendo (P1) en X k. Sea LB(X k ) = mín(lb 1, LB 2 ) if LB(X k ) < f opt then Ω = Ω X k end if end for if Ω = then x opt es óptimo else LB(X k+1 ) = mín{lb(x )X Ω} x k+1 solución óptima asociada a LB(X k+1 ) Ω = Ω\X k+1 Ir a (Paso 1)

69 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1

70 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1

71 (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 Relajamos el problema a uno lineal: (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j

72 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j

73 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j Si r ij R 0 k i x ij 1 (log(1 r ij ))x ij log(1 R 0 ) j j=1

74 Relajado lineal Ruan & Sun: (RP2) mín i,j c ijx ij s.t. n ki i=1 j=1 (log(1 r ij))x ij n log(1 R 1/n 0 ), ki j=1 (log(1 r ij))x ij log(1 R 0 ) 0 x i,j u i,j Si r ij R 0 k i x ij 1 (log(1 r ij ))x ij log(1 R 0 ) j j=1

75 Algoritmo greedy à la Ruan & Sun ( y 0 = (u 11,..., u nkn ), c 0 c = 11 log(1 r,..., 11) I = {(1, 1),..., (1, k 1 )..., (n, k n )}, Ordena I por orden decreciente de ci,j 0 for all (i, j) I do fiable=true & subsisnovacio=true while fiable & subsisnovacio & yi,j 0 > 0 do yi,j 0 = y i,j 0 1 if k y 0 ik < 1 then subsisnovacio=false end if if R(y 0 ) < R 0 then fiable=false end if if fiable=false o subsisnovacio=false then y 0 i,j = y 0 ij + 1 end if end while ) c nkn log(1 r nkn )

76 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2).

77 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G

78 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G El óptimo de (P2), tendrá coste inferior o igual a c G, por lo que (P2) es equivalente a:

79 Otra condición lineal Con el algoritmo greedy, calculamos y 0 factible para (P2). ij c ijy 0 ij = c G El óptimo de (P2), tendrá coste inferior o igual a c G, por lo que (P2) es equivalente a: (P2) s.t. mín i,j c ijx ij R(x) = n i=1 (1 k i j=1 (1 r ij) x ij ) R 0, 0 x i,j u i,j j x ij 1 ij c ijx ij c G

80 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G

81 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G Queremos calcular un conjunto test para (LP2).

82 Relajado lineal de (P2) (LP2) s.t. mín i,j c ijx ij 0 x i,j u i,j j x ij 1 ij c ijx ij c G Queremos calcular un conjunto test para (LP2). Usar el conjunto test para resolver (P2).

83 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b.

84 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b. Definición conjunto test Un conjunto G >c Z N es un conjunto test de una familia de IP con matriz A y coste c si para cada punto no óptimo α en cada fibra de IP existe g G >c tal que α g es un punto factible en la fibra y α > c α g,

85 Conjunto test Un problema de programación lineal entera se resuelve en general: Consideramos problemas con coste c y matriz A. La fibra de un IP se obtiene fijando b en Ax = b. Definición conjunto test Un conjunto G >c Z N es un conjunto test de una familia de IP con matriz A y coste c si para cada punto no óptimo α en cada fibra de IP existe g G >c tal que α g es un punto factible en la fibra y α > c α g, para el punto óptimo β en una fibra de IP, β g es no factible para todo g G >c.

86 Propiedades de un conjunto test Un conjunto test proporciona un método para resolver un IP dado un punto factible. En cada paso, o existe un elemento del conjunto test que mejora al actual, o no hay mejora (estamos en el óptimo). El proceso finaliza por la hipótesis de coste acotado.

87 Entrada al laberinto Dado b, se construye un grafo dirigido a partir de G >c (esqueleto de b), que verifica existe un grafo dirigido de cada punto no óptimo, factible α al único óptimo β,

88 Entrada al laberinto Dado b, se construye un grafo dirigido a partir de G >c (esqueleto de b), que verifica existe un grafo dirigido de cada punto no óptimo, factible α al único óptimo β, la función objetivo sobre puntos contiguos decrece de forma monótona desde α a β.

89

90 α

91 α

92 α

93 α

94 α

95 α

96 β α

97 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior.

98 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior. Existe un grafo dirigido desde el óptimo a un punto factible de la fibra, con la función objetivo en decrecimiento monótono.

99 Salida del laberinto El esqueleto reverso G > c se obtiene dando la vuelta a las flechas del grafo anterior. Existe un grafo dirigido desde el óptimo a un punto factible de la fibra, con la función objetivo en decrecimiento monótono. P(α): camino en el esqueleto reverso de la fibra desde el punto óptimo β a α.

100 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G

101 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2).

102 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2).

103 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c.

104 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c :

105 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama.

106 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama. Si γ i < 0 podamos la rama.

107 Resolviendo (P2) Partimos del punto y 0, factible para (P2), obtenido mediante el algoritmo greedy. Con coste c G Usando G >c, calculamos β óptimo de (LP2). Si β es fiable, es óptimo de (P2). Si β no es fiable, usamos el esqueleto reverso G > c. Para cada γ punto obtenido mediante G > c : Si c(γ) > c G, podamos la rama. Si γ i < 0 podamos la rama. Si γ es fiable, y c(γ) < c G, actualizamos c G e y 0.

108

109 β y 0

110 β y 0

111 β y 0

112 β y 0

113 β y 0

114 β y 0

115 β y 0

116 β y 0

117 β y 0

118 β y 0

119 β y 0

120 β y 0

121 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G

122 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura.

123 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1

124 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i

125 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i ij c ijx ij + b = c G

126 Calculo G >c (LP2) s.t. mín i,j c ijx ij j x ij 1 0 x i,j u i,j ij c ijx ij c G Para calcular G >c, necesitamos expresar la región factible como Ax = b, así cada desigualdad, nos añade una variable de holgura. j x ij d i = 1 x ij + t ij = u i ij c ijx ij + b = c G Supondremos que c iq c ip si q < p.

127 Usando las n primeras desigualdades: j x ij 1, llamamos: k 1 k 2 k n {}}{{}}{{}}{ D =

128 Usando las n primeras desigualdades: j x ij 1, llamamos: k 1 k 2 k n {}}{{}}{{}}{ D = El sistema anterior viene dado por la matriz, por bloques: x D I n 0 0 ij I k1 +...k n 0 I k1 +...k n 0 d i 1 t c c nkn ij = u i c b G

129 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es:

130 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es: G = {x ik d k t ik b c ik, x iq t ip x ip t iq b c iq c ip }

131 Test set Si consideramos el ideal I A asociado a la matriz anterior, la base de Gröbner reducida para un orden lexicográfico es: G = {x ik d k t ik b c ik, x iq t ip x ip t iq b c iq c ip } G también es base de Gröbner reducida para > c.

132 Un ejemplo Consideramos un sistema con 3 subsistemas en serie, y con 2 tipos de componentes para cada subsistema: r 11 r 21 r 31 r 12 r 22 r r 12 r 22 r 32 x 11 x 12 x 21 x 22 x 31 x 32

133 Un ejemplo r ij c ij (1, 1) 0, (1, 2) 0, (2, 1) 0, (2, 2) 0, (3, 1) 0, (3, 2) 0,

134 Un ejemplo r ij c ij (1, 1) 0, (1, 2) 0, (2, 1) 0, (2, 2) 0, (3, 1) 0, (3, 2) 0, y R 0 = 0,99 c y 0 = (0, 1, 0, 2, 0, 2) 0,99 67 β = (0, 1, 0, 1, 0, 1) 0, (1, 1, 0, 1, 0, 1) 0, (0, 2, 0, 1, 0, 1) 0, (0, 1, 1, 1, 0, 1) 0, (0, 1, 0, 2, 0, 1) 0, (0, 1, 0, 1, 1, 1) 0, (0, 1, 0, 1, 0, 2) 0, (1, 0, 0, 1, 0, 1) 0, (0, 1, 1, 0, 0, 1) 0, (0, 1, 0, 1, 1, 0) 0,

135 Un ejemplo y R 0 = 0,99 c (1, 1, 0, 1, 1, 0) 0, (0, 2, 0, 1, 1, 0) 0, (0, 1, 1, 1, 1, 0) 0, (0, 1, 0, 2, 1, 0) 0, (1, 0, 0, 1, 1, 0) 0, (0, 1, 1, 0, 1, 0) 0, (1, 0, 1, 0, 0, 1) 0, (1, 0, 0, 2, 0, 1) 0, (1, 0, 1, 0, 1, 0) 0,

136 Un ejemplo y R 0 = 0,99 c (1, 1, 0, 1, 1, 0) 0, (0, 2, 0, 1, 1, 0) 0, (0, 1, 1, 1, 1, 0) 0, (0, 1, 0, 2, 1, 0) 0, (1, 0, 0, 1, 1, 0) 0, (0, 1, 1, 0, 1, 0) 0, (1, 0, 1, 0, 0, 1) 0, (1, 0, 0, 2, 0, 1) 0, (1, 0, 1, 0, 1, 0) 0, Por tanto (0, 2, 0, 1, 1, 0) es el óptimo.

137 Tiempos Ruan & Sun n k N o medio de iteraciones N o medio de cajas Tiempo medio de ejecución , , , , , ,9

138 Nuestros tiempos n k Nodos Tiempo Ordenado ,0 Sí ,0 Sí ,5 Sí ,5 Sí ,0 Sí ,0 No ,0 No ,0 No

139 Nuestros tiempos n k Nodos Tiempo Ordenado ,5 0,0 Sí ,1 0,0 Sí ,5 0,5 Sí ,6 34,5 Sí ,0 Sí ,0 No ,0 No ,9 370,0 No

Conjuntos test en optimización entera no lineal. J. Gago M. I. Hartillo J. Puerto J.M. Ucha. Priego de Córdoba, de Septiembre 2013

Conjuntos test en optimización entera no lineal. J. Gago M. I. Hartillo J. Puerto J.M. Ucha. Priego de Córdoba, de Septiembre 2013 Conjuntos test en optimización entera no lineal J. Gago M. I. Hartillo J. Puerto J.M. Ucha Priego de Córdoba, 27-29 de Septiembre 2013 Método Walk-Back Programación entera con ayuda del álgebra Recordaremos

Más detalles

Algoritmos de Planos de Corte

Algoritmos de Planos de Corte Algoritmos de Planos de Corte Problema: max {cx / x X} con X = {x / Ax b, x Z n + } Proposición: conv (X) es un poliedro que puede entonces escribirse como conv (X) = {x / Ax b, x 0} Lo mismo ocurre para

Más detalles

Algoritmos de Aproximación para el problema de Corte de Multicaminos (Multiway Cut)

Algoritmos de Aproximación para el problema de Corte de Multicaminos (Multiway Cut) Algoritmos de Aproximación para el problema de Corte de Multicaminos (Multiway Cut) Julián Viera Curso de Algoritmos de Aproximación 2016 Facultad de Ingeniería - IMERL 24 de octubre de 2016 Definición

Más detalles

Programación Entera. Nelson Devia C. IN Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile

Programación Entera. Nelson Devia C. IN Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile IN3701 - Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile 2011 Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulos 10 y 11

Más detalles

Escuela de algoritmos de aproximación

Escuela de algoritmos de aproximación Escuela de algoritmos de aproximación Módulo 2: Introducción a los algoritmos de aproximación Francisco Javier Zaragoza Martínez Universidad Autónoma Metropolitana Unidad Azcapotzalco ITAM, 14 de septiembre

Más detalles

máx 5x 1 + 7x 2 s.a 2x 1 + x x 1 + 9x 2 41 x 1 0, x 2 0, enteras, z opt z opt 38

máx 5x 1 + 7x 2 s.a 2x 1 + x x 1 + 9x 2 41 x 1 0, x 2 0, enteras, z opt z opt 38 Programación Lineal Entera / Investigación Operativa PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 4. Resuelve el siguiente problema de programación entera por el método Branch and Bound: máx 5x + 7x s.a

Más detalles

Tema 3 Optimización lineal. Algoritmo del simplex

Tema 3 Optimización lineal. Algoritmo del simplex Tema 3 Optimización lineal. Algoritmo del simplex José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 3 Teorema fundamental de la programación lineal. Algoritmo

Más detalles

Programación entera 1

Programación entera 1 Programación entera 1 1. El modelo de programación entera. 2. Aplicaciones de la programación entera. 3. Solución gráfica de problemas enteros. 4. El algoritmo de ramificación y acotación. 5. El algoritmo

Más detalles

Forma estándar de un programa lineal

Forma estándar de un programa lineal Forma estándar de un programa lineal Sin pérdida de generalidad, todo programa lineal se puede escribir como: min cx s.t Ax = b x 0 Objetivo: minimizar Todas las desigualdades como ecuaciones Todas las

Más detalles

Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut

Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut Práctica N o 8 Desigualdades Válidas - Algoritmos de Planos de Corte - Algoritmos Branch & Cut 8.1 Para cada uno de los siguientes conjuntos, encontrar una desigualdad válida que agregada a la formulación

Más detalles

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 5 Condiciones de Karush-Kuhn-Tucker (KKT). Problemas

Más detalles

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria. Dualidad 1 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. Condiciones de holgura complementaria. 6 Solución dual óptima en la tabla. 7 Interpretación

Más detalles

Métodos de Optimización para la toma de decisiones

Métodos de Optimización para la toma de decisiones Facultad de Ingeniería Departamento de Ciencias de la Ingeniería Magíster en Logística y Gestión de Operaciones Métodos de Optimización para la toma de decisiones MLG-521 Programación Entera 1º Semestre

Más detalles

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas.

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas. Tema 3 Dualidad En el desarrollo de la programación lineal la teoria de la dualidad es importante, tanto desde el punto de vista teórico como desde el punto de vista práctico. Para cada modelo lineal se

Más detalles

CO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008

CO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008 Dantzig-Wolfe / Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 06 de febrero de 2008 Contenido 1 Dantzig-Wolfe 2 Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2 Ahora la nueva base produce

Más detalles

Tema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten

Tema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten Tema 2 Fundamentos Teóricos de la Programación Dinámica 2.1. Teorema de Optimalidad de Mitten El objetivo básico en la programación dinámica consiste en descomponer un problema de optimización en k variables

Más detalles

Generación de variables aleatorias continuas Método de rechazo

Generación de variables aleatorias continuas Método de rechazo Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa

Más detalles

Programación Lineal. Yolanda Hinojosa

Programación Lineal. Yolanda Hinojosa Programación Lineal Yolanda Hinojosa Contenido Formulación primal de un programa lineal. Propiedades Algoritmo del simplex Algoritmo dual del simplex Formulación dual de un programa lineal. Propiedades

Más detalles

CAPÍTULO II METODOLOGÍA DE SOLUCIÓN. Este capítulo es de suma importancia ya que en él se explica la metodología de solución

CAPÍTULO II METODOLOGÍA DE SOLUCIÓN. Este capítulo es de suma importancia ya que en él se explica la metodología de solución CAPÍTULO II METODOLOGÍA DE SOLUCIÓN Este capítulo es de suma importancia ya que en él se explica la metodología de solución utilizada en este trabajo para resolver de manera exacta el Problema de Localización

Más detalles

Teniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros:

Teniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros: Tema 5 Programación entera En este tema introducimos problemas lineales en los que algunas o todas las variables están restringidas a tomar valores enteros. Para resolver este tipo de problemas se han

Más detalles

Fundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari

Fundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari Fundamentos de Programación Entera A. Revisión Carlos Testuri Germán Ferrari Departamento de Investigación Operativa Instituto de Computación Facultad de Ingeniería Universidad de la República 2012-2018

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Contenido. 1 Resolución mediante planos de corte. Resolución mediante planos de corte

Contenido. 1 Resolución mediante planos de corte. Resolución mediante planos de corte Contenido 1 Resolución mediante planos de corte para LP para IP Facultad de Ingeniería. UdelaR Fundamentos de Programación Entera 1/20 para LP para IP Resolución mediante planos de corte La metodología

Más detalles

Modelización Avanzada en Logística y Transporte

Modelización Avanzada en Logística y Transporte Modelización Avanzada en Logística y Transporte Unidad 2: Bases de programación matemática y teoría de grafos Luis M. Torres Escuela Politécnica del Litoral Guayaquil, Octubre 2006 Maestría en Control

Más detalles

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 16 de febrero de 2007

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 16 de febrero de 2007 UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa de febrero de 7 Problema. ( puntos Dado el problema de programación lineal: Maximizar x x + x s.a x + x x x x +

Más detalles

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex. El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.

Más detalles

Ejercicios de Programación Entera

Ejercicios de Programación Entera Ejercicios de Programación Entera Investigación Operativa Ingeniería Informática, UC3M Curso 08/09. En una ciudad se intenta disminuir la contaminación reduciendo la circulación interurbana. Un primer

Más detalles

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 11 de abril, 2013 Método de Aceptación y Rechazo

Más detalles

Fundamentos de Programación Entera. 6. Planos de corte. Carlos Testuri Germán Ferrari

Fundamentos de Programación Entera. 6. Planos de corte. Carlos Testuri Germán Ferrari Fundamentos de Programación Entera 6. Planos de corte Carlos Testuri Germán Ferrari Departamento de Investigación Operativa Instituto de Computación Facultad de Ingeniería Universidad de la República 2012-2018

Más detalles

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 8 de Septiembre de 23 25 puntos Dado el problema lineal máx x + x 2 x 3 sa x + x 2 + x 3 2 2x x 2 x 3 2 x, se pide

Más detalles

Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas

Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas Clasificación de Sistemas Clasificación de Sistemas Simples, complicados o complejos Deterministas o probabilistas Centralizados o distribuidos Reactivos o proactivos Rígidos o adaptativos Simples, complicados

Más detalles

Multiplicadores de Lagrange y dualidad

Multiplicadores de Lagrange y dualidad Multiplicadores de Lagrange y dualidad Problemas con solo restricciones de igualdad Sea x* un mínimo local y regular ( : son linealmente independientes), entonces existen tales que: Interpretación y ejemplos.

Más detalles

Tema 18. Programación lineal Formulación primal de un programa lineal

Tema 18. Programación lineal Formulación primal de un programa lineal Tema 18 Programación lineal 18.1. Formulación primal de un programa lineal Dentro de la programación matemática hablamos de programación lineal (PL) si tanto la función objetivo como las restricciones

Más detalles

1. Defina el problema de particionamiento. Escriba un ejemplo de este tipo de problema, junto con su formulación general en AMPL.

1. Defina el problema de particionamiento. Escriba un ejemplo de este tipo de problema, junto con su formulación general en AMPL. DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA o. DIPLOMATURA DE ESTADÍSTICA Ampliación de la Investigación Operativa. Curso 00/0 a Prueba de Evaluación Continua. Fecha: 6-6-0. Defina el problema

Más detalles

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1 Funciones de mérito José Francisco Tudón Maldonado Mario Roberto Urbina Núñez 9 de abril de 011 1 Introducción Las funciones de mérito surgen para determinar en un algoritmo que resuelve un problema de

Más detalles

CAPÍTULO 4 PROGRAMACIÓN LINEAL ENTERA

CAPÍTULO 4 PROGRAMACIÓN LINEAL ENTERA CAPÍTULO 4 PROGRAMACIÓN LINEAL ENTERA Programación Lineal Entera Es una técnica que permite modelar y resolver problemas cuya característica principal es que el conjunto de soluciones factibles es discreto.

Más detalles

Programación lineal Optimización de procesos químicos DIQUIMA-ETSII

Programación lineal Optimización de procesos químicos DIQUIMA-ETSII Programación lineal PROGRAMACIÓN LINEAL PROGRAMACIÓN LINEAL se formula siguiendo el planteamiento general: Función objetivo Restricciones de igualdad Restricciones de desigualdad Límite variables PROGRAMACIÓN

Más detalles

Formas canónicas reales

Formas canónicas reales Capítulo 7 Formas canónicas reales Introducción Sea V un espacio vectorial sobre C, f End(V y M B (f = A M(n n Sea λ = a + bi es una autovalor complejo de f de multiplicidad m Para tal autovalor complejo

Más detalles

Optimización de Problemas de Producción

Optimización de Problemas de Producción Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de

Más detalles

Factorización QR Método iterativo de Jacobi

Factorización QR Método iterativo de Jacobi Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas

Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Generación de variables aleatorias discretas Método de aceptación y rechazo Método de composición Método de la urna Método de tablas Georgina Flesia FaMAF 10 de abril, 2012 Método de Aceptación y Rechazo

Más detalles

Análisis Post Optimal y Algoritmo de Ramificación y Acotamiento

Análisis Post Optimal y Algoritmo de Ramificación y Acotamiento Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN34A: Clase Auxiliar Análisis Post Optimal y Algoritmo de Ramificación y Acotamiento Marcel Goic F.

Más detalles

Programación Lineal. - Si no: Sea j tal que c

Programación Lineal. - Si no: Sea j tal que c Programación Lineal El objetivo de este documento es hacer una breve introducción a la programación lineal que pueda contribuir al fácil manejo de la aplicación. La programación lineal es un procedimiento

Más detalles

Tema 6: Resolución aproximada de sistemas de ecuaciones lineales

Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Métodos Numéricos: Resumen y ejemplos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

Métodos de gradiente. Métodos de Krylov

Métodos de gradiente. Métodos de Krylov Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso

Más detalles

Tema 5: Problemas de Optimización

Tema 5: Problemas de Optimización Modelos de Informática Teórica - Universidad de Granada Contenido Problemas de Optimización Algoritmos ǫ-aproximados Análisis de problemas: cubrimiento por vértices, viajante de comercio, corte máximo,

Más detalles

Formulando con modelos lineales enteros

Formulando con modelos lineales enteros Universidad de Chile 19 de marzo de 2012 Contenidos 1 Forma de un problema Lineal Entero 2 Modelando con variables binarias 3 Tipos de Problemas Forma General de un MILP Problema de optimización lineal

Más detalles

Algoritmos en teoría de números

Algoritmos en teoría de números Algoritmos en teoría de números IIC2283 IIC2283 Algoritmos en teoría de números 1 / 92 Para recordar: aritmética modular Dados dos números a, b Z, si b > 0 entonces existen α, β Z tales que 0 β < b y a

Más detalles

Problemas resueltos C3 IN

Problemas resueltos C3 IN Problemas resueltos C3 IN77 28 Profesores: Cristián Cortés, Daniel Espinoza Auxiliares: Gustavo Angulo, Diego Morán y José Mu~noz P Sea S = {s,..., s n } subconjunto de R n y considere y R n \ conv(s).

Más detalles

Formulación del problema de la ruta más corta en programación lineal

Formulación del problema de la ruta más corta en programación lineal Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,

Más detalles

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3: Resolución aproximada de ecuaciones

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3: Resolución aproximada de ecuaciones E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3: Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Octubre

Más detalles

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 10 de septiembre de 2008

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 10 de septiembre de 2008 UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 10 de septiembre de 2008 Problema 1. (2 puntos) Trabajas en una compañía de transporte aéreo de mercancías. Tienes

Más detalles

CO5411. Prof. Bernardo Feijoo. 13 de febrero de Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar

CO5411. Prof. Bernardo Feijoo. 13 de febrero de Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 13 de febrero de 2008 Contenido 1 Contenido 1 Existe un vector x 0 que cumple Bx = a a T u 0 para todos los u que satisfacen B T

Más detalles

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Soluciones Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Sistemas Inteligentes I Tema 3. Juegos José A. Montenegro Montes

Sistemas Inteligentes I Tema 3. Juegos José A. Montenegro Montes Sistemas Inteligentes I Tema 3. Juegos José A. Montenegro Montes monte@lcc.uma.es Resumen! Juegos! Algoritmo Minimax! Poda Alfa-Beta! Funciones de Evaluación Juegos! Entornos multiagente, donde cada agente

Más detalles

El algoritmo del Simplex. Forma tabular

El algoritmo del Simplex. Forma tabular El algoritmo del Simplex. Forma tabular 1 Soluciones básicas factibles Consideremos el siguiente poliedro P = {x R n, tal que Ax = b, x } con A M m n, b R m, m n, x y RangoA = RangoA, b = m. Observación

Más detalles

Tema 2: Bases de Gröbner

Tema 2: Bases de Gröbner Tema 2: Bases de Gröbner Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Febrero de 2018 Olalla (Universidad de Sevilla) Tema 2: Bases de Gröbner Febrero de

Más detalles

En el siguiente capítulo se hablará del uso del método de generación de columnas para resolver el problema de corte ( cutting stock ).

En el siguiente capítulo se hablará del uso del método de generación de columnas para resolver el problema de corte ( cutting stock ). Capitulo 3 Método de Generación de Columnas El método de generación de columnas, es muy útil en problemas con un gran número de variables pero con un relativamente pequeño número de restricciones (Hunsaker,

Más detalles

SECUENCIACIÓN DE UNA LÍNEA DE PRODUCCIÓN CON MÁQUINAS EN PARALELO MEDIANTE PROGRAMACIÓN ENTERA MIXTA MULTI-OBJETIVO

SECUENCIACIÓN DE UNA LÍNEA DE PRODUCCIÓN CON MÁQUINAS EN PARALELO MEDIANTE PROGRAMACIÓN ENTERA MIXTA MULTI-OBJETIVO SECUENCIACIÓN DE UNA LÍNEA DE PRODUCCIÓN CON MÁQUINAS EN PARALELO MEDIANTE PROGRAMACIÓN ENTERA MIXTA MULTI-OBJETIVO Beatriz Murrieta Cortés ab, Juan Carlos Espinoza García ac, Fabiola Regis Hernández ad

Más detalles

Dualidad y postoptimización

Dualidad y postoptimización Dualidad y postoptimización José María Ferrer Caja Universidad Pontificia Comillas Definición A cada problema de optimización lineal le corresponde otro que se denomina problema dual En forma canónica

Más detalles

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3 Resolución aproximada de ecuaciones

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3 Resolución aproximada de ecuaciones E.T.S. Minas: Métodos Matemáticos Soluciones Tema 3 Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Curso

Más detalles

Multiplicación de matrices simétricas

Multiplicación de matrices simétricas Multiplicación de matrices simétricas La traspuesta de una matriz A n n es definida como una matriz A T n n tal que A T [i, j] =A[j, i] paracadai, j 2{1,...,n} Además, una matriz A es simétrica si A =

Más detalles

MA37A. Optimización con restricciones: Gradiente Reducido. Oscar Peredo. 14 de Octubre del 2008

MA37A. Optimización con restricciones: Gradiente Reducido. Oscar Peredo. 14 de Octubre del 2008 MA37A Sesión #5 Optimización con restricciones: Gradiente Reducido Oscar Peredo 14 de Octubre del 2008 Esquema 1 Explicación del Método del Gradiente Reducido 2 Problema Ejemplo 3 Implementación en Octave

Más detalles

Métodos Numéricos: Ejercicios resueltos

Métodos Numéricos: Ejercicios resueltos Métodos Numéricos: Ejercicios resueltos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica

Más detalles

Método Simplex en Optimización de Problemas de Producción

Método Simplex en Optimización de Problemas de Producción Método Simplex en Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile - Fernando Islas - Carlos Testuri Héctor Cancela - Antonio Mauttone Depto. Investigación Operativa. Instituto de Computación.

Más detalles

Tema 5: Resolución aproximada de ecuaciones

Tema 5: Resolución aproximada de ecuaciones Métodos Numéricos: Solución de los ejercicios Tema 5: Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Abril

Más detalles

max z = c T x sujeto a Ax b

max z = c T x sujeto a Ax b Tema 4 Análisis de sensibilidad El análisis de sensibilidad se realiza después de obtener la solución óptima de un modelo lineal para deteminar como afectan los cambios en los parámetros del modelo a la

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

Generación de variables aleatorias discretas Método de la Transformada Inversa

Generación de variables aleatorias discretas Método de la Transformada Inversa Generación de variables aleatorias discretas Método de la Transformada Inversa Georgina Flesia FaMAF 9 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:

Más detalles

Examen de Investigación Operativa 2006/07

Examen de Investigación Operativa 2006/07 Examen de Investigación Operativa 2006/07 ITIG-UC3M, 10 de septiembre de 2007, 10:00-12:00 Nombre, apellidos, grupo y NIA: Problema 1 Problema 2 Problema 3 Problema 4 Total Nota: indica en cada caso el

Más detalles

Simulación y Optimización de Procesos Químicos. Titulación: Ingeniería Química. 5º Curso Optimización

Simulación y Optimización de Procesos Químicos. Titulación: Ingeniería Química. 5º Curso Optimización Simulación Optimización de Procesos Químicos Titulación: Ingeniería Química. 5º Curso Optimización MILP, MINLP (Mixed Integer (Non) Linear Programming). Octubre de 009. Optimización Discreta Programación

Más detalles

Optimizando el mundo real utilizando inteligencia artificial

Optimizando el mundo real utilizando inteligencia artificial Optimizando el mundo real utilizando inteligencia artificial Dr. Ricardo Soto [ricardo.soto@ucv.cl] [http://www.inf.ucv.cl/ rsoto] FONDECYT Iniciación 11130459, CONICYT Adaptive Enumeration and Propagation

Más detalles

Introducción a la Programación Matemática. Yolanda Hinojosa

Introducción a la Programación Matemática. Yolanda Hinojosa Introducción a la Programación Matemática Yolanda Hinojosa Contenido Planteamiento general de un problema de programación matemática. Convexidad. ANEXO: Derivadas Sucesivas. Fórmula de Taylor. Clasificación

Más detalles

Tema 1. Modelos lineales y solución gráfica. 1.1 El modelo lineal

Tema 1. Modelos lineales y solución gráfica. 1.1 El modelo lineal Tema 1 Modelos lineales y solución gráfica La programación lineal es una importante rama de la Investigación Operativa. Esta técnica matemática consiste en una serie de métodos que permiten obtener la

Más detalles

Nicolás Rivera. 23 de Junio de 2011

Nicolás Rivera. 23 de Junio de 2011 Teoría de Matroides. Nicolás Rivera 23 de Junio de 2011 Pontificia Universidad Católica de Chile Índice 1 Introducción: Definiciones y Propiedades básicas Índice 1 Introducción: Definiciones y Propiedades

Más detalles

4.6. Interpolación mediante splines (polinomios a trozos) Figura 4.1: Datos de interpolación

4.6. Interpolación mediante splines (polinomios a trozos) Figura 4.1: Datos de interpolación Capítulo 4 INTERPOLACIÓN 46 Interpolación mediante splines polinomios a trozos En las figuras siguientes se puede observar alguno de los problemas que la interpolación clásica con polinomios puede plantear

Más detalles

CI63G Planificación de Sistemas de Transporte Público Urbano. Clase 12 Semestre Otoño 2008

CI63G Planificación de Sistemas de Transporte Público Urbano. Clase 12 Semestre Otoño 2008 CI63G Planificación de Sistemas de Transporte Público Urbano Clase 12 Semestre Otoño 2008 Modelos de asignación de Transporte Público Para una oferta y demanda dadas de transporte público, se decide como

Más detalles

Programación lineal entera (PLE)

Programación lineal entera (PLE) Programación lineal entera (PLE) Qué es un problema de programación lineal entera?: sujeto a Max c x Ax b x Z + Qué es un problema de programación lineal entera mixta (PLEM)? Algunas variables son continuas

Más detalles

TEMA 11: INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA CON VARIABLES DISCRETAS

TEMA 11: INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA CON VARIABLES DISCRETAS TEMA 11: INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA CON VARIABLES DISCRETAS 1.- ECUACIONES LINEALES (MILP) 1.1.- Formulación 1.2.- Algoritmos para resolver MILPs 2.- VISIÓN GENERAL DE LOS ALGORITMOS DE

Más detalles

Compromiso entre Pares e ISPs: Un Modelo de Optimización Multiobjetivo

Compromiso entre Pares e ISPs: Un Modelo de Optimización Multiobjetivo Compromiso entre Pares e ISPs: Un Modelo de Optimización Multiobjetivo Darío Padula Director de Tesis: Dr. Pablo Rodriguez-Bocca Director Académico: Dr. Franco Robledo Amoza Instituto de Investigación:

Más detalles

Fundamentos de Investigación de Operaciones Modelos de Grafos

Fundamentos de Investigación de Operaciones Modelos de Grafos Fundamentos de Investigación de Operaciones de junio de 00 Muchos problemas de optimización puedes ser analizados y resueltos a través de representaciones gráficas. Tal es el caso de los problemas de planificación

Más detalles

Deducción de las fórmulas del método del gradiente conjugado

Deducción de las fórmulas del método del gradiente conjugado Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por

Más detalles

Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior

Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior Cálculo infinitesimal Grado en Matemáticas Curso 2004/5 Clave de soluciones n o 6 Derivadas de orden superior 70. Hallar los polinomios de Taylor del grado indicado y en el punto indicado para las siguientes

Más detalles

Introducción a la Teoría de Códigos

Introducción a la Teoría de Códigos Introducción a la Teoría de Códigos M.A. García, L. Martínez, T. Ramírez Facultad de Ciencia y Tecnología. UPV/EHU Resumen Teórico Tema 4: CÓDIGOS CÍCLICOS Mayo de 2017 Tema 4 Códigos cíclicos 1 Definición

Más detalles

PROGRAMACION ENTERA: METODO DE BIFURCACIÓN Y ACOTAMIENTO

PROGRAMACION ENTERA: METODO DE BIFURCACIÓN Y ACOTAMIENTO PROGRAMACION ENTERA: METODO DE BIFURCACIÓN Y ACOTAMIENTO La mayor parte de los PE se resuelven en la práctica mediante la técnica de ramificación y acotamiento. En este método se encuentra la solución

Más detalles

Tema 2 Conjuntos convexos

Tema 2 Conjuntos convexos Tema 2 Conjuntos convexos José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 2 Conjuntos convexos. Propiedades básicas y ejemplos. Cierre e interior de un

Más detalles

Resolución del problema. Problema: Los puntos extremos no tienen por qué ser enteros

Resolución del problema. Problema: Los puntos extremos no tienen por qué ser enteros Resolución del problema Problema: Los puntos extremos no tienen por qué ser enteros Si fueran enteros no habría problema por qué no obtener la envoltura convexa? demasiado costoso Hay unas formulaciones

Más detalles

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

3. Algoritmos de puntos interiores para. Programación Lineal Introducción CO-5411 (S08) 23/02/

3. Algoritmos de puntos interiores para. Programación Lineal Introducción CO-5411 (S08) 23/02/ CO-5411 S08) 23/02/2008 35 3. Algoritmos de puntos interiores para Programación Lineal 3.1. Introducción A nales de la década de los años 40, George B. Dantzig diseña el algoritmo Simplex y da comienzo

Más detalles

José Manuel Arroyo Sánchez

José Manuel Arroyo Sánchez Programación lineal entera-mixta José Manuel Arroyo Sánchez Área de Ingeniería Eléctrica Universidad de Castilla La Mancha 1 PROGRAMACIÓN LINEAL ENTERA-MIXTA BIBLIOGRAFÍA G. L. NEMHAUSER, L. A. WOLSEY.

Más detalles

MATEMÁTICAS II Examen del 2/12/2004 Solución Importante

MATEMÁTICAS II Examen del 2/12/2004 Solución Importante MATEMÁTICAS II Examen del //004 Solución Importante Las calificaciones se harán públicas en la página web de la asignatura y en el tablón de anuncios del Dpto. de Métodos Cuantitativos en Economía y Gestión

Más detalles

Colección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30

Colección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30 1.- Dado el siguiente problema mín Z = 8x 1 + 9x + 7x 3 s. a: x 1 + x + x 3 40 x 1 + 3x + x 3 10 x 1 + x x 3 30 x 1 0, x 0, x 3 0 A) Plantear el problema dual y escribir las condiciones de la holgura complementaria

Más detalles

EXTENSIONES DE LA PROGRAMACIÓN LINEAL

EXTENSIONES DE LA PROGRAMACIÓN LINEAL EXTENSIONES DE LA PROGRAMACIÓN LINEAL MODELOS OPTIMIZANTES MUNDO REAL ABSTRACCION OPERACION M MODELOS DE DECISIÓN NO RESTRINGIDOS RESTRINGIDOS MIN 6 / x 1 + 5 x 1 + 7 / x 2 + x 1.x 2 PROGRAMAS MATEMÁTICOS

Más detalles

Programación Lineal. El modelo Matemático

Programación Lineal. El modelo Matemático Programación Lineal. El modelo Matemático 1 Modelización Definición 1.1 Consideremos el problema de optimización con restricciones, definido como sigue Min f(x) s.a. g i (x) b i i = 1, 2,..., m (P OR)

Más detalles

x 1, x 2 0 Maximizar 3x 1 + x 2 s.a 2x 1 + x 2 4 2x 1 + 3x 2 4 x 1 + 3x 2 3

x 1, x 2 0 Maximizar 3x 1 + x 2 s.a 2x 1 + x 2 4 2x 1 + 3x 2 4 x 1 + 3x 2 3 EJERCICIOS DE INVESTIGACIÓN OPERATIVA. Hoja. Dado el PL: Maximizar x + x x s.a x + x + x x x x x, x, x Calcula la solución del problema aplicando el algoritmo del Simplex. Existe más de una solución óptima?

Más detalles