CO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008

Documentos relacionados
CO5411. Prof. Bernardo Feijoo. 13 de febrero de Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar

Degeneración y ciclaje. Método de las dos fases CO-3411 (S08) 30/03/

Forma estándar de un programa lineal

max c T x s.a. Ax b x 0 y un diccionario general para dicho problema a rs x s, c s x s z = d + b r y r min b T y s.a. A T y c y 0

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

Tema 3: El Método Simplex. Algoritmo de las Dos Fases.

La factorización eta CO-3411 (S08) 09/03/

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas.

Dualidad. Dpto. Ingeniería Industrial, Universidad de Chile. 22 de abril de IN3701, Optimización

Control 2 IN mayo 2009

Programación Entera. Nelson Devia C. IN Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile

Nelson Devia C Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulo 3

Optimización de Problemas de Producción

Tema 18. Programación lineal Formulación primal de un programa lineal

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Guía de Problemas para el Control 2

Auxiliar 7: Dualidad

Colección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30

Método Simplex en Optimización de Problemas de Producción

Unidad III Teoría de la Dualidad.

Algebra lineal y conjuntos convexos

Repaso del algoritmo SIMPLEX

Análisis de sensibilidad 1

Se desea resolver el problema. P : mín f(x) (5.1)

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

Algoritmos de Planos de Corte

Fundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari

Teniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros:

Propiedad de Completez (Parte 2) (3) Si A es un subconjunto de un campo ordenado F y u F, se dice que u es un máximo de A si,

Programación Lineal. María Muñoz Guillermo Matemáticas I U.P.C.T. M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13

Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son:

Formulación del problema de la ruta más corta en programación lineal

INGENIERÍA DE SISTEMAS INVESTIGACIÓN OPERATIVA

Algoritmo de Karmarkar

Soluciones básicas factibles y vértices Introducción al método símplex. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

máx 5x 1 + 7x 2 s.a 2x 1 + x x 1 + 9x 2 41 x 1 0, x 2 0, enteras, z opt z opt 38

Dualidad y postoptimización

Ejercicios - Resolución de problemas lineales. Método Simplex

IN Guía de Problemas Resueltos de Geometría de Programación Lineal v1.0

3. Algoritmos de puntos interiores para. Programación Lineal Introducción CO-5411 (S08) 23/02/

max z = c T x sujeto a Ax b

Figura 1: Esquema de las tablas simplex de inicio y general.

Control 2 13 de Mayo 2009

1.Restricciones de Desigualdad 2.Procedimiento algebraico

MÉTODO SIMPLEX REVISADO O FORMA MATRICIAL

Programación lineal: Algoritmo del simplex

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización lineal. Diego A. Patino. 2 de septiembre de Pontificia Universidad Javeriana 1/ 29

Universidad Carlos III de Madrid Licenciatura en Administración de Empresas Examen de Programación Matemática 19 de Septiembre de 2007 Soluciones

POST-OPTIMIZACIÓN Y SENSIBILIDAD EN PROBLEMAS LINEALES.

3.1. Motivación gráfica del método Simplex

(2.b) PROPIEDADES DE LOS MODELOS LINEALES

Conjunto Factible. Restricciones en el modelo. Restricciones en el modelo PROGRAMACION LINEAL PARTE 2 MÉTODO GRAFICO ADM- METODO GRAFICO

RESOLUCIÓN DE MODELOS DE PROGRAMACIÓN ENTERA

PAUTA C1. ] si z [x, , y] si z ( 2 )] si z [x, x ( x+y. 2 ] si z ( x ( x+y. )] si z [( ( y x+y

Tema 3 Optimización lineal. Algoritmo del simplex

Con miras a conocer la metodología que se aplica en el Método SIMPLEX, tenemos a continiacion un ejemplo:

Programación Lineal III. Análisis Post-Optimal

Tema 2. Fundamentos Teóricos de la. programación dinámica Teorema de Optimalidad de Mitten

Programación entera 1

Programación Lineal. - Si no: Sea j tal que c

maximización (con restricciones de la forma menor igual que). asociado al modelo primal de minimización y viceversa.

PROGRAMACIÓN MATEMÁTICA

Programación Lineal. Yolanda Hinojosa

Problemas resueltos C3 IN

El método Ramifica y acota (Branch and Bound) (V)

Ejercicios de Programación Lineal

Universidad Tec Milenio: Profesional HG04002 Análisis de Decisiones I

Examen de Investigación Operativa (Plan 96) Febrero de er Parcial

ANÁLISIS DE SENSIBILIDAD.

5.1. Algoritmo en modelos de maximización

315 M/R Versión 1 Integral 1/ /1 UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA INGENIERÍA

El algoritmo del Simplex. Forma tabular

El problema del agente viajero

Universidad Nacional Autónoma de Nicaragua UNAN-Managua Curso de Investigación de Operaciones

Conversión a la Forma Estándar

Matemáticas.

Ba s e, d i M e n s i ó n y Mat r i z

Métodos de Optimización para la toma de decisiones

INTRODUCCIÓN A LA PROGRAMACIÓN ENTERA

Matemáticas

RESOLUCIÓN DE MODELOS DE PROGRAMACIÓN ENTERA MÉTODOS DE CORTE CORTES DE GOMORY

Optimización combinatoria Flujo en redes. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

UNIDAD 3 MÉTODO SIMPLEX. Fundamentos del método simplex

Análisis Post Optimal y Algoritmo de Ramificación y Acotamiento

Programación Lineal II. Teoría de la dualidad

Comenzaremos presentando la idea principal del método de Karmarkar, para después describir los detalles de cómputo del algoritmo.

Geometría y Poliedros

EJERCICIO 1. Max Z = 6 x x 2 s.r. (1) 4 x x 2 12 (2) 2 x x 2 16 (3) 2 x 1 6 x 1, x 2 0

Ejercicios de Programación Entera

Universidad del Rosario Economía Matemática II Taller 8 - Kuhn Tucker

Forma estándar de un PPL con m restricciones y n variables. (b 0)

Tema 2: Optimización lineal. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga

MLG521. Cristóbal Rojas MLG521

TEST IO-I T1. CONCEPTOS PREVIOS. C1.1. Cualquier conjunto convexo tiene al menos un punto extremo?

SISTEMA DE ECUACIONES LINEALES Y NO LINEALES

-PROTHIUS- Métodos Cuantitativos de Organización Industrial: Programación Lineal. Joaquín Bautista Valhondo. D-05/2011 (Rec.

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1

7. PROGRAMACION LINEAL

Teórica VIII. Modelos y Optimización I. Curso 2018 Segundo Cuatrimestre

Transcripción:

Dantzig-Wolfe / Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 06 de febrero de 2008

Contenido 1 Dantzig-Wolfe 2

Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2

Ahora la nueva base produce lo siguiente: ( ) ( ) 10 6 p2 B = x 1 1 B = = p 3 ( 1 /2 1/2 ) c B = ( 22 18 ).

Iteración 3 (Fase II): Resolvemos el sistema y T B = c B T, que ahora queda: ( ) 10 6 (y 1, y 2 ) = (22, 18) 1 1 que da como resultado y T = (1, 12). El subproblema tiene las mismas restricciones que los anteriores, pero su costo es: ( c T y T A ) = (1, 3, 1, 1) (1, 1, 1, 1) = (0, 2, 2, 0).

Igual que antes lo separamos en dos problemas de dos variables y lo resolvemos grácamente. Nos da como solución óptima: v 3 = (0, 6, 0, 0) que cumple ( c T y T A ) v 3 = 12 12 = y m +1 lo cual indica que la solución actual es una solución óptima del Problema Maestro

Nos da una solución del problema original: 0 x = p 2 v 2 + p 3 v 3 = 1 6 2 0 + 1 2 4 0 6 0 0 = con valor óptimo z = 20 (note que este valor se obtiene sustituyendo x en la función objetivo original y también haciendo c T B x B con la última solución básica del Problema Maestro). 0 6 0 2

Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2

La iteración (1) Dantzig-Wolfe Se supone dada una SBF, ya sea para el Problema Maestro o para la Fase I. Resolver y T B = c T B, donde B es la matriz básica actual y c B es el vector de costos básicos. Resolver el subproblema: max ( c T y T A ) x s.a. A x = b l x u, donde y es el vector y menos la última componente. En el caso de Fase I, c debe ser cero.

La iteración (2) Si el subproblema tiene una SBF óptima v con ( c T y T A ) v > y m +1, entonces La columna entrante es: ã = ( A v 1 ) con costo: c T v (Fase I, costo 0)

La iteración (3) Dantzig-Wolfe En caso contrario si el subproblema es no acotado se produce una dirección de no acotación w, entonces ( ) A w La columna entrante es: ã = 0 con costo: c T w (Fase I, costo 0)

La iteración (4) Dantzig-Wolfe En caso contrario (el subproblema tiene una SBF óptima v con ( c T y T A ) v y m +1), entonces La solución actual del Problema Maestro es óptima De aquí en adelante proceder como en el Simplex Revisado usual.

Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2

Cotas superiores sobre el óptimo Volvemos al subproblema: max ( c T y T A ) x s.a. A x = b l x u (1) y supongamos que tenemos una solución óptima x con valor z. Ahora sea x cualquier solución factible del problema original. Por denición de z y como x es factible para (1) tenemos: ( c T y T A ) x z

Cotas superiores sobre el óptimo que podemos escribir c T x z + y T A x = z + y T b que es una cota superior sobre el óptimo del problema original que se puede calcular con los datos obtenidos. Esta cota se puede usar para detener el algoritmo cuando esté sucientemente cercana al valor actual de la función objetivo.

Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2

Cuando el Problema Maestro tiene variables de holgura (caso de desigualdades) hay que calcular sus costos reducidos aparte de los resultados de subproblemas. Se puede aprovechar la última base de un subproblema para iniciar el siguiente. La región factible no cambia. No hay que optimizar completamente el subproblema, basta encontrar una solución (SBF ) que satisfaga la desigualdad apropiada. Otras formas de la descomposición: Múltiples restricciones de convexidad.

Contenido 1 Dantzig-Wolfe 2

Existe un vector x 0 que cumple Bx = a a T u 0 para todos los u que satisfacen B T u 0.

Demostración del [= ] Supongamos que existe un x 0 tal que Bx = a, entonces u T Bx = u T a o, transponiendo, x T B T u = a T u entonces como x 0, si B T u 0, entonces a T u 0. (ojo, ver componente a componente)

Demostración... [ =] Suponemos que a T u 0 para todos los u que satisfacen B T u 0, y consideramos el problema lineal max a T u s.a. B T u 0 que claramente tiene una solución óptima de valor cero.

Demostración... Por el teorema fundamental de Programación Lineal su dual: min s.a. 0 T x Bx = a x 0 también tiene solución óptima, en particular, es factible, es decir existe un vector x 0 que cumple Bx = a.

Contenido 1 Dantzig-Wolfe 2

El problema Esta estrategia se aplica a problemas de la forma: max s.a. c T x + f (y) Ax + F (y) b x 0, y S (2) donde A es m n, c y x tienen tamaño n, y tiene tamaño p, f es una función real de y, F tiene tamaño m y sus componentes son funciones reales de y, b tiene tamaño m, y S es un subconjunto compacto arbitrario de R p. Suponemos además que f y F son continuas en S. Este formato incluye Programación Entera.

La idea Como (2) es lineal en x, para valores jos de y, es natural intentar resolverlo jando un valor de y, obteniendo un LP, resolverlo, luego un mejor y, etc. Es importante mencionar que no todo y puede servir. Es necesario que el y elegido haga el LP resultante factible. Esto es, y debe vivir en el conjunto: R = {y existe x 0 tal que Ax b F (y), y S} A los vectores y en R los llamaremos factibles.

La idea Nos interesa tratar de caracterizar R mejor. Para un y jo, consideremos el sistema lineal Ax + s = b F (y) x 0, s 0 que proviene de añadir holguras s al sistema que dene R.

La idea Podemos aplicar el y obtenemos que y es factible si y sólo si y S y (b F (y)) T u 0 para todos los u que satisfacen A T u 0, u 0 o dicho de otra manera: y S y (b F (y)) T u 0 para todos los u que satisfacen A T u 0, u 0

La idea Si R es vacío entonces el problema original (2) es no factible. Suponiendo que sea no vacío, reescribimos (2) como { { f (y) + max c T x Ax b F (y), x 0 max y R }} (3)

La idea Para y jo, la maximización interna es un programa lineal: max s.a. c T x Ax b F (y) x 0 (Primal) cuyo dual es min s.a. (b F (y)) T u A T u c u 0 (Dual) Si y R, el primal es factible y, en consecuencia, los valores óptimos de estos problemas son los mismos (esto se extiende al caso cuando el dual es no factible, primal no acotado, valiendo + ambos problemas).

La idea Substituyendo entonces un problema por otro en (3), obtenemos: { { }} f (y) + min (b F (y)) T u A T u c, u 0 (4) max y R Consideremos ahora la región factible del dual, el poliedro: { } P = u A T u c, u 0 Esta región es independiente de y.

La idea Si P es vacío, el primal es no acotado lo mismo que el problema original (2). Si P no es vacío, el mínimo en (4) se obtiene en una de las SBF de P o el valor va a sobre uno de las DBFs de P (que son las mismas de C ). Pero este último caso implicaría que el primal no es factible y no consideramos este caso.

La idea sólo necesitamos considerar las SBF de P, llamémoslas v r, r = 1,..., M, y (4) se puede reescribir como: { } max y R f (y) + min 1 r M (b F (y))t v r (5) que se puede escribir como max s.a. z z f (y) + (b F (y)) T v r, r = 1,..., M y R

La idea como el cono C = { } u A T u 0, u 0 es poliédrico se puede generar con un número nito de direcciones extremas. De manera que u C tiene una representación: u = N q s w s, con los q s 0. s=1

La idea sustituyendo, obtenemos N q s (b F (y)) T w s 0 s=1 que es cierto para todo q s 0, si y sólo si (b F (y)) T w s 0, s = 1,..., N

La idea Entonces un vector y S será factible si y sólo si satisface este conjunto nito de restricciones. Entonces podemos reescribir el conjunto R como R = { y (b F (y)) T w s 0, } s = 1,..., N, y S

La idea Usando la denición de R queda nalmente: max z s.a. z f (y) + (b F (y)) T v r, r = 1,..., M 0 (b F (y)) T w s, s = 1,..., N y S (6) A la región factible de (6) la llamamos G.