Tema V: Optimización Lineal

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tema V: Optimización Lineal"

Transcripción

1 Tema V: Optimización Lineal Omar J. Casas López Diciembre Algoritmo Simplex El objetivo del Algoritmo Simplex consiste en que partiendo de una Solución Factible Básica inicial, encontrar otra que mejore la Función Objetivo. Problema: min z = c t x s.a. Ax = b donde: x 0 A m n ; r(a) = m; b R m ; c R n Cualquier punto del conjunto S = {x : Ax = b, x 0} es una combinación lineal convexa de sus puntos extremos, más una combinación lineal positiva de sus direcciones extremas. Teorema de Existencia de Soluciones Sean x 1, x 2,..., x k los puntos extremos del conjunto S y sean d 1, d 2,..., d l sus direcciones extremas. Entonces existe solución óptima finita x S si y sólo si: c t d j 0 j = 1, 2,..., l Demostración Por el Teorema de Representación se puede enunciar el problema de Programación Lineal del siguiente modo equivalente: min z = c t x k s.a. x = λ i x i + i=1 1 l µ j d j j=1

2 donde: λ i 0, i = 1, 2,..., k µ j 0, j = 1, 2,..., l k λ i = 1 i=1 Suponemos que existe un j tal que c t d j < 0 c t x = k l λ i c t x i + µ j c t d j i=1 j=1 donde: λ j 0, j = 1, 2,..., k µ j 0, j = 1, 2,..., l k λ j = 1 j=1 Como el primer sumando siempre es acotado y el segundo tiende a cuando µ j tiende a, entonces no hay solución óptima finita, por tanto tiene que cumplirse que: c t d j 0 se cumple entonces que existe un óptimo finito y se alcanza en un punto extremo, porque: k l c t x = λ i c t x i + µ j c t d j i=1 para que sea mínimo hacemos µ j = 0 para todos los j, y λ i = 0 para todos los i excepto aquel i en que el producto escalar c t x i es mínimo, sea λ i = 1, luego: c t x i = min c t x i i = 1, 2,..., k Es decir que x i j=1 es la solución del problema. Teóricamente podríamos calcular todos los z j = c t x j, para cada uno de los x j puntos extremos y elegir aquel x j que haga mínimo el producto, para resolver el problema, pero esto puede resultar muy complicado y largo, salvo casos muy simples, este método no es operativo, ya que el número de puntos extremos puede ser muy grande. 2

3 1.1 Algoritmo del Método SIMPLEX Es un método sistemático para pasar de un punto extremo a otro de tal manera que se mejore la función objetivo. Como los puntos extremos están caracterizados por una base B, el método consiste en hacer un cambio de base B ˆB, de forma que el punto extremo correspondiente a la nueva base sea mejor que el anterior, las dos bases se diferencian en un único vector de modo que las operaciones necesarias para realizar el cambio de base sean relativamente sencillas. Partimos de una solución factible básica inicial, o punto extremo x = (x B1,..., x Bm, 0,..., 0) t inicial asociado a la base B = (a B1,..., a Bm ). x = (x B, x N ) t = (B 1 b, 0) t En muchos casos la obtención de esta solución inicial puede ser inmediata, esto sucede cuando la submatriz B es unitaria, B = I m. El valor de la función objetivo que le corresponde a x es: z = c t x = c t BB 1 b Sea x = (x B, x N ) t un punto factible cualquiera: Ax = b Bx B + Nx N = b x B = B 1 b B 1 Nx N El valor de la función objetivo para x es: z = c t x = c t BB 1 b c t BB 1 Nx N + c t Nx N = z [c t BB 1 N c t N]x N Sea I el conjunto de índices correspondientes a las columnas de la submatriz básica B y sea J el conjunto de los índices correspondientes a la submatriz no básica N. z = z j J [z j c j ]x j Observación: donde z j = c t BB 1 a j = c t By j y j = B 1 a j a j = By j = y 1j a B y mj a Bm Es decir, y j es el vector de coordenadas de la columna no básica a j respecto a la base B. 3

4 1. Supongamos que z j c j 0 para todos los j J, FIN, la solución considerada x es óptima. 2. Existen variables no básicas j tales que z j c j > 0, entonces es posible mejorar la función objetivo cambiando de base, vamos a pasar de: x t = (x B1,..., x Bm, 0,..., 0) t = (B1 1 b 1,..., Bm 1 b m, 0,..., 0) t a un nuevo punto extremo: con λ > 0 ˆx t = (x B1,..., x Bm, 0,..., λ,..., 0) t Para hacer mínima la función objetivo, nos interesa aumentar aquella variable no básica para la cual z j c j sea máxima. Sea k tal que: z k c k = max j J {z j c j : z j c j > 0} Criterio de Entrada en la Base: Entra aquella variable k tal que: z k c k z j c j j J : z j c j > 0 Sea : ẑ = z (z k c k )λ = z (c t By k c k )λ Hay que aumentar λ tanto como sea posible de forma que no salgamos del conjunto factible. ˆx B = B 1 b B 1 Nλe k = B 1 b λb 1 a k = B 1 b λy k ˆx N = λe k ˆx = x + λ( y k, e k ) t 0 ẑ = c tˆx = z (c t By k c k )λ (a) Sea el vector y k 0 para los j J 1, siendo J 1 = {j J : z j c j > 0} entonces podemos aumentar λ de manera indefinida, mejorando la función objetivo y sin salir del conjunto de soluciones factibles, por tanto no existe solución óptima finita: FIN. Observación: En este caso el vector d es proporcional al vector ( B 1 a k, e k ) t, como B 1 a k 0, entonces es una dirección extrema, tal que c t d = zk + c k < 0 y no se cumple la condición necesaria y suficiente de existencia de soluciones óptimas finitas. 4

5 (b) Si y k 0, para que x sea factible debe ocurrir que: x B = B 1 b λy k 0 λ B 1 b i y ik i = 1, 2,..., m el mayor valor de λ que podemos tomar es: { } B 1 b i λ = min : y ik > 0 = B 1 b r i=1,...,m y ik y rk el nuevo punto extremo es: es decir, ˆx = x + B 1 b r ( y k, e k ) t y rk ˆx Bi = B 1 b i B 1 b r y rj y ij i = 1, 2,..., m ˆx k = B 1 b r y rj x j = 0 j k Note que la variable x Br ha salido de la base: ˆx Br = B 1 b r B 1 b r y rj y rj = 0 Criterio de Salida de la Base: Sale la variable Br tal que: { } B 1 b r B 1 b i = min : y ik > 0 y rk i=1,...,m y ik ALGORITMO 1. Determinar una solución factible básica inicial, sea I el conjunto de subíndices de las columnas de la matriz A pertenecientes a la submatriz B, y J = {1, 2,..., n} \ I. 2. Calcular los y j y los z j c j para todos j J. 3. Analizar los signos de los z j c j para todos j J. (a) Si z j c j 0 para todos los j J, FIN, la solución considerada x es óptima. 5

6 (b) Considerar el conjunto J 1 = {j J : z j c j > 0} 4. Analizar los vectores y j para los j J 1 : (a) En caso contrario, determinar k mediante la siguiente relación llamada Criterio de Entrada: z k c k = max j J {z j c j } y determinar l, por la relación llamada Criterio de Salida: { } x l xs = min y lk s/y sk >0 (b) Si para todo j J 1 se cumple que y j 0, FIN, no hay óptimo finito. 5. Considerar la nueva base B = B {a k } \ {a l }, siendo y lk el pivote, actualizar la tabla utilizando las siguientes fórmulas: { y y j = sj = y sj y sky lj y lk s I s l y lj = y lj y lk volver al paso 3. Ejemplo: Expresado en forma estándar: Solución factible básica inicial: max z = 3x 1 + x 2 + 2x 3 2x 1 + x 2 + x 3 2 x 1 + 2x 2 + 3x 3 5 2x 1 + 2x 2 + x 3 6 x 1 0; x 2 0; x 3 0 y sk min z = 3x 1 x 2 2x 3 2x 1 + x 2 + x 3 + x 4 = 2 x 1 + 2x 2 + 3x 3 + x 5 = 5 2x 1 + 2x 2 + x 3 + x 6 = 6 x i 0 x = (0, 0, 0, 2, 5, 6) t B = (a 4, a 5, a 6 ) z = 0 6 i

7 Criterio de Entrada: z 1 c 1 = 3 z 2 c 2 = 1 z 3 c 3 = 2 Cualquiera de las tres variables que se seleccione, la función objetivo va a mejorar, pero en este caso seleccionamos a la variable x 1 para que entre en la base, y el vector asociado y 1 = (2, 1, 2) t > 0. Criterio de Salida: { 2 min 2, 5 1, 6 } = que corresponde a la variable x 4, por tanto es la que sale de la base. Pivoteo: seleccionamos como pivote a y 11 = 2 0, al efectuar el pivoteo, el sistema resultante es: x x x x 4 = x x x 4 + x 5 = 4 x 2 x 4 + x 6 = 4 x i 0 y la nueva solución factible básica es: i ˆx = (1, 0, 0, 0, 4, 4) t ẑ = 3 Para determinar si ya hemos llegado a la solución óptima o para detectar que variable entra en la base hay que calcular los nuevos valores de ẑ j ĉ j para j = 2, 3, Tabla del Método Simplex Para efectuar el paso del pivoteo en el algoritmo del método Simplex, necesitamos los siguientes elementos: 1. Los vectores y j que son las coordenadas de cada columna de la matriz A respecto a la base actual B. 2. Las coordenadas del vector de los términos independientes b respecto a la base actual B. 3. Los correspondientes valores de z j c j para las variables no básicas. 7

8 Los elementos anteriores se disponen en forma de tablas, de la siguiente manera: c j c 1 c 2... c k... c n c B x B x = y 0 y 1 y 2... y k... y n c B1 x B1 x B1 y 11 y y 1k... y 1n c B2 x B2 x B2 y 21 y y 2k... y 2n c Bl x Bl x Bl y l1 y l2... y lk... y ln c Bm x Bm x Bm y m1 y m2... y mk... y mn z j c j z z 1 c 1 z 2 c 2... z k c k... z n c n La primera fila contiene el vector de costes c j o coeficientes de la función objetivo. La segunda fila es informativa, sólo para saber a que variable corresponde cada columna. Las filas 3 a m + 2 corresponden a cada una de las variables de la base, con las columnas y j correspondientes a las variables básicas y no básicas. La última fila contiene los valores de z j c j de cada iteración. Ejemplo: Expresado en forma estándar: max z = 4x 1 + 3x 2 x 1 + x 2 2 x 1 + 2x 2 6 2x 1 + x 2 6 x 1 0; x 2 0 min z = 4x 1 3x 2 x 1 + x 2 + x 3 = 2 x 1 + 2x 2 + x 4 = 6 2x 1 + x 2 + x 5 = 6 x i 0 La tabla inicial del algoritmo Simplex, correspondiente a la base inicial B = (a 3, a 4, a 5 ) es: i 8

9 c j c B x B x y 1 y 2 y 3 y 4 y 5 0 x x x z j c j Entra en la base x 1, y sale x 5, por tanto el pivote es 2, efectuando el pivoteo, obtenemos la nueva tabla: c j c B x B x y 1 y 2 y 3 y 4 y x x x z j c j Ahora entra en la base x 2 y sale x 4, obteniendo: c j c B x B x y 1 y 2 y 3 y 4 y 5 0 x x x z j c j La solución óptima es x = (2, 2, 2, 0, 0), suprimiendo las variables de holgura queda x = (2, 2) 2 Método de las dos Fases Es un método que se utiliza para: - Detectar si el conjunto de soluciones factibles es o no vacío. - Comprobar si r(a) = m ó si r(a) = k < m. - Encontrar, de manera automática, una solución básica inicial. Supongamos que no resulta inmediato obtener una submatriz B de rango completo en el sistema Ax = b; x 0, podemos añadir unas variables artificiales x a R m cuyos coeficientes sean la matriz identidad de rango m: Ax + Ix a = b x 0; x a 0 9

10 Es importante diferenciar las variables de holgura de las variables artificiales, las restricciones siguientes son equivalentes: Ax b; x 0 Ax + Ix h = b; x 0; x h 0 Sin embargo, las dos siguientes no son equivalentes: Ax = b; x 0 Ax + Ix a = b; x 0; x a 0 Consideremos el problema artificial siguiente: [P.A.] min w = e t x a min z = c t x s.a. Ax + Ix a = b x 0; x a 0 siendo e = (1, 1,..., 1) t R m, note que [P.A.] es un problema expresado en forma estándar y para el cual x = 0, x a = b, con B = I, es una Solución Factible Básica inicial obvia. Si al resolver [P.A.] resulta una solución en la cual x a 0, entonces no hay ningún punto factible para el problema [P ]. Si x a = 0, las variables artificiales habrán salido de la base en la mayoría de los casos y habremos obtenido una base inicial para el problema original, salvo en el caso de soluciones degeneradas. Método de las Dos Fases: 1. Primera Fase resolver: [P.A.] min w = e t x a s.a. Ax + Ix a = b x 0; x a 0 2. Segunda Fase, tomando como base inicial, la base óptima de la Fase 1 resolver: min z = c t x s.a. Ax = b x 0 Al finalizar la Primera Fase podemos tener dos casos: 10

11 1. que w = 0 y no hay variables artificiales en la base, o si hay variables artificiales en la base tienen valor 0 y los w j t j 0, entonces hay Solución Factible Básica y pasamos a la Segunda Fase, con la última tabla obtenida en la Primera, cambiando los w j t j por los correspondientes z j c j. 2. que w > 0, hay variables artificiales positivas en la base y w j t j 0, entonces no hay solución. Ejemplo: min z = 4x 1 + x 2 + x 3 s.a. 2x 1 + x 2 + 2x 3 = 4 3x 1 + 3x 2 + x 3 = 3 x 1 0; x 2 0; x 3 0 Expresado en forma estándar, añadiéndole las variables artificiales x a 1 y x a 2, tenemos el problema: min z = x a 1 + x a 2 s.a. 2x 1 + x 2 + 2x 3 + x a 1 = 4 3x 1 + 3x 2 + x 3 + x a 2 = 3 x i 0 x a i 0 i La tabla inicial del método Simplex, correspondiente a la Primera Fase con base inicial B = (a a 1, a a 2) es: t j t B x B x y 1 y 2 y 3 y a 1 y a 2 1 x a x a w j t j Entra en la base x 1, y sale x a 2, por tanto el pivote es 3, efectuando el pivoteo, obtenemos la nueva tabla: t j t B x B x y 1 y 2 y 3 y1 a y2 a 1 x a x w j t j Ahora entra en la base x 3 y sale x a 1, obteniendo: 11

12 t j t B x B x y 1 y 2 y 3 y1 a y2 a x x w j t j La solución óptima de la primera fase es x = ( 1, 0, 3, 0, 0), suprimiendo 2 2 las variables artificiales queda x = ( 1, 0, 3 2 2), con w = 0, podemos pasar a la Segunda Fase, partiendo de la última tabla obtenida. c j c B x B x y 1 y 2 y 3 1 x x z j c j 0 2 Entra en la base x 2, y sale x 1, por tanto el pivote es 5, efectuando el 4 pivoteo, obtenemos la nueva tabla: c j c B x B x y 1 y 2 y x x z j c j La solución óptima del problema es x = ( 0, 2, 9 5 5), y el valor de la función objetivo queda z = Método de Penalidades o Big M Al igual que el Método de las Dos Fases, se utiliza cuando no tenemos en el problema original del Método Simplex, una Solución Básica Inicial, se crea el problema artificial, añadiendo variables artificiales penalizadas (multiplicadas por un escalar M tan grande como se quiera) y se agregan a la función objetivo, una vez minimizada esta, e igualada a cero, se eliminan las columnas correspondientes a las variables artificiales y se resuelve por el método Simplex, partiendo de la última tabla obtenida. Sea el problema de programación Lineal en forma general [P ]: min z = c t x s.a. Ax = b x 0 12

13 y su problema artificial asociado: [P.A.] min w = c t x + s.a. Ax + Ix a = b x 0; x a 0 m i=1 Mx a i Entonces x a = b es una Solución Factible Básica Inicial del problema artificial [P.A.] Pasos del Algoritmo: 1. Si no hay variables artificiales en la base o hay con valor nulo y los coeficientes M 0, ir al Paso Si hay variables artificiales en la base con valor mayor que cero y los coeficientes M 0, FIN, el problema no tiene solución. 3. Continuar aplicando el método Simplex, hasta obtener el óptimo. Ejemplo: min z = 4x 1 x 2 s.a. x 1 + x 2 1 4x 1 + 3x 2 12 x 1 0; x 2 0 Expresado en forma estándar, añadiéndole la variable artificial x a 5 y las variables de holgura x 3 y x 4, tenemos el problema: min z = 4x 1 x 2 + Mx a 5 s.a. x 1 + x 2 x 3 + x a 5 = 1 4x 1 + 3x 2 + x 4 = 12 x i 0 x a i 0 i La tabla inicial del método Simplex, correspondiente a la Primera Fase con base inicial B = (a a 5, a 4 ) es: c j M c B x B x y 1 y 2 y 3 y 4 y a 5 M x a x z j c j M M + 4 M + 1 M

14 Entra en la base x 1, y sale x a 5, por tanto el pivote es 1, efectuando el pivoteo, obtenemos la nueva tabla: c j M c B x B x y 1 y 2 y 3 y 4 y5 a 4 x x z j c j M 4 En estos momentos la variable artificial está fuera de la base, por tanto podemos eliminar su columna correspondiente de la tabla, teniendo ahora una Solución Factible Básica para iniciar el método Simplex. Entra en la base x 3, y sale x 4, por tanto el pivote es 4, efectuando el pivoteo, obtenemos la nueva tabla: c j c B x B x y 1 y 2 y 3 y x x z j c j La solución óptima y única del problema es x = (3, 0, 2, 0), y el valor de la función objetivo queda z = 12 3 Dualidad Interpretación del Problema Dual. Ejemplo: Un pastelero dispone de 150 kg de harina, 22 kg de azúcar y 27.5 kg de mantequilla para elaborar dos tipos de pasteles (A y B). Cada caja de pasteles de tipo A requiere 3 kg de harina, 1 kg de azúcar y 1 kg de mantequilla y su venta le reporta un beneficio de 20 unidades monetarias (UM). Cada caja de pasteles de tipo B requiere 6 kg de harina, 0.5 kg de azúcar y 1 kg de mantequilla y su venta le reporta un beneficio de 30 UM. Cuántas cajas de cada tipo de pasteles debe producir el pastelero de manera que se maximicen sus ganancias? Resolver el problema gráficamente. Planteamiento: max z = 20x x 2 s.a. 3x 1 + 6x

15 x x 2 22 x 1 0 x 2 0 x 1 + x Para 20x x 2 = c, con c = 600, una recta de nivel de la Función Objetivo pasa por (30; 0) y por (0; 20), el resto de las rectas de nivel son paralelas a ésta. Gráficamente vemos que el punto P es la solución óptima, siendo P la intersección entre las rectas: 3x 1 + 6x 2 = 150 y x 1 + x 2 = 27.5 resultando como solución óptima del problema: x 1 = 5 y x 2 = 22, 5 Con máximo beneficio: z = 20 x x 2 = 775. Para obtener este resultado máximo, ha utilizado toda la cantidad de harina y de mantequilla, ambas restricciones se han saturado, sin embargo le ha sobrado azúcar, ya que de esta sólo ha gastado: x x 2 = , 5 2 = 16, 25kg de los 22 kg de que disponía. Supongamos que la cantidad de harina disponible aumenta en un kg. Cuánto aumenta el beneficio del pastelero? Contestar a la misma cuestión para un aumento de un kg en la cantidad de azúcar y mantequilla. Dado que la variación en la cantidad de harina es muy pequeña, el punto óptimo sigue siendo la intersección entre las restricciones de la harina y de la mantequilla: 3x 1 + 6x 2 = 151 y x 1 + x 2 = 27.5 resultando como solución óptima del problema: Con máximo beneficio: x 1 = 14 3 z = 20 x x 2 = luego el incremento es z = u 1 = 10 3 y x 2 = =

16 Para el azúcar es obvio que el incremento de 1 kg no modifica la solución óptima del problema original, por tanto: z = u 2 = 0 Finalmente para la mantequilla, el nuevo óptimo es la solución de: 3x 1 + 6x 2 = 150 y x 1 + x 2 = 28.5 resultando como solución óptima del problema: Con máximo beneficio: x 1 = 7 y x 2 = 21.5 z = 20 x x 2 = 785 luego el incremento es z = u 3 = 10 Pregunta: Supongamos que el pastelero quiere vender su negocio, para aceptar la oferta que le hagan por los recursos de que dispone, debe obtener un beneficio mayor o igual que el que obtendría si utilizara esos recursos para producir pasteles. Sean u 1, u 2 y u 3 los precios por kg de harina, azúcar y mantequilla, respectivamente. El comprador se quiere gastar lo menos posible, luego para hacer una oferta al pastelero, debe resolver el siguiente problema: min z = 150u u , 5u 3 s.a. 3u 1 + u 2 + u u u 2 + u 3 30 u 1 0; u 2 0; u 3 0 Si resolvemos este problema, introduciendo variables artificiales, obtenemos la solución óptima: Con mínimo coste: Observaciones: ū 1 = 10 3 ū 2 = 0 ū 3 = 10 z = La ganancia del pastelero es la misma si fabrica pasteles que si vende el negocio. 16

17 2. Los precios justos a los que debe vender cada kg de los recursos de que dispone coinciden con el beneficio adicional o marginal, de disponer de 1 kg más de dichos recursos para producir pasteles. En particular como la restricción de azúcar no se satura, hay excedente de azúcar, el precio del azúcar es Al problema del comprador se le llama Problema DUAL [D], tiene tantas restricciones como variables tenga el Problema PRIMAL [P ] y tantas variables como restricciones tenga [P ]. La Teoría de Dualidad General estudia las relaciones existentes entre ambos problemas. Resumen del Ejemplo: Problema del Pastelero [P ]: Problema del Comprador [D]: max z = 20x x 2 s.a. 3x 1 + 6x x x 2 22 x 1 0 x 2 0 x 1 + x min z = 150u u , 5u 3 s.a. 3u 1 + u 2 + u u u 2 + u 3 30 u 1 0; u 2 0; u Definición del Problema Dual Se dan tres definiciones según el formato en el que se representa el problema, y posteriormente comprobamos que las tres definiciones son consistentes. 1. En forma estándar: [P] : min z = c t x s.a. Ax = b x 0 [D] : max w = b t u s.a. A t u c u irrestricta 17

18 2. En forma canónica de maximización: [P] : max z = c t x s.a. Ax b x 0 [D] : min w = b t u s.a. A t u c u 0 3. En forma canónica de minimización: [P] : min z = c t x s.a. Ax b x 0 [D] : max w = b t u s.a. A t u c u 0 Las definiciones anteriores son consistentes, es decir, si escribimos un problema en cualquiera de los tres formatos, su problema dual asociado siempre es el mismo. Observaciones: 1. A cada restricción primal le corresponde una variable dual. 2. El vector demanda o requerimiento b del problema primal P se convierte en el vector de costo del dual D. 3. El vector de la función objetivo c del problema primal P se convierte en el vector de requerimiento del problema dual D. 4. Se cambia la función objetivo de min a max. 5. Se cambia el sentido de las restricciones. 18

19 6. Si tenemos restricciones de igualdad y variables irrestrictas en signo, entonces: (a) A toda restricción de igualdad del primal P le corresponde una variable dual irrestricta en signo en el dual D. (b) A toda variable del primal P irrestricta en signo le corresponde una restricción dual de igualdad. Lema: El dual del problema dual es, de nuevo, el problema primal. Demostración: Sea [P] : max z = c t x s.a. Ax b x 0 [D] : min w = b t u s.a. A t u c u 0 de nuevo [P]: max z = c t x s.a. Ax b x 0 su problema dual asociado es: el dual de [D] es: Teniendo en cuenta que las definiciones son equivalentes, queda probado el resultado. Como consecuencia, el papel que juegan [P ] y [D] en todos los resultados es reversible, por lo cual es indiferente distinguir entre problema primal y problema dual, en general podemos hablar de un par de problemas duales. 3.2 Teorema Fundamental de Dualidad Consideremos el problema primal: [P] : min z = c t x s.a. Ax = b x 0 y su correspondiente problema dual: [D] : max w = b t u 19

20 s.a. A t u c u t A c t u irrestricta El siguiente Lema demuestra que el mínimo del problema Primal es siempre mayor o igual que el máximo del problema Dual asociado, para cualquier punto factible. Lema: Sea x una solución factible del problema primal y u una solución factible del problema dual, entonces: Demostración: c t x b t u c t x u t Ax = u t b = b t u Como consecuencia del lema, si x es factible para el problema Primal y ū es factible para el problema Dual y además c t x = b t ū, entonces x y ū son los óptimos de sus respectivos problemas. Es decir, c t x = b t ū, es una condición suficiente para que x y ū sean óptimos. El Teorema de Dualidad demuestra que la condición anterior, además de suficiente, debe cumplirse necesariamente. Teorema Fundamental de Dualidad de la Programación Lineal. Si P tiene una solución óptima finita, también la tiene D y los correspondientes valores de las funciones objetivos son iguales. Si P no tiene solución acotada, entonces D no tiene solución factible. Otra forma de Enunciarlo: Dado un par de problema duales, una condición necesaria y suficiente para que una solución factible x sea óptima, es que exista una solución factible ū del otro problema, tal que: c t x = b t ū Además esta solución ū es también óptima de su problema asociado. Demostración La segunda parte es inmediata por el Lema: Si D no tuviera solución factible, existiría u R m tal que b t u c t x para cualquier x que sea factible, lo cual es una contradicción ya que hemos considerado la solución de P no acotada. Sea x la solución óptima finita de P, por tanto x está asociada a una base óptima formada por las columnas de la matriz B: x = ( x B ; x N ) t = (B 1 ; 0) Definimos ū t = c t B B 1 R m, entonces: ū t = c t BB 1 (B, N) 20

21 = (c t B, c t BB 1 N) c t c t BB 1 N c t N z j c j j R z j c j 0 j R = {i : x i es no básica} pero esta condición se cumple puesto que x es el óptimo, entonces ū es factible para D. Además, por el lema, se cumple que: Por tanto ū es el óptimo de D. Observaciones: ū t = c t BB 1 b = c t x 1. Interpretación Económica: El pastelero gana lo mismo si vende su negocio como si continúa produciendo pasteles, siempre que su problema tenga solución óptima finita. Si el problema no estuviera acotado, por ejemplo que pueda ganar infinito produciendo pasteles, no debería aceptar ninguna oferta, como consecuencia, el problema del comprador, el dual, no tiene solución factible. 2. Resolver P, encontrar la base óptima B para P, equivale a resolver D a través de la expresión: ū t = c t BB 1 3. La condición de factibilidad de ū es equivalente a la de optimalidad de x y recíprocamente. ū factible x óptimo x factible ū óptimo 4. Sensibilidad y Solución del Dual: Supongamos que queremos calcular la variación de la función objetivo ante pequeños cambios de los recursos b = (b 1, b 2,..., b m ) t en el problema P, esta variación la podemos medir mediante las derivadas: z b i = ū i i = 1, 2,..., m ya que : z = c t BB 1 b = ū t b = 21 t ū i b i i=1

22 luego la solución del problema dual puede interpretarse como el incremento de la función objetivo del primal ante pequeñas variaciones de los recursos b i. De donde ū i es el precio justo que debe pagar el comprador por cada unidad de recurso del negocio, llamado en economía el precio sombra. 5. Si P no es factible, entonces se cumple que D no es acotado o D no es factible, lo que no puede ocurrir es que D tenga solución finita. 3.3 Algoritmo Dual-Simplex 1. Conocida una base B, con solución x = B 1 b, tal que z j c j 0 (para problemas de min), llamada Solución Dual Factible del Problema Primal, y su tabla correspondiente. 2. Si x B 0, FIN, la solución es óptima. 3. Si existe un s I, tal que x s < 0, ir al Paso Analizar el signo de Y sj : (a) Si Y sj 0, para todo j, FIN, no hay solución factible. (b) Si existe al menos un j, tal que Y sj < 0, ir al Paso Criterio de Salida o Condición Dual de Factibilidad: Calcular x l = min { x s : x s < 0}, entonces sale de la base la variable x l. 6. Criterio de Entrada o Condición Dual de Optimalidad: Calcular k, tal que: { } z k c k zj c j = min : Y lj < 0 Y lk Y lj entra la variable x k en la base. 7. Utilizando Y lk como pivote, actualizar la tabla con la nueva base B, obtenida al sustituir a l por a k, calcular los nuevos valores de x B, Y j y z j c j, luego ir al Paso 2. Ejemplo: max z = 3x 1 x 2 s.a. x 1 + x 2 1 2x 1 + 3x 2 2 x 1 0; x

23 Expresado en forma estándar, añadiéndole variables de holgura x 3 y x 4, tenemos el problema: max z = 3x 1 x 2 s.a. x 1 + x 2 x 3 = 1 2x 1 + 3x 2 x 4 = 2 x i 0 x a i 0 i Para tener las variables de holgura con coeficientes positivos, multiplicamos las ecuaciones por 1 max z = 3x 1 x 2 s.a. x 1 x 2 + x 3 = 1 2x 1 3x 2 + x 4 = 2 x i 0 x a i 0 i La tabla inicial del método Dual del Simplex, con base inicial B = (a 3, a 4 ) y solución óptima x = (0; 0; 1; 2), pero no factible, es: c j c B x B x y 1 y 2 y 3 y 4 0 x x z j c j En esta tabla todos los z j c j son no negativos y el problema es de calcular el máximo, además hay variables básicas con valores negativos,podemos aplicar el algoritmo Dual del Simplex. Sale de la base x 4, por ser el más negativo, y entra x 2, por tanto el pivote es 3, efectuando el pivoteo, obtenemos la nueva tabla: c j c B x B x y 1 y 2 y 3 y 4 0 x 3 1/3 1/ /3 1 x 2 2/3 2/ /3 z j c j 2/3 7/ /3 Sale de la base x 3, y entre x 4, por tanto el pivote es 1/3, efectuando el pivoteo, obtenemos la nueva tabla: 23

24 c j c B x B x y 1 y 2 y 3 y 4 0 x x z j c j Como todos los x son no negativos, estamos en la solución óptima y única del problema es x = (0, 1, 0, 1), y el valor de la función objetivo queda z = 1. Ejemplo: min z = 2x 1 3x 2 s.a. 3x 1 + 5x 2 5 x 1 + 3x 2 4 x 1 0; x 2 0 Expresado en forma estándar, añadiéndole variables de holgura x 3 y x 4, y multiplicando por 1 en la primera restricción, tenemos el problema: min z = 2x 1 3x 2 s.a. 3x 1 5x 2 + x 3 = 5 x 1 + 3x 2 + x 4 = 4 x i 0 x a i 0 i La tabla inicial del método Dual del Simplex, con base inicial B = (a 3, a 4 ) es: c j c B x B x y 1 y 2 y 3 y 4 0 x x z j c j En esta tabla existe un z j c j > 0 y el problema es de calcular el mínimo, no contamos con las condiciones necesarias para aplicar el algoritmo Dual del Simplex, hay que utilizar alguno de los algoritmos que utilizan variables artificiales. Siempre que en la función objetivo halla al menos un coeficiente de las variables que sea negativo, no es posible aplicar el método Dual del Simplex. El método Dual del Simplex no contempla solución no acotada, debido a que parte de que los z j c j 0 para toda j, esto implica que existe una solución factible del Dual y si P o D tienen solución Factible, entonces el problema correspondiente tiene Solución finita, como el dual D tiene Solución Factible, entonces el primal P tiene solución finita. 24

25 3.4 Holguras Complementarias Teorema de las Holguras Complementarias Dado un par de problemas duales, una condición necesaria y suficiente para que x y ū, soluciones factibles de P y D respectivamente, sean óptimas es que: ū(a x b) = 0 (c ūa) x = 0 Otra forma de enunciar el teorema anterior es: n u i ( a ij x j b i ) = 0 j=1 (c j Si : n a ij ū i ) x j = 0 j=1 x j > 0 n c j a ij ū i = 0 j=1 c j = n a ij ū i j=1 Si : n a ij ū i > c j x j = 0 j=1 En Economía la expresión n j=1 a ijū i se puede interpretar como la ganancia o beneficio esperado y el c j como el beneficio real. Demostración : [= ] Como x y ū son soluciones factibles de los problemas P y D respectivamente, entonces x 0 y ū 0, además A x b y ūa c, por tanto : A x b 0 c ūa 0 25

26 Luego : α = ū(a x b) 0 β = (c ūa) x 0 Sumando miembro a miembro obtenemos : α + β = c x ūb 0 Según el Teorema de Dualidad, una condición necesaria y suficiente para que x y ū sean óptimas es que el miembro de la derecha de esta igualdad sea 0, o sea, tendríamos que α + β = 0, pero como α 0 y β 0 se tiene necesariamente que cumplir que α = β = 0, con lo cual queda demostrada la implicación hacia la derecha. [ =] ū(a x b) = 0 (c ūa) x = 0 Sumando miembro a miembro obtenemos : c x ūb = 0 de donde c x = ūb, según el Teorema de Dualidad y la Propiedad, que expresa que si el primal tiene óptimo finito entonces el dual también lo tiene y coinciden sus valores óptimos, entonces x y ū son soluciones óptimas de los problemas primal P y dual D respectivamente, con lo que queda demostrada la segunda implicación. 4 Métodos de Punto Interior Durante décadas el método Simplex ha sido el método de resolución de los problemas de Programación Lineal, sin embargo desde el punto de vista teórico, el tiempo de cálculo requerido por este método crece de forma exponencial con el tamaño del problema, definido como la cantidad de variables más la cantidad de restricciones. Este crecimiento exponencial corresponde al peor de los casos posibles, que no corresponde con lo que ocurre normalmente en los casos reales. Muchos investigadores han tratado de desarrollar algoritmos cuyos tiempos de cálculo tuviesen un crecimiento polinomial con el tamaño del problema, como Frisch, Fiacco y McCormick y Khachiyan. Todos los intentos 26

27 fallaron, ya fuese desde el punto de vista teórico o desde el punto de vista práctico. En 1984, Karmarkar propuso un algoritmo cuya complejidad computacional es polinomial y que resultó altamente competitivo frente al método Simplex para resolver problemas de Programación Lineal de gran tamaño. Este algoritmo de Karmarkar originó multitud de trabajos alrededor de su idea original que ha sido mejorada en muchos aspectos. Una de las mejores variantes es el algoritmo de barrera primal-dual introducido por Meggido. Consideremos el siguiente problema de Programación Lineal, expresado en forma estándar, como problema primal: min z P = c t x sujeta a : Ax = b x 0 donde los vectores x, c R n, b R m, y la matriz A R m R n. Su problema dual es: max z D = b t u sujeta a : A t u c u 0 Empleando variables de holgura, convertimos las desigualdades en igualdades, quedando el problema anterior de la siguiente forma: max z D = b t u sujeta a : A t u + s = c s 0 donde las variables duales son u R m y s R n Para eliminar las restricciones de no negatividad, se emplea la función barrera logarítmica, entonces se aborda el problema de Programación No Lineal: max z D = b t u + µ n ln s j j=1 sujeta a : A t u + s = c Nótese que los s j nunca serán nulos para que la función de penalización esté bien definida. 27

28 Los métodos de punto interior resuelven el problema para diferentes valores del parámetro µ, este parámetro se define de manera que : µ 0 > µ 1 > µ 2 >... > µ = 0, generando una sucesión de problemas cuya sucesión de soluciones {x k } converge a la solución del problema dual. La función Lagrangiana de nuestro nuevo problema tiene la forma: L(x, u, s, µ) = b t u + µ n ln s j X t (A t u + s c) j=1 Los multiplicadores x de Lagrange coinciden con las variables del problema primal P. Empleando el Lagrangiano, las condiciones de optimalidad de primer orden del problema son: x L(x, u, s, µ) = A t u + s c = 0 u L(x, u, s, µ) = Ax b = 0 s L(x, u, s, µ) = XSe µe = 0 donde : X diag(x 1, x 2,..., x n ) X diag(x 1, x 2,..., x n ) S diag(s 1, s 2,..., s n ) e (1, 1,..., 1) t la dimensión del vector e es de n 1. Para resolver este sistema de ecuaciones mediante el método de Newton, las variables x, u y s son sustituidas por x + x, u + u y s + s respectivamente y eliminando los términos de segundo orden, se obtiene el siguiente sistema en los incrementos de las variables: A x = 0 A t u + s = 0 S x + X s = µe XSe Las direcciones de búsqueda primal y dual se obtienen resolviendo el sistema anterior para las variables x, u y s: siendo v(µ) = µe XSe. u = (AXS 1 A t ) 1 AS 1 v(µ) s = A t u x = S 1 v(µ) XS 1 s 28

29 A continuación se realiza una iteración del método de Newton, incluyendo el cálculo de la longitud del paso, para obtener el nuevo punto: u k+1 = u k + α d u s k+1 = s k + α d s x k+1 = x k + α p x donde α p [0, 1] y α d [0, 1] son las longitudes de paso primal y dual respectivamente. El paso primal se aplica a la variable primal x, mientras que el paso dual se aplica a las variables duales u y s. La selección de α p y de α d se realiza de modo que x y s permanezcan estrictamente positivos, mientras que u no ha de ser positivo. Para asegurar que sean positivos se emplea el parámetro σ (0, 1), entonces: { } xi α x = min tal que x i < δ x i α p = min{1, σα x } { } sj α s = min tal que s j < δ s j α d = min{1, σα s } donde δ es un parámetro de tolerancia (por ejemplo δ = ) y como σ se suele tomar σ = , estas limitaciones en la longitud de paso son muy importantes para valores muy pequeños de los incrementos x y s. Por ser factibles x y u, la holgura dual se calcula mediante la expresión: c t x b t u que se emplea como medida de la proximidad a la solución óptima. Si el punto inicial no es factible, aplicando el método de Newton al sistema de las condiciones de primer orden, se llega al sistema incremental siguiente: cuya solución es: A x = b Ax A t u + s = c A t u s S x + X s = µe XSe u = (AXS 1 A t ) 1 (AS 1 v(µ) AXS 1 r d r p ) s = A t u + r d x = S 1 v(µ) XS 1 s 29

30 donde r p = b Ax y r d = c A t u s, son los residuos primal y dual respectivamente. Si el punto inicial no es factible, la factibilidad y la optimalidad se alcanzan simultáneamente a medida que el algoritmo de punto interior progresa, es decir, los residuos y la holgura dual tienden a cero simultáneamente. 4.1 Actualización del parámetro de penalización Un posible elección de µ se obtiene de las condiciones de optimalidad, es la siguiente igualdad: µ = st x n Para alcanzar un camino central, que evite una prematura aproximación a la frontera, se introduce el parámetro ρ, entonces el valor de µ queda modificado: µ = ρ st x n Los valores del parámetro ρ se ajustan experimentalmente mediante un ensayo y error, una elección razonable es: { 0.1 si c ρ = t x > b t u 0.1 si c t x < b t u Si c t x = b t u, estamos en el punto óptimo. 4.2 Criterio de Parada El algoritmo finaliza cuando la holgura dual es suficientemente pequeña; es decir, si: c t x k b t u k max {1, c t x k } < ɛ donde ɛ es una tolerancia unitaria. El numerador de la fracción anterior representa la holgura dual, mientras que el denominador es el máximo entre 1 y el valor de la función objetivo del problema primal, esta elección evita dividir por cero. 4.3 Selección del punto inicial Si no se dispone de un punto inicial factible, el algoritmo heurístico de Vaderbei proporciona un buen punto de inicio. 30

31 1. Calcular el vector ˆx mediante la igualdad: ˆx j = 1 a j donde a j es la j-ésima columna de la matriz de restricciones A, y 2 es la norma euclídea. 2. El escalar β se calcula mediante: 3. El vector inicial x 0 se calcula: β = b Aˆx x 0 = 10βˆx 4. El vector de variables duales u se hace nulo, el vector s de variables duales se inicia en función del vector x: (a) Si x j tiene una cota superior finita, entonces: { 1 si c s j = j < 0 c j + 1 en otro caso (b) Si x j no está acotado superiormente, entonces: { 1 si cj < 1 s j = en otro caso 4.4 Algoritmo de barrera logarítmica primal-dual c j 1. Se toma k = 0 y se selecciona un punto inicial (x k, u k, µ k ), que puede ser factible o no factible para el problema primal y/o dual, se calcula el vector de holgura dual s t = c A t u k. 2. Se calculan las matrices diagonales X k = diag(x 1, x 2,..., x n ) k y S k = diag(s 1, s 2,..., s m ) k. 3. Se calcula el vector v(µ k ) = µ k e X t S t e y los vectores residuos r p = Ax t b y r d = c A t u t s t. Si el punto actual es factible para los problemas primal y dual, los residuos son cero. 4. Se resuelve el sistema de Newton para obtener las direcciones de búsqueda u k, s k y x k. 31

32 5. Se calculan las longitudes de paso α p y α d. 6. Se actualizan las variables duales y primales. 7. Si la holgura dual es suficientemente pequeña, FIN, se ha llegado a la solución óptima. En caso contrario se hace k = k + 1 y se continúa. 8. Se actualiza el parámetro de penalización µ k y se va al PASO 2. 5 Otros Algoritmos Limitaciones de la Programación Lineal: 1. Proporcionalidad: En todos los problemas de Programación Lineal se supone proporcionalidad entre los productos y el costo, lo cual no se cumple en la realidad, ya que a mayor oferta disminuye la demanda. 2. Aditividad: Se supone que todas las actividades o varias de ellas se pueden efectuar al mismo tiempo, en la realidad existen actividades antecedentes y actividades consecuentes. 3. Divisibilidad: En los problemas de Programación Lineal hay variables que pueden tomar cualquier valor en un intervalo, incluso fraccionario, lo cual no siempre se corresponde con los problemas reales que necesitan una solución discreta. 4. Determinista: Los valores de los parámetros A, b y c se consideran fijos en Programación Lineal, y al cambiar estos valores, no serían aplicables los métodos. Temas de Investigación Operativa en los que se podría profundizar, que resuelven algunas de las limitaciones de la Programación Lineal : 1. Mejoras del método Simplex para realizar más rápido los cálculos. - Método Simplex Revisado, introduce la función objetivo como una restricción más del problema. 2. Especialización del Método Simplex a problemas con estructuras especiales: - Algoritmo de Transporte. - Problemas de Flujos en Grafos. 3. Algoritmos de Programación Entera o Discreta, resuelve en parte la limitación de Divisibilidad. 32

33 4. Otros enfoques para resolver problemas de Programación Lineal. 5. Programación Estocástica, donde algunos de los elementos del problema no son conocidos, sino que son variables aleatorias con una determinada distribución. 6. Programación Dinámica, asociada a Problemas de Programación Lineal de procesos continuos, donde los parámetros A, b y c cambian. Un problema de Programación Linea con variables enteras, puede resolverse utilizando el Método Simplex siempre que la matriz A sea escalonada y sus elementos 0 y 1. 33

Tema 3 Optimización lineal. Algoritmo del simplex

Tema 3 Optimización lineal. Algoritmo del simplex Tema 3 Optimización lineal. Algoritmo del simplex José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 3 Teorema fundamental de la programación lineal. Algoritmo

Más detalles

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 5 Condiciones de Karush-Kuhn-Tucker (KKT). Problemas

Más detalles

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex. El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.

Más detalles

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas.

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas. Tema 3 Dualidad En el desarrollo de la programación lineal la teoria de la dualidad es importante, tanto desde el punto de vista teórico como desde el punto de vista práctico. Para cada modelo lineal se

Más detalles

Tema 3: El Método Simplex. Algoritmo de las Dos Fases.

Tema 3: El Método Simplex. Algoritmo de las Dos Fases. Tema 3: El Método Simplex Algoritmo de las Dos Fases 31 Motivación Gráfica del método Simplex 32 El método Simplex 33 El método Simplex en Formato Tabla 34 Casos especiales en la aplicación del algoritmo

Más detalles

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria. Dualidad 1 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. Condiciones de holgura complementaria. 6 Solución dual óptima en la tabla. 7 Interpretación

Más detalles

Tema 18. Programación lineal Formulación primal de un programa lineal

Tema 18. Programación lineal Formulación primal de un programa lineal Tema 18 Programación lineal 18.1. Formulación primal de un programa lineal Dentro de la programación matemática hablamos de programación lineal (PL) si tanto la función objetivo como las restricciones

Más detalles

Optimización de Problemas de Producción

Optimización de Problemas de Producción Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de

Más detalles

Fundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari

Fundamentos de Programación Entera. A. Revisión. Carlos Testuri Germán Ferrari Fundamentos de Programación Entera A. Revisión Carlos Testuri Germán Ferrari Departamento de Investigación Operativa Instituto de Computación Facultad de Ingeniería Universidad de la República 2012-2018

Más detalles

Dualidad y postoptimización

Dualidad y postoptimización Dualidad y postoptimización José María Ferrer Caja Universidad Pontificia Comillas Definición A cada problema de optimización lineal le corresponde otro que se denomina problema dual En forma canónica

Más detalles

Programación lineal: Algoritmo del simplex

Programación lineal: Algoritmo del simplex Programación lineal: Algoritmo del simplex Se considera la formulación estándar de un problema de programación lineal siguiendo la notación utilizada en las clases teóricas: Minimizar c t x sa: Ax = b

Más detalles

Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son:

Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son: Unidad X: Programación lineal (continuación) Objetivo específico: Entender ampliamente el fenómeno del comportamiento de los modelos matemáticos para la resolución de problemas enfocados a las ecuaciones

Más detalles

Método Simplex en Optimización de Problemas de Producción

Método Simplex en Optimización de Problemas de Producción Método Simplex en Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile - Fernando Islas - Carlos Testuri Héctor Cancela - Antonio Mauttone Depto. Investigación Operativa. Instituto de Computación.

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Repaso del algoritmo SIMPLEX

Repaso del algoritmo SIMPLEX Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN70K: Clase Auxiliar Repaso del algoritmo SIMPLEX Marcel Goic F. 1 1 Esta es una versión bastante

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

La Programación Lineal. H. R. Alvarez A., Ph. D. 1

La Programación Lineal. H. R. Alvarez A., Ph. D. 1 La Programación Lineal H. R. Alvarez A., Ph. D. 1 Aspectos generales Se considera a George Dantzig el padre de la P. L. Su objetivo es el de asignar recursos escasos a actividades que compiten por ellos.

Más detalles

Optimización lineal. José María Ferrer Caja Universidad Pontificia Comillas ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INDUSTRIAL

Optimización lineal. José María Ferrer Caja Universidad Pontificia Comillas ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INDUSTRIAL Optimización lineal José María Ferrer Caja Universidad Pontificia Comillas Introducción Herramienta más importante de la optimización y de la investigación operativa Multitud de aplicaciones en campos

Más detalles

TEST IO-I T1. CONCEPTOS PREVIOS. C1.1. Cualquier conjunto convexo tiene al menos un punto extremo?

TEST IO-I T1. CONCEPTOS PREVIOS. C1.1. Cualquier conjunto convexo tiene al menos un punto extremo? TEST IO-I T1. CONCEPTOS PREVIOS C1.1. Cualquier conjunto convexo tiene al menos un punto extremo? a) Puede tener puntos extremos. b) Puede no tener puntos extremos. c) Puede tener vértices. C1.2. Es convexo

Más detalles

max z = c T x sujeto a Ax b

max z = c T x sujeto a Ax b Tema 4 Análisis de sensibilidad El análisis de sensibilidad se realiza después de obtener la solución óptima de un modelo lineal para deteminar como afectan los cambios en los parámetros del modelo a la

Más detalles

Programación Lineal. Yolanda Hinojosa

Programación Lineal. Yolanda Hinojosa Programación Lineal Yolanda Hinojosa Contenido Formulación primal de un programa lineal. Propiedades Algoritmo del simplex Algoritmo dual del simplex Formulación dual de un programa lineal. Propiedades

Más detalles

Forma estándar de un PPL con m restricciones y n variables. (b 0)

Forma estándar de un PPL con m restricciones y n variables. (b 0) Forma estándar de un PPL con m restricciones y n variables Maximizar (minimizar) Z = c 1 x 1 + c 2 x 2 +... + c n x n a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 +a 22 x 2 +... + a 2n x n = b 2...

Más detalles

El algoritmo del Simplex. Forma tabular

El algoritmo del Simplex. Forma tabular El algoritmo del Simplex. Forma tabular 1 Soluciones básicas factibles Consideremos el siguiente poliedro P = {x R n, tal que Ax = b, x } con A M m n, b R m, m n, x y RangoA = RangoA, b = m. Observación

Más detalles

ANÁLISIS DE SENSIBILIDAD.

ANÁLISIS DE SENSIBILIDAD. ANÁLISIS DE SENSIBILIDAD. En la mayoría de las aplicaciones practicas, algunos datos del problema no son conocidos con exactitud y por esto son estimados tan bien como sea posible. Es importante poder

Más detalles

Degeneración y ciclaje. Método de las dos fases CO-3411 (S08) 30/03/

Degeneración y ciclaje. Método de las dos fases CO-3411 (S08) 30/03/ CO-3411 (S08 30/03/2008 98 Degeneración y ciclaje En el caso de problemas generales, una solución será degenerada cuando alguna de las variables básicas se encuentra en una de sus cotas (comparar con el

Más detalles

Algebra lineal y conjuntos convexos 1

Algebra lineal y conjuntos convexos 1 Algebra lineal y conjuntos convexos Solución de sistemas. Espacios vectoriales. 3 Conjuntos convexos. 4 Soluciones básicas puntos extremos. Rango de una matriz A R m n. Reducir A a una matriz escalonada

Más detalles

Universidad Carlos III de Madrid Licenciatura en Administración de Empresas Examen de Programación Matemática 19 de Septiembre de 2007 Soluciones

Universidad Carlos III de Madrid Licenciatura en Administración de Empresas Examen de Programación Matemática 19 de Septiembre de 2007 Soluciones Universidad Carlos III de Madrid Licenciatura en Administración de Empresas Examen de Programación Matemática 9 de Septiembre de 7 Soluciones. ( puntos Tu empresa proporciona automóviles a algunos de sus

Más detalles

Forma estándar de un programa lineal

Forma estándar de un programa lineal Forma estándar de un programa lineal Sin pérdida de generalidad, todo programa lineal se puede escribir como: min cx s.t Ax = b x 0 Objetivo: minimizar Todas las desigualdades como ecuaciones Todas las

Más detalles

max c T x s.a. Ax b x 0 y un diccionario general para dicho problema a rs x s, c s x s z = d + b r y r min b T y s.a. A T y c y 0

max c T x s.a. Ax b x 0 y un diccionario general para dicho problema a rs x s, c s x s z = d + b r y r min b T y s.a. A T y c y 0 CO-34 (S8) 25/3/28 8 Formalizaremos lo visto en la clase anterior. Considere un problema en forma estándar max s.a. c T x Ax b x un diccionario general para dicho problema x r = b r + a rs x s, s NB z

Más detalles

MÉTODO DEL DUAL (TEORIA DE DUALIDAD)

MÉTODO DEL DUAL (TEORIA DE DUALIDAD) MÉTODO DEL DUAL (TEORIA DE DUALIDAD) Todo problema de programación lineal tiene asociado con él otro problema de programación lineal llamado DUAL. El problema inicial es llamado PRIMO y el problema asociado

Más detalles

La Programación Lineal. H. R. Alvarez A., Ph. D. 1

La Programación Lineal. H. R. Alvarez A., Ph. D. 1 La Programación Lineal H. R. Alvarez A., Ph. D. 1 El Método Simplex Desarrollado en 1947 por George Dantzig como parte de un proyecto para el Departamento de Defensa Se basa en la propiedad de la solución

Más detalles

7. PROGRAMACION LINEAL

7. PROGRAMACION LINEAL 7. PROGRAMACION LINEAL 7.1. INTRODUCCION A LA PROGRMACION LINEAL 7.2. FORMULACION DE UN PROBLEMA LINEAL 7.3. SOLUCION GRAFICA DE UN PROBLEMA LINEAL 7.4. CASOS ESPECIALES DE PROBLEMAS LINEALES 7.4.1. Problemas

Más detalles

Guía de Problemas para el Control 2

Guía de Problemas para el Control 2 Guía de Problemas para el Control 2 Geometría Problema 1 Demuestre que la intersección de conjuntos convexos es un conjunto convexo. Utilizando esto demuestre que todo poliedro es un conjunto convexo.

Más detalles

Nelson Devia C Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulo 3

Nelson Devia C Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulo 3 IN3701 - Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile 2011 Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulo 3 Contenidos

Más detalles

Unidad III Teoría de la Dualidad.

Unidad III Teoría de la Dualidad. Curso de investigación de operaciones http://www.luciasilva.8k.com/5.5.htm Unidad III Teoría de la Dualidad. III.1 FORMULACIÓN DEL PROBLEMA DUAL La Teoría de la Dualidad es una de las herramientas que

Más detalles

5.1. Algoritmo en modelos de maximización

5.1. Algoritmo en modelos de maximización 5.1. Algoritmo en modelos de maximización El primer tipo de modelo que vamos a resolver por el método símplex es el que tiene como objetivo maximizar a una función lineal, la cual está sujeta a una serie

Más detalles

Auxiliar 7: Dualidad

Auxiliar 7: Dualidad IN3701: Modelamiento y Optimización Profs: Richard Weber, Rodrigo Wolf Coordinador: M. Siebert Aux: V. Bucarey, N. Devia, P. Obrecht Auxiliar 7: Dualidad Lunes 5 de Diciembre de 2011 Pregunta 1: Dualidad

Más detalles

METODO SIMPLEX. Paso 1 Se convierte el modelo matemático de Programación Lineal (PL) a su forma estándar.

METODO SIMPLEX. Paso 1 Se convierte el modelo matemático de Programación Lineal (PL) a su forma estándar. METODO SIMPLEX El algoritmo Simplex comprende los siguientes pasos: Paso 1 Se convierte el modelo matemático de Programación Lineal (PL) a su forma estándar. Al elaborar el modelo matemático que representa

Más detalles

Ejercicios - Resolución de problemas lineales. Método Simplex

Ejercicios - Resolución de problemas lineales. Método Simplex Ejercicios - Resolución de problemas lineales. Método Simplex Programación Matemática LADE Curso 8/9. Dado el problema lineal máx x x x + x s.a. x + x + x = 4 x + x 4 x justifica que el punto x = ( T es

Más detalles

Colección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30

Colección de Problemas II. mín Z = 8x 1 + 9x 2 + 7x 3 s. a: x 1 + x 2 + x x 1 + 3x 2 + x x 1 + x 2 x 3 30 1.- Dado el siguiente problema mín Z = 8x 1 + 9x + 7x 3 s. a: x 1 + x + x 3 40 x 1 + 3x + x 3 10 x 1 + x x 3 30 x 1 0, x 0, x 3 0 A) Plantear el problema dual y escribir las condiciones de la holgura complementaria

Más detalles

Programación Lineal II. Teoría de la dualidad

Programación Lineal II. Teoría de la dualidad Programación Lineal II. Teoría de la dualidad P.M. Mateo y David Lahoz 27 de mayo de 2009 Este tema continúa el desarrollo iniciado en el tema 1. En el se define el problema dual asociado a un problema

Más detalles

Comenzaremos presentando la idea principal del método de Karmarkar, para después describir los detalles de cómputo del algoritmo.

Comenzaremos presentando la idea principal del método de Karmarkar, para después describir los detalles de cómputo del algoritmo. MÉTODO DEL PUNTO INTERIOR DE KARMARKAR Con el método símplex se obtiene una solución óptima siguiendo una ruta de puntos extremos adyacentes, a lo largo de las orillas del espacio de soluciones. Aunque

Más detalles

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 16 de febrero de 2007

UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa 16 de febrero de 2007 UNIVERSIDAD CARLOS III DE MADRID Ingeniería Informática Examen de Investigación Operativa de febrero de 7 Problema. ( puntos Dado el problema de programación lineal: Maximizar x x + x s.a x + x x x x +

Más detalles

Análisis de sensibilidad 1

Análisis de sensibilidad 1 Análisis de sensibilidad Planteamiento general Cambios en el vector de recursos 3 Cambios en el vector de costes 4 Cambios en un vector a j no básico 5 Nuevas variables 6 Nuevas restricciones Planteamiento

Más detalles

Análisis de Sensibilidad de los Resultados

Análisis de Sensibilidad de los Resultados Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 22 Análisis de Sensibilidad de los Resultados ICS 02 Optimización Profesor : Claudio Seebach

Más detalles

UNIDAD 3 MÉTODO SIMPLEX. Fundamentos del método simplex

UNIDAD 3 MÉTODO SIMPLEX. Fundamentos del método simplex UNIDAD 3 MÉTODO SIMPLEX Fundamentos del método simplex Teoría Este método busca la solución, en cada paso, de forma mejorada hasta que no pueda seguir mejorando dicha solución. Al comienzo el vértice principal

Más detalles

INGENIERÍA DE SISTEMAS INVESTIGACIÓN OPERATIVA

INGENIERÍA DE SISTEMAS INVESTIGACIÓN OPERATIVA INGENIERÍA DE SISTEMAS INVESTIGACIÓN OPERATIVA Sesión 4 Objetivos: Aplicar el método simplex a la solución de problemas reales. Contenido: Introducción al método Simplex Requerimiento del método Simplex

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

Programación Lineal. - Si no: Sea j tal que c

Programación Lineal. - Si no: Sea j tal que c Programación Lineal El objetivo de este documento es hacer una breve introducción a la programación lineal que pueda contribuir al fácil manejo de la aplicación. La programación lineal es un procedimiento

Más detalles

Kg P1 Kg P Unidades Vitamina A

Kg P1 Kg P Unidades Vitamina A Dualidad El concepto de dualidad desempeña importantes papeles dentro de la programación lineal (también en la no lineal), tanto desde un punto de vista teórico como práctico. Todo programa lineal lleva

Más detalles

EJERCICIO 1. Max Z = 6 x x 2 s.r. (1) 4 x x 2 12 (2) 2 x x 2 16 (3) 2 x 1 6 x 1, x 2 0

EJERCICIO 1. Max Z = 6 x x 2 s.r. (1) 4 x x 2 12 (2) 2 x x 2 16 (3) 2 x 1 6 x 1, x 2 0 Considere el Programa Lineal siguiente: EJERCICIO Max Z 6 x + 9 x 2 s.r. () 4 x + 6 x 2 2 (2) 2 x + 8 x 2 6 (3) 2 x 6 x, x 2 0 (.a) 3 2 0 2 3 4 5 6 7 8 El Problema tiene una Región Factible delimitada

Más detalles

PROBLEMA 1. Considere el siguiente problema de programación lineal:

PROBLEMA 1. Considere el siguiente problema de programación lineal: PROBLEMA 1 Considere el siguiente problema de programación lineal: Sean h1 y h2 las variables de holgura correspondientes a la primera y segunda restricción, respectivamente, de manera que al aplicar el

Más detalles

Dualidad. Dpto. Ingeniería Industrial, Universidad de Chile. 22 de abril de IN3701, Optimización

Dualidad. Dpto. Ingeniería Industrial, Universidad de Chile. 22 de abril de IN3701, Optimización Contenidos Motivación y Representación de Poliedros IN3701, Optimización 22 de abril de 2009 Contenidos Motivación y Representación de Poliedros Contenidos 1 Motivación 2 y Representación de Poliedros

Más detalles

2.1 Introducción. Propiedades.

2.1 Introducción. Propiedades. 19 2 MATRICES II: DETERMINANTES En este segundo capítulo de matrices, aprenderemos a utilizar una herramienta muy importante como son los determinantes Gracias a ellos, podremos calcular la inversa de

Más detalles

CO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008

CO5411. Dantzig-Wolfe / Descomposición de Benders. Prof. Bernardo Feijoo. 06 de febrero de 2008 Dantzig-Wolfe / Departmento de Cómputo Cientíco y Estadística Universidad Simón Bolívar 06 de febrero de 2008 Contenido 1 Dantzig-Wolfe 2 Contenido Dantzig-Wolfe 1 Dantzig-Wolfe 2 Ahora la nueva base produce

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Universidad Nacional de Ingeniería UNI-RUACS 01/09/11

Universidad Nacional de Ingeniería UNI-RUACS 01/09/11 Universidad Nacional de Ingeniería UNI-RUACS 01/09/11 Elaborado por: Deall Daniel Irías Estelí, Nicaragua El método Simplex es un procedimiento iterativo que permite ir mejorando la solución a cada paso.

Más detalles

PROGRAMACIÓN MATEMÁTICA

PROGRAMACIÓN MATEMÁTICA PROGRAMACIÓN MATEMÁTICA TEMA 1. INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA. CONJUNTOS CONVEXOS. CONVEXIDAD DE UNA FUNCIÓN. PLANTEAMIENTO FORMAL DEL PROBLEMA DE PROGRAMACION MATEMATICA. - Función Objetivo:

Más detalles

Teórica VIII. Modelos y Optimización I. Curso 2018 Segundo Cuatrimestre

Teórica VIII. Modelos y Optimización I. Curso 2018 Segundo Cuatrimestre Teórica VIII Nuevamente recordamos que este material es de apoyo a las clases teóricas. Si no asistieron a la clase, les faltarán varias cosas que tienen que ver con el trabajo en clase y con las explicaciones

Más detalles

Examen de Investigación Operativa (Plan 96) Febrero de er Parcial

Examen de Investigación Operativa (Plan 96) Febrero de er Parcial Examen de Investigación Operativa (Plan 96) Febrero de 2010 1 er Parcial Solución del Ejercicio 1. Definimos las variables de decisión ½ 1, si se coloca una cámara en el punto de localización i x i = 0,

Más detalles

INVESTIGACION DE OPERACIONES:

INVESTIGACION DE OPERACIONES: METODO SIMPLEX El algoritmo símplex fue descubierto por el matemático norteamericano George Bernard Dantzig en 1947, es una técnica para dar soluciones numéricas a problema de programación lineal Un problema

Más detalles

Programación Lineal III. Análisis Post-Optimal

Programación Lineal III. Análisis Post-Optimal Programación Lineal III. Análisis Post-Optimal P.M. Mateo y David Lahoz 7 de mayo de 009 En este tema se estudia al análisis post-optimal, qué ocurre en un problema de programación lineal que ya hemos

Más detalles

Licenciatura en Administración y Dirección de Empresas

Licenciatura en Administración y Dirección de Empresas Licenciatura en Administración y Dirección de Empresas Programación Matemática de junio de 200 Ejercicio 3 pt. Considera el siguiente problema de programación no lineal:. Se trata de un problema convexo?

Más detalles

Se desea resolver el problema. P : mín f(x) (5.1)

Se desea resolver el problema. P : mín f(x) (5.1) Capítulo 5 Teoría Lagrangiana 5.1. Condiciones para problemas con restricciones de igualdad. Se desea resolver el problema P : mín f(x) (5.1) s.a : h i (x) = 0 i = 1, 2..., m donde f : IR n IR y h i :

Más detalles

Tema 5: Análisis de Sensibilidad y Paramétrico

Tema 5: Análisis de Sensibilidad y Paramétrico Tema 5: Análisis de Sensibilidad y Paramétrico 5.1 Introducción 5.2 Cambios en los coeficientes de la función objetivo 5.3 Cambios en el rhs 5.4 Análisis de Sensibilidad y Dualidad 5.4.1 Cambios en el

Más detalles

Ejercicios de Programación Lineal

Ejercicios de Programación Lineal Ejercicios de Programación Lineal Investigación Operativa Ingeniería Informática, UCM Curso 5/6 Una compañía de transporte dispone de camiones con capacidad de 4 libras y de 5 camiones con capacidad de

Más detalles

RESOLUCIÓN DE MODELOS DE PROGRAMACIÓN ENTERA MÉTODOS DE CORTE CORTES DE GOMORY

RESOLUCIÓN DE MODELOS DE PROGRAMACIÓN ENTERA MÉTODOS DE CORTE CORTES DE GOMORY 25 de Junio de 2012 RESOLUCIÓN DE MODELOS DE PROGRAMACIÓN ENTERA MÉTODOS DE CORTE CORTES DE GOMORY Postgrado de Investigación de Operaciones Facultad de Ingeniería Universidad Central de Venezuela Programación

Más detalles

Figura 1: Esquema de las tablas simplex de inicio y general.

Figura 1: Esquema de las tablas simplex de inicio y general. RELACIONES PRIMAL-DUAL Los cambios que se hacen en el modelo original de programación lineal afectan a los elementos de la tabla óptima actual el que se tenga en el momento, que a su vez puede afectar

Más detalles

Universidad Nacional Autónoma de Nicaragua UNAN-Managua Curso de Investigación de Operaciones

Universidad Nacional Autónoma de Nicaragua UNAN-Managua Curso de Investigación de Operaciones Universidad Nacional Autónoma de Nicaragua UNAN-Managua Curso de Investigación de Operaciones Profesor: MSc. Julio Rito Vargas Avilés. Estudiantes: FAREM-Carazo Unidad III Metodologías para la Solución

Más detalles

Licenciatura en Administración y Dirección de Empresas

Licenciatura en Administración y Dirección de Empresas Licenciatura en Administración y Dirección de Empresas Programación Matemática 19 de junio de 006 Ejercicio 1 3 pt. Considera la función fx, y = x y en la región factible R = {x, y R : x 1 + y 1; y x 1

Más detalles

Clase 9 Programación No Lineal

Clase 9 Programación No Lineal Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 9 Programación No Lineal ICS 110 Optimización Profesor : Claudio Seebach Apuntes de Clases

Más detalles

Optimización con restricciones de desigualdad. Yolanda Hinojosa

Optimización con restricciones de desigualdad. Yolanda Hinojosa Optimización con restricciones de desigualdad Yolanda Hinojosa Contenido Optimización no lineal con restricciones de desigualdad. Condiciones necesarias y suficientes de óptimo Análisis de sensibilidad.

Más detalles

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes

Más detalles

Control 2 IN mayo 2009

Control 2 IN mayo 2009 Profs: Auxs: Daniel Espinoza Gonzalo Romero Víctor Bucarey Nelson Devia Jocelyn González Daniel Lillo Fernando Solari Control 2 IN3701 28 mayo 2009 Pregunta 1 La empresa de pigmentos LILLO & Co. debe decidir

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales 1 Definiciones Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de expresiones de la forma: a 11 x 1 + a 12 x 2 + + a 1n x n = a 21 x 1 + a 22 x 2 + +

Más detalles

MATEMÁTICAS II Examen del 2/12/2004 Solución Importante

MATEMÁTICAS II Examen del 2/12/2004 Solución Importante MATEMÁTICAS II Examen del //004 Solución Importante Las calificaciones se harán públicas en la página web de la asignatura y en el tablón de anuncios del Dpto. de Métodos Cuantitativos en Economía y Gestión

Más detalles

Algoritmo de Karmarkar

Algoritmo de Karmarkar Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN70K: Clase Auxiliar Algoritmo de Karmarkar Marcel Goic F. 1 1 Esta es una versión bastante preliminar

Más detalles

Control 2 13 de Mayo 2009

Control 2 13 de Mayo 2009 Control 2 13 de Mayo 2009 Profs: Auxs: Guillermo Durán Richard Weber Fernanda Bravo, André Carboni, Rodrigo Wolf Pregunta 1 1. (1.2 Ptos.) Cuáles son los 3 criterios principales que guían el algoritmo

Más detalles

Tema 2 Conjuntos convexos

Tema 2 Conjuntos convexos Tema 2 Conjuntos convexos José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 2 Conjuntos convexos. Propiedades básicas y ejemplos. Cierre e interior de un

Más detalles

Teniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros:

Teniendo en cuenta los valores de las variables se tienen 3 tipos de modelos lineales enteros: Tema 5 Programación entera En este tema introducimos problemas lineales en los que algunas o todas las variables están restringidas a tomar valores enteros. Para resolver este tipo de problemas se han

Más detalles

MÉTODO ALGEBRAICO: Obtención de las soluciones básicas:

MÉTODO ALGEBRAICO: Obtención de las soluciones básicas: MÉTODO ALGEBRAICO: El método algebraico es una alternativa de solución a problemas de programación lineal. Sin embargo es muy dispendioso, en razón a que trabaja con todos los datos de las ecuaciones,

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo. Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)

Más detalles

Tema 2: Optimización lineal. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga

Tema 2: Optimización lineal. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Tema 2: Optimización lineal Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Sumario El modelo de programación lineal Formulación de modelos Método gráfico

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Programación Lineal. El método simplex

Programación Lineal. El método simplex Programación Lineal El método simplex El método simplex es una herramienta algebraica que permite localizar de manera eficiente el óptimo entre los puntos extremos de una solución a un problema de programación

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

Tema 4: Teoría de dualidad. Algoritmo Dual del Simplex 1

Tema 4: Teoría de dualidad. Algoritmo Dual del Simplex 1 Tema 4: Teoría de dualidad. Algoritmo Dual del Simplex 1 4.1 Introducción 4.2 Definición del Problema Dual 4.3 Relaciones Primal-Dual 4.4 Condiciones de Holgura Complementaria 4.5 Interpretación Económica

Más detalles

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES UNIDD 4 RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 00 Resolución de sistemas mediante determinantes x y Resuelve, aplicando x = e y =, los siguientes sistemas de ecuaciones: x 5y = 7 5x + 4y = 6x

Más detalles

Matrices y sistemas de ecuaciones

Matrices y sistemas de ecuaciones Matrices y sistemas de ecuaciones María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices

Más detalles

Jesús Getán y Eva Boj. Marzo de 2014

Jesús Getán y Eva Boj. Marzo de 2014 Jesús Getán y Eva Boj Facultat d Economia i Empresa Universitat de Barcelona Marzo de 2014 Jesús Getán y Eva Boj 1 / 18 Jesús Getán y Eva Boj 2 / 18 Un Programa lineal consta de: Función objetivo. Modeliza

Más detalles

0. En la solución inicial estos ratios son 30; 155

0. En la solución inicial estos ratios son 30; 155 PASO 7. Regla de entrada. Se introduce en la base la variable con mayor coste reducido, en este caso, la variable. PASO 8. Regla de salida. A continuación debemos determinar qué variable sale de la base.

Más detalles

Enero Febrero Marzo Abril. D: uds D: uds D: uds D: uds

Enero Febrero Marzo Abril. D: uds D: uds D: uds D: uds PROBLEMA Una empresa dedicada a la fabricación de diferentes artículos, ante la inminente llegada de la estación invernal se plantea establecer su política de fabricación almacenae de estufas de gas para

Más detalles

Para poder elaborar el problema dual a partir del primal, este se debe presentar en su forma canónica de la siguiente forma:

Para poder elaborar el problema dual a partir del primal, este se debe presentar en su forma canónica de la siguiente forma: TEORIA DE LA DUALIDAD. Cada problema de programación lineal tiene un segundo problema asociado con él. Uno se denomina primal y el otro dual. Los 2 poseen propiedades muy relacionadas, de tal manera que

Más detalles

DUALIDAD EN PROGRAMACION LINEAL

DUALIDAD EN PROGRAMACION LINEAL DUALIDAD EN PROGRAMACION LINEAL Relaciones primal-dual Asociado a cada problema lineal existe otro problema de programación lineal denominado problema dual (PD), que posee importantes propiedades y relaciones

Más detalles

Resolución de sistemas de ecuaciones lineales

Resolución de sistemas de ecuaciones lineales Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular

Más detalles

UNIDAD UNO PROGRAMACIÓN LÍNEAL Parte 4

UNIDAD UNO PROGRAMACIÓN LÍNEAL Parte 4 Ing. César Urquizú UNIDAD UNO PROGRAMACIÓN LÍNEAL Parte 4 Ing. César Urquizú Teoría de la dualidad El desarrollo de esta teoría de la dualidad es debido al interés que existe en la interpretación económica

Más detalles