Optimización de Procesos

Documentos relacionados
Algebra lineal y conjuntos convexos

Forma estándar de un programa lineal

Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para su solución. Estas son:

UNIDAD 3 MÉTODO SIMPLEX. Fundamentos del método simplex

maximización (con restricciones de la forma menor igual que). asociado al modelo primal de minimización y viceversa.

Programación Entera. Nelson Devia C. IN Modelamiento y Optimización Departamento de Ingeniería Industrial Universidad de Chile

Figura 1: Esquema de las tablas simplex de inicio y general.

Tema 3 Optimización lineal. Algoritmo del simplex

Optimización y Programación Lineal

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

Degeneración y ciclaje. Método de las dos fases CO-3411 (S08) 30/03/

WinQSB. Módulo de Programación Lineal y Entera. Al ejecutar el módulo Linear and Integer Programming, la ventana de inicio es la siguiente

Universidad Nacional de Ingeniería UNI-RUACS 01/09/11

Repaso del algoritmo SIMPLEX

Tema 3: El Método Simplex. Algoritmo de las Dos Fases.

METODO SIMPLEX. Paso 1 Se convierte el modelo matemático de Programación Lineal (PL) a su forma estándar.

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

Herramientas computacionales para la Programación n Lineal

Programación Lineal. El método simplex

Práctica 2: Análisis de sensibilidad e Interpretación Gráfica

La Geometría de la Programación Lineal

Capítulo 4 Método Algebraico

Matrices y Sistemas de Ecuaciones lineales

Formulación del problema de la ruta más corta en programación lineal

Forma estándar de un PPL con m restricciones y n variables. (b 0)

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Optimización. Condiciones de Karush-Kuhn-Tucker ITESM. Condiciones de Karush-Kuhn-Tucker Profr. E. Uresti - p. 1/30. Dr. E Uresti

Universidad Tec Milenio: Profesional HG04002 Análisis de Decisiones I

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Optimización de Problemas de Producción

Programación lineal: Algoritmo del simplex

84 Tema 3. Dualidad. todas las restricciones son del tipo, todas las variables son no negativas.

Unidad 2. Matrices Conceptos básicos 2.2. Operaciones con matrices 2.3. Matriz Inversa 2.4. El método de Gauss-Jordan 2.5.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Guía de Problemas para el Control 2

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Optimización de Problemas no lineales.

ESCUELA DE CIENCIAS CIENCIAS BASICAS TECNOLOGIA E INGENIERIA PROGRAMACION LINEAL Act No. 8. LECTURA LECCION EVALUATIVA 2

INGENIERÍA DE SISTEMAS INVESTIGACIÓN OPERATIVA

1 ÁLGEBRA DE MATRICES

MÉTODO DEL DUAL (TEORIA DE DUALIDAD)

Con miras a conocer la metodología que se aplica en el Método SIMPLEX, tenemos a continiacion un ejemplo:

Dualidad y postoptimización

7. PROGRAMACION LINEAL

Programación NO Lineal (PNL) Optimización sin restricciones

Dualidad. Dpto. Ingeniería Industrial, Universidad de Chile. 22 de abril de IN3701, Optimización

Programación Lineal. María Muñoz Guillermo Matemáticas I U.P.C.T. M. Muñoz (U.P.C.T.) Programación Lineal Matemáticas I 1 / 13

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

x 1, x 2 0 Maximizar 3x 1 + x 2 s.a 2x 1 + x 2 4 2x 1 + 3x 2 4 x 1 + 3x 2 3

Para conocer la conveniencia de la aplicación SOLVER de EXCEL Microsoft, se utilizará un ejemplo práctico:

Contenido: Solución algebraica a los problemas de programación lineal con el método simplex.

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 9

ANÁLISIS DE SENSIBILIDAD.

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Tema 1 Introducción. José R. Berrendero. Departamento de Matemáticas Universidad Autónoma de Madrid

TALLER Nº 4 NOMBRE: CARLA HERNANDEZ NIVEL: CUARTO NIVEL

Ejercicios - Resolución de problemas lineales. Método Simplex

1.Restricciones de Desigualdad 2.Procedimiento algebraico

En los ejercicios 11 a 20, resuelva gráficamente y verifique su respuesta en forma algebraica.

2.2 CREAR TABLAS Y GRÁFICOS.

1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE

CALCULO I UNIDAD I MATRICES. Instituto Profesional Iplacex

INTERVALOS Y SEMIRRECTAS.

Lo rojo sería la diagonal principal.

Francisco José Vera López

Unidad 1: Sistemas de Ecuaciones lineales. Método de Gauss.

Algebra lineal y conjuntos convexos 1

Expresión C. numérico Factor literal 9abc 9 abc

PROGRAMACIÓN MATEMÁTICA

Ejercicios tipo final

ANÁLISIS DE SENSIBILIDAD DE UN PROGRAMA MATEMATICO

MÉTODO SIMPLEX REVISADO O FORMA MATRICIAL

Buscar en la Ayuda. Más en Office.com: Descargas Plantillas

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

APUNTES ALGEBRA SUPERIOR

Álgebra Lineal Ma1010

Tema 7: Problemas clásicos de Programación Lineal

Algoritmos con restricción

TEMA 7: MATRICES. OPERACIONES.

Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Fila: Es un conjunto de varias celdas dispuestas en sentido horizontal.

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

RESOLUCIÓN DE PROBLEMAS DE PROGRAMACIÓN LINEAL EN MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES CON LA HOJA DE CÁLCULO CALC

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

Prácticas de Introducción a los Computadores Curso Hoja Gráficos: Hoja Regresión: ESPESOR 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 ESPESOR COSTES fij

POST-OPTIMIZACIÓN Y SENSIBILIDAD EN PROBLEMAS LINEALES.

2.5 Dependencia Lineal, Independencia Lineal, Wronskiano 74

Sistemas de ecuaciones lineales

Z Optima X 1 + X 2 5 Z 1 -X 1 + 2X Región factible. Figura 1

EJERCICIO 1. Max Z = 6 x x 2 s.r. (1) 4 x x 2 12 (2) 2 x x 2 16 (3) 2 x 1 6 x 1, x 2 0

Introducción a la programación lineal

Auxiliar 7: Dualidad

Matemáticas.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Transcripción:

Optimización de Procesos

Tier I: Métodos Matemáticos de Optimización Sección 2: Programación Lineal

Programación Lineal (Linear Programming, LP) La programación lineal (optimización lineal) es el área de problemas de optimización con funciones objetivo y restricciones lineales Ejemplo: minimizar: f(x) 6x + 5x 2 + 2x + 7x 4 sujeta a: 2x + 8x + x 4 2 x 5x 2 2x + x 4-5

Programación Lineal continuación Ninguna de las variables está multiplicada por otra variable, elevada a una potencia o usada en una función no linear Puesto que la función objetivo y las restricciones son lineales, son convexas. Entonces, si la solución óptima de un problema de LP es encontrada, ésta es el óptimo global.

Forma estándar de LP Forma estándar de LP: minimizar: f cx sujeta a: Ax b x i ; i,, n donde c es llamada el vector costo ( por n), x es el vector de variables (n por ), A es la matriz de coeficientes (m por n), y b es un vector de constantes dadas m por.

ases de la Forma Estándar Para un problema de maximización, podemos transformar usando: max(f(x)) min(-f(x)) Para restricciones de desigualdad, se usan variables "flojas": 2x + x 2 5 2x + x 2 + s 5 donde s

Usando Variables flojas Cuando transformamos la ecuación 2x + x 2 5 to 2x + x 2 + s 5 Si el lado izquierdo (left-hand side, LHS) (2x + x 2 ) es menor que el lado derecho (right-hand side, RHS) (5), entonces s tomará un valor positivo para hacer la igualdad verdadera. Mientras el valor del LHS sea más cercano al RHS, más pequeño será el valor de s. Si el LHS es igual al RHS, s. s no puede ser negativo porque el LHS no puede ser mayor que el RHS.

Ejemplo de Forma Estándar Ejemplo: Escrito en Forma Estándar: maximizar: f x + x 2 sujeta a: 2x + x 2 6 x + 7x 2 4 x + x 2 x, x 2 Definir las variables flojas x & x 4

Ejemplo de Problema Reescrito El problema ahora puede escribirse: minimizar: g x x 2 sujeta a: 2x + x 2 + x 6 x + 7x 2 x 4 4 x + x 2 x, x 2, x, x 4 A 2 7 b 6 4 c [ ]

Repaso de Álgebra Lineal La siguientes diapositivas revisan varios conceptos de álgebra lineal que son la base de los métodos usados para resolver problemas de optimización lineal

Vectores Vectores e Independencia Lineal Un vector k es una columna o fila o un arreglo de columnas de k números. Tiene una dimensión de k. Independencia Lineal (Linear Independence, LI) Una recopilación de vectores a, a 2,, a k, cada uno de dimensión n, es llamado linealmente independiente si la k λ a significa que λ j j j j para j, 2,, k

Independencia Lineal Continuación En otras palabras, un grupo de vectores es linealmente independiente si un vector no puede escribirse como una combinación de cualquiera de los otros vectores. El número máximo de vectores LI en un espacio n-dimensional es n.

Por ejemplo, en un espacio de 2 dimensiones: x 4 5 Los vectores y no son 2 25 Linealmente independientes porque x 2 5x. x 2 Independencia Lineal y Continuación x 2 son LI porque no hay Una constante que puedas multiplicar para obtener la otra. x 2

Grupos de Cobertura Se dice que un grupo de vectores a, a 2,, a k en un espacio n-dimensional abarca el espacio si cualquier otro vector en el espacio puede escribirse como una combinación lineal de vectores En otras palabras, para cada vector b, deben existir escalares λ, λ 2,, λ k tales que k b a j λ j j

ases Se dice que un grupo de vectores es una base para un espacio n-dimensional si:. Los vectores abarcan el espacio 2. Si cualquiera de los vectores es removido, el grupo ya no abarcará el espacio Una base para un espacio n-dimensional debe tener exactamente n vectores Pueden existir muchas bases diferentes para un espacio dado

ases continuación Un ejemplo de una base es el eje coordenado de una gráfica. Para una gráfica en 2-D, no puedes remover uno de los ejes y aún formar una línea cualquiera con solo los ejes restantes. O, no puedes tener tres ejes en una gráfica 2-D porque siempre puedes representar el tercero usando los otros dos.

Sistemas de Ecuaciones (SOE) El Álgebra Lineal puede ser usada para resolver un sistema de ecuaciones Ejemplo: 2x + 4x 2 8 & x 2x 2 Esto puede ser escrito como una matriz aumentada: [ A, b ] 2 4 2 8

Sistemas de Ecuaciones Continuación Las operaciones de fila pueden ser realizadas en la matriz sin cambiar el resultado Operaciones de fila válidas incluyen lo siguiente: Multiplicar una fila por una constante Intercambiar dos filas Sumar una fila a otra

Resolviendo SOE s En el ejemplo previo, queremos cambiar la matriz A para ser triangular superior 2 4 8 2 multiplica la fila superior por ½ 2 4 2 suma veces la fila superior a la fila inferior 2 4 8

2 4 8 Resolviendo SOE s continuación multiplica la fila inferior por -/8 x + 2x2 x + x 4 8 De la matriz triangular superior aumentada, podemos fácilmente ver que x 2 / 8 y usar este para obtener x x 4 2. / 8 5 / 4 2 4 8 2

Matriz Invertida El inverso de una matriz puede ser encontrado usando operaciones de filas Ejemplo: Forma la matriz aumentada (A, I) Transformala a (I, A - ) Usando operaciones de filas 2 2 2 A 2 2 2 2 5 2 2 2 2 2 2 2 2 5

Ecuaciones de Optimización Hemos visto que las restricciones pueden ser escritas en la forma Ax b. Debemos tener más variables que ecuaciones así que tenemos algunos grados de libertad para optimizar. Si el número de ecuaciones es mayor o igual que el número de variables, los valores de las variables ya están especificados.

Solución General a los SOE s Dado un sistema de ecuaciones en la forma Ax b Asume m (número de ecuaciones) < n (número de variables) sistema underspecified system Podemos separar el sistema en variables independientes (n-m) y variables dependientes (m). Los valores de las variables dependientes dependerán de los valores que elijamos para las variables independientes.

Solución General continuación Llamamos a las variables dependientes variables básicas porque su matriz de coeficientes A forma una base. Las variables independientes serán llamadas variables no básicas. Al cambiar las variables en la base, podemos cambiar las bases. Se mostrará que esto permite examinar diferentes puntos óptimos posibles.

Solución General continuación Separa la matriz A en la siguiente manera: m n a x... + a x +... + a x + m n b O, m i n i a + j xi a x j j m+ b

Define las matrices y N como sigue: [ ] 2 m a a a [ ] m+ m+2 n N a a... a... Solución General continuación donde es una matriz m por m matriz, N es una matriz m por (n-m), y a j es la columna j th de la matriz A es llamada matriz básica y N es llamada matriz no básica

Solución General continuación La matriz contiene las columnas de la matriz A que corresponden a las variables x que están en la base. Se debe mantener el orden. Así, si x 4 es la segunda variable de la base, a 4 debe ser la segunda columna de la matriz La matriz N es solo las columnas de la matriz A que quedan fuera.

Solución General continuación Similarmente, define x [ x2... x m x ] T y x N [ m+ xm+ 2 x... x ] n T Más adelante veremos como determinar que variables poner en la base. Este es un paso importante para examinar todas las soluciones óptimas posibles.

Solución General continuación Ahora tenemos x Nx + N b Multiplica ambos lados por - : x + Nx N b Así, x ( x x N ) ( b Nx N x N )

Solución ásica Podemos elegir cuales quiera valores para las variables (n-m) (aquellas en x N )y entonces resolver para las variables m restantes en x Si elegimos x N, entonces x b A esto se le llama "solución básica" del sistema Solución ásica: x ( x x N ) ( b )

Soluciones ásicas Factibles Ahora tenemos una solución para Ax b. Pero esa era solo uno de dos grupos de restricciones para el problema de optimización. El otro era: x i, i,, n (no-negativa) Una solución básica factible (basic feasible solution, FS) es una solución básica donde cada x es no-negativa Una FS satisface todas las restricciones del problema de optimización

Puntos Extremos Un punto es llamado punto extremo (extreme point, EP) si no puede ser representado como una combinación convexa estricta ( < λ < ) de otros dos puntos factibles. Recuerda: una combinación convexa de dos puntos es una línea entre ellos. Entonces, un EP no puede estar en una línea de otros dos puntos factibles.

Puntos Extremos (Gráficos) Dada una región factible, un punto extremo no puede hallarse en una línea entre dos otros puntos factibles (debe estar en un vértice) Feasible Region Not Extreme Points Punto Extremo En un espacio n-dimensional, un punto extremo está localizado en la intersección de n restricciones

Puntos Extremos y óptimos c Punto de Inicio Tenemos un problema de maximización, así que queremos ir tan lejos como sea posible en la dirección del vector c (función objetivo) Podemos determinar algo sobre la ubicación del punto óptimo?

Puntos Extremos y óptimos c Si iniciamos en una línea, podemos movernos a lo largo de la línea en la dirección de la función objetivo hasta llegar a un vértice De hecho, para cualquier vector c, el punto óptimo siempre será en un vértice

Soluciones ásicas Factibles (asic Feasible Solutions, FS) En un espacio n-dimensional, una FS es formada por la intersección de n ecuaciones. En 2-D: Restricción Solución ásica Factible Restricción 2 Pero, solo vimos que un punto extremo es también el punto en un vértice. Entonces, una FS corresponde a un EP.

Enlazándolos Acabamos de ver que una solución básica factible corresponde a un punto extremo. Esto es muy importante porque para los problemas de LP, el punto óptimo es siempre un punto extremo. Entonces, si podemos resolver para todos las FS's (EP's), podemos comprarlos para encontrar el óptimo. Desafortunadamente, esto toma mucho tiempo.

Introducción al Método Simplex El método simplex es el método más común para resolver problemas de LP. Trabaja encontrando una FS; determinando si ésta es óptima; y si no lo es, se mueve a una "mejor" FS hasta que la óptima es alcanzada. De esta manera, no tenemos que calcular cada solución.

Álgebra del Método Simplex Recuerda: N N f x c x c cx + b Nx x + N b a x + N j j j x Suma global de las variables no básicas + N j N j j j j j x c x f ) ( a b c sustituir N j j j x a b x Función Objetivo: en la ecuación de arriba:

Álgebra del Método Simplex + N j j j j x z c f ) ( b c j j z a c donde + N j j j j x c f ) ( a c b c Multiplica y colecta términos x j :

Ecuaciones del Método Simplex Minimiza f c b + ( c j z j ) j N x j Sujeta a: + j a x Si (c j z j ) para todo j N, entonces la SF actual es optima para un problema de minimización. Porque, si fuera < para cualquier j, esa variable no básica, x j, podría entrar la base y reducir la función objetivo. x j N j b

Variables Entrantes Una variable no básica puede entrar en la base y reemplazar una de las variables básicas Puesto que x N, y no tenemos restricciones no negativas, la variable entrante debe incrementar su valor. El valor de la variable entrante se incrementará, reduciendo la función objetivo, hasta que una restricción sea cumplida.

Ecuación de Variable Entrante La ecuación para determinar cual variable entra es: T j c. Calculada para j c a c j z j todos los índices no básicos j Para un problema de minimización, elige el índice j para el que c j -z j es el más negativo Si c j -z j para todo j, la solución es óptima Para un problema de maximización, elige el índice j para el que c j -z j es el más positivo Si c j -z j para todo j, la solución es óptima

Variables salientes (Leaving Variables) Mientras el valor de la variable entrante se incrementa, usualmente el valor de al menos una variable básica decrecerá Si no, el problema es llamado "no ligado" y el valor de la función mínima objetivo es - La variable cuyo valor alcanza el cero primero será la variable que deja la base

Variable Entrantes y Salientes Ejemplo: x está entrando en la base mientras que x 2, x y x 4 son las variables básicas actuales x 4 x x 2 x Cuando x 2 llegue a cero, debemos parar dsebido a las restricciones no negativas. Pero, ahora x 2, así que es una variable no básica y x >, así que es una variable básica. Entonces, x 2 deja la base y x entra en la base.

Ecuación de Variable Saliente Consideremos a j como el índice de la variable que está entrando a la base y a i * como el índice de la variable que está dejando la base Esto significa que, para cada índice i que esté en la base y que tenga, se calcula. El índice del valor que es el mínimo es el índice de la variable saliente. > ) ( ) ( ) ( argmin * i j i j i a a b i i j i ) ( ) ( a b ) ( > i j a

Ecuación de Variable Saliente La expresión previa es obtenida de la ecuación: j x b a x j que aplica cuando una restricción es cumplida

El Ejemplo Revisado x 4 x x 2 x 2, x, y x 4 inician en ( - b) i ; (i2,, 4) y tienen pendientes de ( - a j ) i ; (i2,, 4) donde j porque es el índice de la variable entrante (x ) Entonces, la distancia a la que podemos ir antes de que la variable básica alcance el valor de ( b) cero es para - a >. Pero, si ( - i a ( a ) ) i < i (como x ), nunca alcanzará el cero. x

El Ejemplo Revisado x 4 x x 2 Podemos también ver como, si ninguna de las variables decrece, podemos mantener x incrementándose y mejorar la función objetivo sin siquiera cumplir una restricción Esto da una solución desligada x

Problema de Ejemplo Minimizar f -x x 2 Sujeta a: x + x 2 5 2x x 2 4 x ; x, x 2 Dados: La base inicial es x, x 2, y x. Insertar variables flojas x, x 4, y x 5.

Ejemplo Minimizar f -x x 2 Sujeta a: x + x 2 + x 5 2x x 2 + x 4 4 x x 5 x, x 2, x, x 4, x 5 2 A 4 5 b ( ) c

a Iteración: ( ) 2 2 a a a 2 4 5 2 b x 2 2 ( ) 5 2 f x c Ejemplo

Ahora, revisa la optimización x 4 : x 5 : ( ) 2 4 4 c a c ( ) ) ( 2 5 5 c a c < > Ejemplo

Entonces, x 4 entra a la base puesto que su indicador de optimización es <. 2 ) ( b ) ( b 2 ) ( 2 b ) ( & b 2 4 4 a a j j Ejemplo

Ejemplo b) b) 2 b) ( ( 2 ( i * 4 a ) 4 4 a ) a ) ( ( argmin ( b) i j a ) i ( 2 ( a j ) i > argmin ( > > > { } N / A N / A Entonces, x es la variable saliente

2 a Iteración: 2 2 4 5 b x ( ) 5 2 f x c a 4 ha sido sustituida por a Ejemplo

Indicadores de Optimización: x : x 5 : ( ) ) ( c a c ( ) 5 5 c a c Ejemplo

Solución al Ejemplo Todos los indicadores son, así que esta es la solución óptima. Entonces, 5 * f 2 4 2 * x x x x 5 * x x x N

Pasos del Algoritmo Simplex. Con la base elegida, obtén y resuelve x - b y f c x. 2. Calcula c j z j para todas las variables no básicas, j. Para un problema de min., si todo c j z j s are, la solución actual es óptima. Si no, elige el índice con el c j z j mas negativo. Para un problema de max., si todos los c j z j 's son, la solución actual es óptima. Si no es así, elige el índice con el c j z j más positivo.

Pasos del Algoritmo Simplex *. Usando la ecuación i elige la variable saliente. ( argmin ( Si todos los ( - a j ) i s son, entonces la solución es desligada 4. Deja que x j entre a la base y que x i * deje la base. Obtén la nueva matriz y comienza nuevamente con el paso. b) i j a ) i ( a j ) i >

Eligiendo una ase Inicial En el ejemplo, se nos dio una base inicial. Cómo podemos obtener una por nosotros mismos? Caso #: problema de max (o min) con. Ax b (todas desigualdades ) y 2. Todas las entradas del vector b son. Inserta variables flojas en las ecuaciones de restricción y usa la matriz de identidad resultante como la base inicial

Eligiendo una ase Inicial Consideremos s vector de variables flojas El problema se convertirá en max f min Sujeta a cx + s Ax + Is b x, s Donde I La matriz de Identidad.....................

Eligiendo una ase Inicial Elige las variables flojas como la base inicial La matriz base inicial() está conformada por los coeficientes de las variables flojas. Esto es la matriz de identidad. Podemos observar que la base inicial es factible (x ): I x b I b Ib b

Problema #2 de Ejemplo Minimizar -x x 2 Sujeta a 2x + x 2 6 -x + x 2 x, x 2 Inserta variables flojas: 2x + x 2 + x 6 -x + x 2 + x 4 x, x 2, x, x 4 2 A 6 b c [ ] Matriz de Identidad

Ejemplo #2 Usa las variables flojas como la base inicial: [ ] 4 a a 6 6 b x [ ] 6 f x c &

Indicadores de Optimización: j: j2: [ ] 2 a c c z c [ ] 2 2 2 2 a c c z c c 2 -z 2 es el más negativo, así que x 2 entra a la base Ejemplo #2

6 ) ( b 6 ) ( b ) ( & 4 b 2 2 a a j j x 2 está entrado a la base Ejemplo #2

Ejemplo #2 ( b) 6 b) ( ( 4 2 2 a ) a ) ( 4 i * ( argmin ( b) i j a ) i ( a j ) i > argmin { 6 } argmin{ 2 } 4 Entonces, x 4 es la variable saliente.

2 a Iteración: [ ] 2 a a 6 b x [ ] f x c x 2 reemplazó a x 4 Ejemplo #2

Indicadores de Optimización: j: j4: Entonces, x entra a la base [ ] 4 2 a c c z c [ ] ) ( 4 4 4 4 a c c z c Ejemplo #2

Variable Saliente: Entonces, x deja la base y x lo reemplaza. ) ( b ) ( b ) ( & 2 b 5 2 j j a { } / 5 argmin ) ( ) ( ) ( argmin * > A N a a b i i j i j i > Ejemplo #2

Ejemplo #2 a Iteración: 2 [ ] 2 a a 2.2.2.6.4 x.2.66.6 b.2.4. 6 f c x.6.6 [ ] 5. 4

Ejemplo #2 Indicadores de Optimización: j: j4:.2.6 c z c c a.2.4 [ ] (.8). 8 4.2.6 c4 z4 c4 c a.2.4 [ ] (.6). 6 Ambos c j -z j s son, entonces la solución actual es óptima [.6.6 ] * * x f 5. 4

Ejemplo #2 Esta gráfica muestra el procedimiento seguido. Las líneas punteadas son perpendiculares al vector de costo, c. x 2.6.6 c en aumento x

Ejemplo #2 Puesto que estamos minimizando, fuimos en la dirección opuesta como el vector costo x 2.6.6 C en aumento x

Más sobre ases Iniciales Caso #2: problema de max (o min) con:. Ax b (al menos algunas restricciones ) y 2. Todas las entradas del vector b son Suma variables flojas para convertir el problema en Ax Is b x, s. No podemos usar el mismo truco que antes porque ahora tenemos una matriz de identidad negativa como matriz.

Caso #2 continuación Método de 2 fases: Introduce variables artificiales (y) donde se requiera obtener una matriz de identidad. Si todas las restricciones fueran, el problema se convertiría en: Ax Is + Iy b x, s, y

Variables Artificiales Las variables artificiales no son variables reales. Las usamos solo para obtener una base inicial, así que debemos deshacernos de ellas. Para deshacernos de ellas, resolvemos un problema extra de optimización antes de comenzar a resolver el problema normal.

Método de 2 Fases Fase : Resuelve la siguiente LP comenzando con I y x y b: Minimiza y Sujeta a: Ax Is + Iy b x, s, y Si y en el punto óptimo, detente el problema no es factible. Si y, entonces usa la base actual y continua con la fase 2.

Fase 2: Método de 2 Fases Continuación Usando la función objetivo del problema original, cambia el vector c y continua resolviendo usando la base actual. Minimiza (o Maximiza) cx Sujeta a: Ax Is b x, s

Variables Artificiales vs. flojas Las variables flojas son variables reales que pueden ser positivas en una solución óptima, lo que significa que su restricción es una desigualdad estricta (< o >) en el punto óptimo. Las variables artificiales no son variables reales. Éstas están solo insertadas para darnos una base inicial para comenzar el método simplex. Se deben volver cero para tener una solución factible del problema original.

Ejemplo de Variable Artificial (AV) Considera las restricciones: x + 2x 2 4 -x + 4x 2 5 2x + x 2 6 x, x 2 Introduce variables flojas: x + 2x 2 x 4 -x + 4x 2 x 4 5 2x + x 2 + x 5 6

Ejemplo. AV Como observamos, no podemos obtener una matriz de identidad en los coeficientes ni números positivos en el lado derecho. Necesitamos agregar variables artificiales: x + 2x 2 x + y 4 -x + 4x 2 x 4 + y 2 5 2x + x 2 + x 5 6

Ejemplo. AV Ahora tenemos una matriz de identidad, hecha de las columnas de coeficientes de y, y 2, y x 5. Resolveremos el problema con el objetivo de minimizar y + y 2 para librarnos de las variables artificiales, después usamos cualquier base que obtengamos y continuamos resolviendo, usando la función objetivo original.

Ejemplo 2 de Variable Artificial (AV) Considera las restricciones: x + 2x 2 5x -4 x x 2 + x 2 -x + x 2 + x - x, x 2, x Introduce variables flojas: x + 2x 2 5x x4-4 x x 2 + x + x5 2 -x + x 2 + x -

Ejemplo 2 de AV No tenemos que agregar variables artificiales para la primera restricción si multiplicamos por -. Cuando multiplicamos la última restricción por - y agregamos una variable artificial, tenemos: -x 2x 2 + 5x + x 4 4 x x 2 + x + x 5 2 x x 2 x + y x, x 2, x, x 4, x 5, y

Manipulación de Restricciones Entonces, después de agregar variables flojas, debemos hacer que los números del lado derecho sean positivos. Así que agregamos variables artificiales si las necesitamos.

Ejemplo de Variable Artificial (AV) Considera el problema: Maximizar -x + 8x 2 Sujeta a: x + x 2 -x + 6x 2 x 2 2 x, x 2

Ejemplo de AV Inserta variables flojas: x + x 2 x -x + 6x 2 + x 4 x 2 + x 5 2 Ahora necesitamos una variable artificial en la a restricción.

Ejemplo de AV Inserta una variable artificial: x + x 2 x + y -x + 6x 2 + x 4 x 2 + x 5 2

Ejemplo de AV Entonces, la Fase es: Minimizar y Sujeta a: x + x 2 x + y -x + 6x 2 + x 4 x 2 + x 5 2 Nuestra base inicial es: y, x 4, y x 5.

[ ] 5 4 6 a a a 2 2 b x [ ] 2 f x c & [ ] c 2 b Ejemplo de AV

Indicadores de Optimización: j: j2: j: [ ] a c c z c [ ] 6 2 2 2 2 a c c z c [ ] + a c c z c Ejemplo de AV

Es un vínculo entre x y x 2 elige x para entrar a la base 2 ) ( b ) ( 6 b ) ( 4 b a a j j x está entrando a la base 2 ) ( & 5 b Ejemplo de AV

Ejemplo de AV ( 6 b) b) ( 4 ( b) 5 2 ( 6 2 2 a ) a ) > ( 4 2 ( a ) 5 > > i * ( argmin ( b) i j a ) i ( a j ) i > argmin N / A N / A 6 Así que x reemplaza a y en la base

[ ] 5 4 a a a 2 4 2 b x [ ] 2 4 f x c Ejemplo de AV

Indicadores de Optimización: j2: j: j6: [ ] a c c z c [ ] 6 2 2 2 2 a c c z c [ ] a c c z c Ejemplo de AV

Ejemplo de AV Todos los indicadores de optimización son, así que esta es una solución óptima. Entonces, mantenemos esta base y cambiamos la función objetivo por la original: Maximizar x + 8x 2 Nuestra base todavía es x, x 4, y x 5.

Volviendo al problema original: 2 4 b x [ ] 2 4 f x c [ ] 8 c La base sigue siendo la misma Ejemplo de AV

Indicadores de Optimización: j2: j: [ ] 7 8 6 8 2 2 2 2 + a c c z c [ ] a c c z c Puesto que estamos maximizando, buscamos el más positivo. Entonces, x 2 entra en la base. Ejemplo de AV

2 4 ) ( b ) ( b 4 ) ( 4 b 7 6 2 2 a a j j x 2 está entrando a la base 2 ) ( & 5 b Ejemplo de AV

Ejemplo de AV ( 5 b) b) 4 ( 4 ( b) 5 2 2 2 a ) a ) 7 ( ( 4 2 ( a ) 5 i * ( argmin ( b) i j a ) i ( a j ) i > argmin 4 7 2 4 De este modo x 4 deja la base Mínimo

Indicadores de Optimización: j: j4: [ ].4.4.4.4.4.857 4 4 4 4 a c c z c [ ] 857..4.4.4.4.4.857 a c c z c Ejemplo de AV

[ ] 6 5 2 a a a.4.4.4.4.4.856 429..57.429 2.4.4.4.4.4.856 b x [ ] 4 4..429.57.429 8 f x c Ejemplo de AV

Ejemplo de Variable Artificial Todos los indicadores de optimización son, por lo tanto esta es la solución óptima:.429.57.429 * x f * 4. 4

Condiciones KKT Las condiciones Karush-Kuhn-Tucker (KKT) pueden ser usadas para ver la optimización gráficamente Las usaremos más posteriormente en programación no linear, pero podemos usar una versión simplificada aquí

Condiciones KKT para LP Cambia las restricciones para que todas ellas sean restricciones. El punto óptimo es el punto donde el gradiente de la función objetivo se encuentra dentro del cono formado por los vectores normal a las restricciones que se intersectan.

Condiciones KKT Recordatorio: El gradiente ( ) de una función f con n variables es calculada como sigue: f f f,,... x x2 f x n 2 Ejemplo: f ( x) + 5x2x f [ 6x, 5x, x ] 5 2

Ejemplo de Restricciones KKT Ejemplo: En el problema #2 de ejemplo, tenemos el problema: Minimizar f -x x 2 Sujeta a: 2x + x 2 6 -x + x 2 x, x 2 El gradiente de la función de costo, -x x 2 f c, es: ( )

Ejemplo KKT Previamente, vimos que este problema luce como sigue: Puntos Extremos x 2 ( / 5, 8 / 5 ) Restricción 2 (, ) Restricción (, ) (, ) x

Ejemplo KKT Cambia todas las restricciones para que sean : g : -2x x 2 - g 2 : x x 2 - g : x g 4 : x 2

Ejemplo KKT Los gradientes de las cuatro restricciones (contando las restricciones no negativas), g,, g 4 son: g ( 2, ) g ( ), g (, ) g (, ) 2 4

Ejemplo KKT La gráfica del problema con las normales de las restricciones se convierte en: x 2 Restricción 2 (, ) ( / 5, 8 / 5 ) g g 2 g g 2 El gradiente correspondiente a cada restricción ( g i ) es perpendicular a la restricción i. Restricción g 4 (, ) g g 4 (, ) x g

Ejemplo KKT c (-, -) se ve así: Entonces, cualquier cono en el que este vector encaje corresponde al punto extremo óptimo.

Ejemplo KKT x 2 ( / 5, 8 / 5 ) Encaja! No encaja (, ) g g g 2 g 2 No encaja g 4 (, ) g No encaja g g 4 (, ) x

Ejemplo KKT De esta manera, obtenemos el mismo punto óptimo que cuando usamos el método simplex Éste método también puede usarse para problemas con tres variables en un espacio -D Con cuatro variables o más, la visualización no es posible y es necesario usar la definición matemática

Definición Matemática de las Condiciones KKT para LP Dado un problema de minimización de LP: Modificar las restricciones de manera que tengamos: gi ( x), i Km Donde g i (x) es la ecuación lineal de restricción i. La b i que estaba en el lado derecho del signo de desigualdad es movida al lado izquierdo e incluida en g i.

Definición Matemática de las Condiciones KKT para LP Si existe una solución para x * y las λ i s para las condiciones de abajo, entonces x * es el óptimo global f c λ ( * i g i x ) g ( * i x ) * λ g( x ) + K+ λ g ( x,, i Km i Km m m * ) Ecuación Ecuación 2 Ecuación λ i, i Km Ecuación 4

Explicación de la Ecuación La Ecuación establece matemáticamente que el vector de la función objetivo debe hallarse dentro del cono formado por los vectores normales a las restricciones activas en el punto óptimo

Explicación de la Ecuación 2 La Ecuación 2 fuerza a λ i a ser cero para todas las restricciones inactivas llamada la condición de soltura complementaria Si la restricción es activa, g i (x * ), entonces λ i puede ser positiva y g i será parte del cono en la Ecuación. Si la restricción es inactiva, g i (x * ), entonces λ i debe ser cero. g i no será incluida en el cono en la Ecuación porque será multiplicada por cero.

Explicación de las Ecuaciones y 4 LaEcuación asegura que x * es factible LaEcuación 4 asegura que la dirección del cono es correcta. Si las λ i s fueran negativas, el cono estaría en la dirección opuesta. Entonces, esta ecuación previene que eso suceda.

Resumen de Condiciones KKT Las condiciones KKT no son útiles al resolver para puntos óptimos, pero pueden ser usadas para revisar optimización y pueden ayudarnos a visualizar la optimización Las usaremos frecuentemente al tratar problemas de optimización no lineal in la siguiente sección

Solvers de LP Automatizados Existen muchos programas de software disponibles que resolverán numéricamente los problemas de LP Microsoft Excel es un programa que resuelve problemas LP Para ver los ejemplos de Excel para problemas de optimización, busca y abre el archivo "solvsamp.xls" (debe estar incluido en la instalación estándar de Microsoft Office)

Ejemplo # de LP en Excel Resolvamos el primer ejemplo en este capítulo con Excel El problema era: Minimizar f -x x 2 Sujeta a: x + x 2 5 2x x 2 4 x ; x, x 2

Ejemplo # de LP en Excel Aquí está la hoja de cálculo de Excel con los datos necesarios: x x2 Función Objetivo: valor -A2-2 límite Restricción : A2+2 5 Restricción 2: 2*A2-2 4 Restricción : A2 En la hoja de cálculo, A2 es la celda de referencia para x y 2 es la referencia para x 2

Ejemplo # de LP en Excel x x2 Función Objetivo: valor -A2-2 límite Restricción : A2+2 5 Restricción 2: 2*A2-2 4 Restricción : A2 Puedes ver que bajo el encabezado "valor" para las restricciones y función objetivo, simplemente usamos las funciones dadas para calcular el valor de la función

Ejemplo # de LP en Excel x x2 Función Objetivo: valor -A2-2 límite Restricción : A2+2 5 Restricción 2: 2*A2-2 4 Restricción : A2 En el lado derecho de las restricciones, en la columna de "límite", escribimos el valor de b i para esa restricción Obviamente, la función objetivo no tiene un límite

Ejemplo # de LP en Excel Entonces, la hoja de cálculo se ve así:

Ejemplo # de LP en Excel Ahora, necesitamos usar la función solver de Excel usca "solver" en el menú Herramientas Si no está ahí, ve a complementos (Add-Ins) en el menú herramientas (Tools) y selecciona Solver.

Ejemplo # de LP en Excel La ventana del Solver debe parecerse a esta:

Ejemplo # de LP en Excel Este es un problema de minimización,l entonces selecciona Mínimo (Min) y establece la "celda objetivo" (Set target cell) como el valor de la función objetivo Las variables son x y x 2, entonces en el cuadro "Cambiando las celdas" (y Changing Cells), selecciona A2 y 2

Ejemplo # de LP en Excel Ahora agrega las restricciones: Para la "Celda de Referencia" (Cell Reference), usa el valor de la función de restricción y para la "Restricción" (Constraint), usa el número en la columna de Límite Las restricciones son todas, así que debes asegurarte de que < aparece entre la Celda de Referencia y los cuadros de Restricción

Ejemplo # de LP en Excel Ahora, la ventana de Solver debe lucir así:

Ejemplo # de LP en Excel Finalmente, presiona el botón Opciones (Options) Todas las variables están especificadas como positivas, así que selecciona el recuadro "Asumir no negativos" (Assume Non-Negative)

Ejemplo # de LP en Excel Puesto que este es un problema de LP, selecciona el recuadro "Adoptar Modelo Lineal" (Assume Linear Model) Finalmente, la tolerancia por default de 5% es por lo general demasiado grande. A menos que el problema sea muy difícil, una tolerancia de % o incluso.% está usualmente bien.

Ejemplo # de LP en Excel Da click en "Resolver" (Solve) y la ventana de Resultados de Solver debe aparecer ajo "Informes" (Reports), selecciona Respuestas (Answer Report) y presiona Aceptar (OK) Una nueva hoja de cálculo que contiene el Informe de Respuestas (Answer Report) se ha agregado al archivo

Ejemplo # de LP en Excel La hoja de cálculo con los valores óptimos debe verse así:

Ejemplo # de LP en Excel Los valores para x y x 2 son los mismos que cuando resolvimos el problema usando el método simplex También, si observas el Informe de Respuestas (Answer Report) puedes ver que todas las variables flojas son iguales a cero, que es lo que también obtuvimos con el método simplex

Ejemplo #2 de LP en Excel Vamos a resolver otro problema de LP con Excel: Maximizar 5x 2x 2 + x Sujeta a: 2x + 4x 2 + x 6 2x + x 2 + x 2 x, x 2 x no restringida en signo

Ejemplo #2 en Excel La hoja de cálculo con las ecuaciones debe quedar como sigue: x x2 x Función Objetivo: Valor 5*A2-2*2+C2 Límite Restricción : 2*A2+4*2+C2 6 Restricción 2: 2*A2+2+*C2 2

Ejemplo #2 en Excel A diferencia del último ejemplo, no se especificó que todas las variables sean positivas, ase que no podemos usar la opción "Asumir no negativos" (Assume Non-Negative) para todas las variables. Entonces tenemos que especificar manualmente que x y x 2 son no negativas agregando dos restricciones mas

Ejemplo #2 en Excel Ahora, las fórmulas en la hoja de cálculo deben verse así: x x2 x Función Objetivo: Valor 5*A2-2*2+C2 Límite Restricción : 2*A2+4*2+C2 6 Restricción 2: 2*A2+2+*C2 2 Restricción : A2 Restricción 4: 2

Ejemplo #2 en Excel Ahora, abre la ventana de parámetros del solver y especifica: La Celda Objetivo (Target Cell), El rango de celdas variables, Problema de Maximización Las restricciones La primera restricción es y el resto son.

Ejemplo #2 en Excel Presiona el botón de Opciones y selecciona el recuadro de "Adoptar Modelo Lineal". Recuerda, puesto que x no está restringida en signo, no selecciones el recuadro de "Asumir no negativos" Puedes reducir la tolerancia si así lo deseas

Ejemplo #2 en Excel La ventana del Solver debe verse como sigue:

Ejemplo #2 en Excel Después de resolver, la hoja de cálculo debe lucir así:

Ejemplo #2 en Excel Nota que, debido a que x no estaba restringida en signo, fue posible obtener un valor negativo y esto mejoró la solución Para ver cuanta diferencia hace esto en la solución, resuelve el problema ahora seleccionando la opción "Asumir no negativos"

Resolviendo Problemas de LP con Excel De estos ejemplos, puedes ver que Excel puede ser una herramienta eficiente para usar al resolver problemas de optimización de LP El método para resolver problemas que fue descrito aquí es obviamente solo una manera y el usuario debe sentirse libre para experimentar y encontrar su propio estilo

Referencias Linear Programming and Network Flows; azaraa, Mokhtar; John Jarvis; & Hanif Sherali. Optimization of Chemical Processes 2 nd Ed.; Edgar, Thomas; David Himmelblau; & Leon Lasdon. Pollution Prevention Through Process Integration; El-Halwagi, Mahmoud