En el siguiente capítulo se hará un repaso de algunas propiedades básicas de conjuntos convexos, para después explicar el método simplex.

Documentos relacionados
PASO 1: Poner el problema en forma estandar.

CONVEXIDAD: CONCEPTOS BÁSICOS

Pasos en el Método Simplex

DUALIDAD EN PROGRAMACION LINEAL

4. Método Simplex de Programación Lineal

La programación lineal hace referencia al uso eficiente o distribución de recursos limitados, para alcanzar unos objetivos determinados.

Definición de problemas de programación lineal. Método gráfico. Método del SIMPLEX. Método de las dos fases. Análisis de sensibilidad y problema dual

UNIVERSIDAD NACIONAL DE INGENIERÍA UNI RUACS ESTELI

Método Simplex: Encontrado una SBF

Si el objetivo es maximizar, entonces se tiene la forma estándar de maximización y, si el objetivo es minimizar, la forma estándar de minimización.

METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD

SISTEMAS DE ECUACIONES LINEALES

Programación Lineal. Unidad 1 Parte 2

CLAVE: MIS 206 PROFESOR: MTRO. ALEJANDRO SALAZAR GUERRERO

El Método Simplex. H. R. Alvarez A., Ph. D. 1

2.2 PROGRAMACION LINEAL: METODOS DE SOLUCION

Algebra lineal y conjuntos convexos

Dirección de Operaciones. SESIÓN # 5: El método simplex. Segunda parte.

Resolución. Resolución gráfica de problemas de optimización

Un sistema de inecuaciones lineales con una incógnita es el conjunto formado por dos o más inecuaciones lineales de la forma:

UNIDAD UNO PROGRAMACIÓN LÍNEAL Parte 3

Desarrollo de las condiciones de optimalidad y factibilidad. El problema lineal general se puede plantear como sigue:

PROGRAMACIÓN LINEAL. 1. Introducción

Valores y Vectores Propios

MICROECONOMÍA II. PRÁCTICA TEMA 5: El Modelo de Equilibrio General con Intercambio Puro

1. SISTEMAS DE ECUACIONES DIFERENCIALES

INDICE Parte I Inducción a la programación lineal Capitulo 1 Origen y definición de la programación lineal Capitulo 2 Modelación y formulación

MENORES, COFACTORES Y DETERMINANTES

IES Francisco Ayala Modelo 1 (Septiembre) de 2007 Solución Germán Jesús Rubio Luna. Opción A

Forma estándar de un programa lineal

Herramientas digitales de auto-aprendizaje para Matemáticas

EJEMPLO DE SIMPLEX PARA PROBLEMA DE PROGRAMACIÓN LINEAL CASO DE MAXIMIZAR Prof.: MSc. Julio Rito Vargas Avilés

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

ESPACIO NULO DE A: RESOLUCIÓN DE AX = 0 3.2

EL MÉTODO SIMPLEX ALGEBRAICO: MINIMIZACION. M. En C. Eduardo Bustos Farías

315 M/R Versión 1 Integral 1/ /1 UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA INGENIERÍA

Sistemas de Ecuaciones Lineales

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado

EL MÉTODO SIMPLEX ALGEBRAICO. M. En C. Eduardo Bustos Farías

Tema II: Programación Lineal

Conjuntos y funciones convexas

MÉTODO SIMPLEX MÉTODO DE SOLUCIÓN GRÁFICO

Algebra lineal y conjuntos convexos 1

MÉTODO SIMPLEX. PROFESORA: LILIANA DELGADO HIDALGO Estandarización Tradicional

Combinación Lineal. Departamento de Matemáticas, CCIR/ITESM. 10 de enero de 2011

METODO SIMPLEX NOTAS DE CLASE: INVESTIGACIÓN DE OPERACIONES I UNIVERSIDAD CENTRAL PROFESOR CARLOS DÍAZ. Max Z= 12X X 2

Polinomios. 1.- Funciones cuadráticas

(2.c) RESOLUCIÓN DE MODELOS LINEALES. ALGORITMO DEL SIMPLEX

Tema 5: Sistemas de Ecuaciones Lineales

Ejemplo 1. Ejemplo introductorio

Superficies. Conceptos generales

CAPÍTULO 3: DETERMINANTES Y SISTEMAS DE ECUACIONES

La Geometría de la Programación Lineal

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal

Matrices escalonadas y escalonadas reducidas

Tema 2. Sistemas de ecuaciones lineales

P. A. U. LAS PALMAS 2005

PROGRAMACION ENTERA. M. en C. Héctor Martínez Rubin Celis 1

Guía de Problemas para el Control 2

2.- Sistemas de ecuaciones Lineales

Práctica 2 Métodos de búsqueda para funciones de una variable

BLOQUE DE ÁLGEBRA: TEMA 1: MATRICES.

Grado en Química Bloque 1 Funciones de una variable

Ejemplo : PROGRAMACIÓN LINEAL

UNIDAD 4.- INECUACIONES Y SISTEMAS (tema 4 del libro)

TEMA III MÉTODO SIMPLEX. CONCEPTOS BÁSICOS

Inecuaciones y sistemas de inecuaciones

Objetivos: Al inalizar la unidad, el alumno:

Mat r i z in v e r s a

Tema 1. Álgebra lineal. Matrices

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA /ALGEBRA DE ESTRUCTURAS SEMESTRE:

MÉTODO SIMPLEX MÉTODO DE SOLUCIÓN GRÁFICO. M. En C. Eduardo Bustos Farías

Sistemas de ecuaciones lineales

3. Métodos clásicos de optimización lineal

PROBLEMAS PROGRAMACIÓN LINEAL CONTINUA

JUNIO Opción A Dada la parábola y = 3 área máxima que tiene un lado en la recta y los otros dos vértices en la gráfica de la parábola.

EL MÉTODO SIMPLEX. los redondos. Por último, a los manteles rectangulares se les deben colocar cuatro esquineros de refuerzo.

1. Determinar las ecuaciones paramétricas y la ecuación continua de las rectas que pasan por el punto A y con el vector de dirección dado:

Formulación del problema de la ruta más corta en programación lineal

Tema 18. Programación lineal Formulación primal de un programa lineal

PROGRAMACIÓN LINEAL ENTERA

Capítulo 10. Ecuaciones y desigualdades

Límites de una función

Matriz sobre K = R o C de dimensión m n

Sistemas de Ecuaciones y Matrices

Ejercicio 1: Realiza las siguientes divisiones por el método tradicional y por Ruffini: a)

Cómo resolver el Método Simplex, con penalizaciones, o gran M

Proyecciones. Producto escalar de vectores. Aplicaciones

Nelson Devia C Basado en Bertsimas, D., Tsitsiklis, J. (1997) Introduction to Linear Optimization Capítulo 3

Matrices y Determinantes.

Matrices, determinantes, sistemas de ecuaciones lineales.

Problemas de Programación Lineal: Método Simplex

RESUMEN DE TEORIA. Primera Parte: Series y Sucesiones

2. SISTEMAS DE ECUACIONES LINEALES. Introducción

6.2 OBSERVACIONES IMPORTANTES AL UTILIZAR MÉTODO SIMPLEX

VECTORES EN EL ESPACIO

Inecuaciones en dos variables

Módulo Programación lineal. 3 Medio Diferenciado

Luego, en el punto crítico

ECUACIÓN GENERAL DE SEGUNDO GRADO

Transcripción:

Capitulo 2 Método Simplex Para explicar el método de generación de columnas se explicaran a continuación conceptos básicos de la programación lineal y el método simplex. En especial, el concepto de costo reducido. En el siguiente capítulo se hará un repaso de algunas propiedades básicas de conjuntos convexos, para después explicar el método simplex. 2.1 Conjuntos convexos Un conjunto X en R n se dice que es convexo si para cualquier par de puntos, X, resultantes de la recta x λ + 1 λ X () para cualquier λ, 1 (Bazaraa & Jarvis, 1981). Nos podemos dar cuenta que para cada λ en el intervalo [,1], x representa un punto del segmento de recta que une a y. A cada punto, de esta forma se le llama combinación convexa o promedio ponderado (Bazaraa & Jarvis, 1981). En la Ilustración 1 se muestra un ejemplo de un conjunto convexo y uno no convexo. Ilustración 1.- Conjunto convexo y conjunto no convexo (Elaboración Propia) Un tipo de conjuntos convexos son los hiperplanos los cuales están definidos de la siguiente manera. Dado un vector no nulo p R n, y, un escalar, el conjunto H es un hiperplano en R n si, H x R n p t x, cuyos semiespacios están definidos por, H + x R n p t x, y, H x R n p t x (Castillo, Conejo, Pedregal, García, & Alguacil, 22). 2.1.1 Puntos extremos El concepto de puntos extremos juega un papel muy importante dentro de la programación lineal, debido a que cada punto extremo es un posible resultado del problema que se está solucionando. Un punto x en un conjunto X es extremo, si y solo si no se puede representar como una combinación convexa de cualesquiera dos puntos

en el conjunto X. Por lo tanto si x λ + 1 λ con λ (,1) y, X, entonces x y x es un punto extremo (Bazaraa & Jarvis, 1981). En la Ilustración 2, se pueden observar algunos ejemplos de puntos extremos y no extremos, podemos ver que mientras es un punto extremo, y no lo son. Ilustración 2.- Ejemplos de puntos extremos y no extremos (Elaboración Propia). 2.1.2 Rayos y direcciones Otro ejemplo de conjunto convexo es un rayo. Un rayo es una colección de puntos de la forma x + λd: λ }, en donde d es un vector distinto de cero. En este caso, x es el vértice del rayo, y d es la dirección del rayo (Bazaraa & Jarvis, 1981). 2.1.2.1 Direcciones de un conjunto convexo Si se tiene un conjunto convexo y un vector d distinto de cero, se dice que d es una dirección del conjunto si para cada x dentro del conjunto, el rayo o semirrecta x + λd: λ } también pertenece al conjunto. Basados en esta definición podemos concluir que si un conjunto es acotado, entonces no contiene direcciones (Bazaraa & Jarvis, 1981; Arreola Risa, 23). 2.1.2.2 Direcciones extremas Análogamente al concepto de punto extremo de un conjunto convexo, el concepto de dirección extrema de un conjunto convexo, se refiere a una dirección del conjunto convexo que no se puede representar como una combinación lineal positiva de dos direcciones diferentes del conjunto. Por lo tanto d es una dirección extrema del conjunto convexo X, si para dos direcciones d 1 y d 2 de X, es decir, si d λ 1 d 1 + λ 2 d 2, λ 1 y λ 2, implica que d 1 es proporcional a d 2 2.1.3 Conos convexos Un tipo especial de conjuntos convexos son los conos convexos. Estos tienen la propiedad adicional de que para cualquier cono convexo C, λx Є C para cada x Є C y λ. Para λ, un cono convexo siempre contiene al origen. Si a su vez tomamos cualquier punto x Є C entonces el rayo r, también pertenece a C. Por lo tanto un cono

convexo es un conjunto convexo cuyos elementos son los rayos que salen del origen (Bazaraa & Jarvis, 1981; Arreola Risa, 23). 2.1. Conjuntos y conos poliédricos. Un conjunto poliédrico es la intersección de un número finito de semiespacios. Se puede representar un semiespacio mediante una desigualdad del tipo a i x b i, por lo tanto un conjunto poliédrico se puede representar por medio de {x R n : Ax b}, donde A es una matriz de dimensión m n, cuyo i ésimo renglón es a i y b es un vector de dimensión m (Bazaraa & Jarvis, 1981). Como ejemplo supóngase que se tienen las siguientes ecuaciones: + +, Ilustración 3.- Conjunto poliédrico (Elaboración Propia). La intersección de estos 5 semiespacios está representada por el espacio sombreado de la Ilustración 3. Podemos también observar que este conjunto es convexo debido a que si tomamos cualesquiera dos puntos dentro del conjunto y, entonces λ + 1 λ también pertenece al conjunto. Una clase especial de conjuntos poliédricos son los conos poliédricos, los cuales son un número finito de semiespacios cuyos hiperplanos pasan por el origen. Es decir C es un cono poliédrico si se puede representar como {x: Ax } donde A es una matriz de dimensión m n, donde el i ésimo renglón de la matriz A, es el vector normal al hiperplano que define al i ésimo semiespacio (Bazaraa & Jarvis, 1981).

2.1.5 Conjuntos poliédricos acotados. Consideremos el conjunto poliédrico de la Ilustración 3, podemos observar que este contiene 5 puntos extremos,,, x, (ver Ilustración ) de la misma manera podemos ver que cualquier punto dentro del conjunto se puede representar como una combinación convexa de estos cinco puntos. Como ejemplo consideremos el punto x que se observa en la Ilustración podemos ver que x se puede representar como la combinación convexa del punto y y el punto de la siguiente manera: x λy + 1 λ x en donde λ,1 (5) A su vez y se puede representar como la combinación convexa entre los puntos x y por lo tanto: y, y μx + 1 μ en donde μ,1 () Sustituyendo de la ecuación (5) y () vemos que: x λμ + λ 1 μ + 1 λ x en donde λ, μ,1 7, λμ + λ 1 μ + 1 λ 1 A través de la ecuación (7), observamos que x se puede representar como la combinación convexa entre los puntos, x,. De la misma manera, cualquier punto en un conjunto poliédrico acotado se puede representar como una combinación convexa de sus puntos extremos (Bazaraa & Jarvis, 1981). Ilustración.- Representación del conjunto poliédrico a través de los puntos extremos (Elaboración Propia).

2.1. Conjuntos poliédricos no acotados Si consideramos el conjunto poliédrico definido por las desigualdades que se muestran a continuación: + 2 2 + 1 1 2 + 1 + 3 Podemos observar en la Ilustración 5 que obtenemos un conjunto poliédrico no acotado con tres puntos extremos,, y dos direcciones extremas d 1, d 2. De la misma manera que para el caso acotado, cualquier punto dentro del conjunto convexo se puede representar como una combinación convexa de los puntos extremos más una combinación lineal no negativa de las direcciones extremas. Como se observa en la Ilustración 5 el punto x se puede representar como la suma de y más un múltiplo positivo de la dirección extrema d 2 (nótese que el vector x y apunta en la dirección d 2 ), en donde y es la combinación convexa entre los puntos y y por lo tanto: x y + μd 2 y λ + 1 λ 1981) x λ + 1 λ + μd 2 en donde λ,1 y μ > (Bazaraa & Jarvis, Ilustración 5.- Conjunto Poliédrico no acotado (Elaboración Propia). Esto también es cierto para el caso acotado, pero como no existen direcciones extremas, solo queda la suma de las combinaciones convexas.

2.1..1 Teorema de representación Sea X x: Ax b, x un conjunto poliédrico no vacío, entonces el conjunto de puntos extremos {,, x } es no vacío y finito y el conjunto de direcciones extremas es vacío solo si X es un conjunto poliédrico no acotado. De otra manera el conjunto de direcciones extremas {d 1,, d l }, al igual que el conjunto de puntos extremos, es no vacio y contiene un número finito de vectores. De la misma manera, x X si y solo si, éste se puede representar como una combinación convexa de los puntos extremos más una combinación lineal no negativa de las direcciones extremas, por lo tanto cualquier x dentro del conjunto poliédrico se puede representar de la siguiente manera: x λ j j 1 λ j j 1 x j + 1 l j 1 λ j μ j μ j d j j 1,, j 1,, l 2.2 El Método Simplex A continuación se explicará el método simplex para resolver un problema de programación lineal. Primero se demostrará que si existe una solución óptima entonces también existe un punto extremo óptimo, después se analizaran los puntos extremos y su relación con las soluciones básicas factibles, y se acabara con describir el método simplex para mejorar soluciones básicas factibles hasta alcanzar la solución óptima (Bazaraa & Jarvis, 1981). 2.2.1 Puntos extremos y optimalidad Considérese el siguiente sistema de programación lineal, en la forma estándar: Minimizar z cx Sujeto a: Ax b (8) x Donde A es una matriz de dimensión m n con rango m. Sea x los puntos extremos del conjunto poliédrico y d las direcciones las direcciones extremas {d 1, d 2,, d l } las direcciones extremas del conjunto poliédrico, como vimos en la sección 2.1., cualquier punto x {x R n : Ax b, x } se puede representar como:

x λ j x j + j 1 j 1 λ j j 1 1 l λ j μ j μ j d j j 1,, j 1,, l Teniendo esto en cuenta podemos reformular el problema de programación lineal con variables de decisión λ j, j 1,, y μ j, j 1,, l de la siguiente manera. l Minimizar z cx j λ j + cd j μ j j 1 Sujeto a λ j j 1 j 1 1 λ j j J μ j j J Si dividimos la función objetivo de acuerdo a las sumatorias que la definen, el l mínimo para j 1 cd j μ j sería igual a - si cd j < para alguna j 1,, l debido a que μ j se puede hacer arbitrariamente grande y el valor de z disminuye al aumentar μ j. Por otro lado si cd j para toda j 1,, l entonces la correspondiente μ j será igual a, y por lo tanto para que un problema de programación lineal tenga una solución óptima finita, cd j debe de ser mayor o igual a cero para todas las direcciones extremas. Por otro lado si lo que deseamos es minimizar j 1 cx j λ j sobre las variables λ 1,, λ de tal manera que λ j para j 1,, y que λ j 1 j 1, entonces hacer λ r 1, donde r min j 1,, {cx j } y todas las demás variables λ j para toda j r. Si para un problema de programación lineal cd j para todas las direcciones extremas, entonces podemos determinar el punto mínimo, seleccionando el mínimo de los valores objetivos entre los puntos extremos, por lo tanto si existe una solución óptima debe de poder encontrarse un punto extremo óptimo. Si el mínimo valor objetivo se encuentra en más de un punto extremo entonces cada combinación convexa entre estos puntos es un punto mínimo (Bazaraa & Jarvis, 1981). 2.2.2 Soluciones básicas factibles Consideremos un conjunto poliédrico Ax b, x, donde A es una matriz de dimensión m n y b es un vector. Después de un arreglo de las columnas de A podríamos escribirla como A [B, N], donde B es la matriz invertible de dimensión

m m de A y N es una matriz de dimensión m (n m). Entonces al punto x x B x n, tal que, x B B 1 b y x N, se le llama solución básica. Si x B, entonces x es una solución básica factible del sistema. Si x B > entonces a x se le llama solución básica factible no degenerada. De lo contrario, si por lo menos una de las componentes de x B es igual a cero, entonces a x se le llama solución básica factible degenerada. Aquí a B se le conoce como matriz básica, y N es la matriz no básica (Bazaraa & Jarvis, 1981). Para ilustrar este concepto consideremos el ejemplo de la sección de 2.1.. Donde el conjunto poliédrico está definido por las siguientes variables: + +, Agregando las variables de holgura, x, podemos escribir el problema de la siguiente forma: + + + x + + + x + + + + x +,,, x, Por lo tanto podemos escribir la matriz de restricciones de la siguiente manera: A 1 1 1 1 1 1 1 1 Sean a 1,, a n las columnas de la matriz, entonces A [a 1, a 2, a 3, a, a 5 ]. Debido a que nuestra matriz básica B, debe de ser de dimensión m m (3 3), debemos de extraer B de A de todas las formas posibles, por lo tanto tenemos: 5 3 5! 3! 2! 1 combinaciones en las que B se puede extraer de A. A continuación se muestran las formas posibles en que esto puede suceder (Bazaraa & Jarvis, 1981). 1. B a 1, a 2, a 3 1 1 1 1 1 1 x B B 1 b 1 1 1 1 2 7 5 x N x

x B 2. B a 1, a 2, a 1 1 1 1 2 3. B a 1, a 2, a 5 B 1 b. B a 1, a 3, a 1 1 1 1 1 1 2 5 1 1 1 1 1 1.5.5.5.5.5.5 1 1 1 1 1 x B x B 1 b x N.5 1.5 2.5 x N x Nótese que las columnas son linealmente dependientes por lo tanto no se puede invertir la matriz. 5. B a 1, a 3, a 5 1 1 1 x B x B x B x B B 1 b. B a 1, a, a 5 x B 1 b 7. B a 2, a 3, a x B 1 b 8. B a 2, a 3, a 5 B 1 b 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 3 3 2 7 9 7 x N x x N x N x N x

9. B a 2, a, a 5 1 1 1 1 1 x B x B x B 1 b 1. B a 3, a, a 5 x B 1 b 1 1 1 1 1 1 1 1 1 3 9 2 x N x N Obsérvese que las soluciones básicas factibles para este ejemplo son las de los casos: 2, 3, 5, 7 y 1, dado que se cumplen las restricciones de no negatividad. Los casos: 1,, 8 y 9 no cumplen con estas restricciones por lo que son soluciones básicas pero no factibles. Estos puntos pertenecen a R 5. En el espacio de las variables originales los casos con soluciones básicas factibles, obtenemos los siguientes puntos: 2,.5 1.5, 3, x 7, En la Ilustración 3, podemos observar como estos puntos son exactamente los puntos extremos de la región factible (Bazaraa & Jarvis, 1981). De igual manera para todos los problemas de optimización con solución finita, tenemos que x es una solución básica factible si y solo si, este punto también es un punto extremo, y viceversa, si un punto x es un punto extremo entonces también es una solución básica factible (Winston, 25). Análogamente si se tiene un conjunto poliédrico no vacío, éste tiene al menos una solución básica factible (Bazaraa & Jarvis, 1981). 2.2.3 Mejoramiento de una solución básica factible. Para problemas complejos es muy impráctico obtener todas las soluciones básicas factibles y después comparar cada una de ellas con nuestra función objetivo. El método simplex nos sirve para que obtengamos una mejor solución a partir de una solución básica factible. Consideremos el sistema de programación lineal (8). Donde A es una matriz de dimensión m n con rango m, y supóngase que se tiene una solución básica factible inicial B 1 b cuyo valor objetivo (z ) está dado por z c B 1 b c B c N B 1 b c B B 1 b (9) Si x x B x N es una solución básica factible, entonces x B, x N y b Ax Bx B + Nx N. Si se multiplica por B 1 y se reordenan los términos se obtiene

x B B 1 b B 1 Nx N B 1 b B 1 a j x j j R (1) Donde R es el conjunto de índices de las variables no básicas. De las ecuaciones (9), (1) y de la función objetivo podemos observar que: z cx c B x B + c N x N c B B 1 b B 1 a j x j j R + c j x j j R z z j c j j R x j (11) En donde z j c B B 1 a j para cada variable no básica. La ecuación (11) nos sirve como guía para mejorar la solución básica factible actual. Debido a que como se desea minimizar z nos conviene aumentar el valor de x j siempre que (z j c j ) >. Teniendo esto en cuenta se puede aplicar la siguiente regla. Se fijan todos los valores de las variables no básicas x j en cero, excepto por una variable no básica (x ) cuyo valor z c, es el más positivo de los z j c j (Bazaraa & Jarvis, 1981). Por lo tanto el nuevo valor objetivo estaría dado por: z z z c x (12) Debido a que z c > y se desea minimizar z es conveniente aumentar el valor de x tanto como sea posible. Conforme x crece deben modificarse las variables básicas de acuerdo a la ecuación (1), y quedaría de la siguiente manera, x B B 1 b B 1 a x. Si analizamos esta ecuación es claro que si B 1 a < entonces ninguna x B puede salir de la base, pues si x aumenta, también aumentaría x B, por lo tanto para que una variable básica salga de la base se debe de cumplir la siguiente condición (Bazaraa & Jarvis, 1981): Sea b i B 1 b y y i B 1 a i i 1,, m donde r es el índice de la primera variable básica que sale de la base entonces, b r y r Minimo 1 i m b i y i : y i > x Para ilustrar esto consideremos el ejemplo visto anteriormente en la sección 2.2.2 donde tenemos el siguiente problema de programación lineal:

Minimizar z + Sujeto a: + +, Introduciendo las variables de holgura y escribiendo el problema de la forma estándar, tenemos nuestra matriz A de restricciones: A a 1, a 2, a 3, a, a 5 1 1 1 1 1 1 1 1 Si tomamos como variables básicas a, y x, entonces las variables no básicas serían y y B [a 1, a 2, a ]. Por lo tanto: x B x B 1 b 1 1 1 1 2 2 5 x N Podemos ver que nuestra valor objetivo es z. Para mejorar esta solución básica factible debemos de encontrar el valor más positivo de (z j c j ) > para las variables no básicas utilizando la ecuación [12], tenemos que: z 3 c 3 c B B 1 a 3 c 3 1 1 1 1 1 1 2 1 1 1 1 z 5 c 5 c B B 1 a 5 c 5 1 1 1 1 1 1 2 1 1 1 Debido a que lo que se desea es minimizar y z 3 c 3 > el objetivo mejora cuando crece. A continuación se debe de modificar x B a partir de la ecuación (1), de la siguiente manera:

x B B 1 b B 1 a 3 x 1 1 1 1 2 1 1 1 1 2 1 x 2 5 1 1 Como podemos ver el valor máximo de es igual a 2, dado que no podemos violar la no negatividad de ninguna de las variables, y si toma un valor mayor sería menor a cero. A esta primera variable básica que sale de la base (en este ejemplo ) se le llama variable de bloqueo pues impide a x (es decir ) un incremento adicional (Bazaraa & Jarvis, 1981). Por lo que la nueva solución básica factible es:,,, x,,,2,7, Por lo tanto entra a la base y sale de la base. Para esta solución básica factible nuestro valor objetivo es z por lo que tuvimos una mejora de 2. Si analizamos este resultado también podemos observar como corresponde con la solución básica cuyas variables son, y x, y en la Ilustración se muestra este movimiento. Ilustración.- Mejoramiento de la solución (Elaboración Propia). Este proceso se vuelve a repetir con nuestra nueva variable básica, mientras que los dos criterios que se muestran a continuación se sigan cumpliendo: 1. Criterio de entrada: x puede entrar si z c > 2. Criterio de salida: x Br puede salir si b r mínimo y r 1 i m b i y i : y i > x

Por lo que si z c, quiere decir que no hay ninguna variable no básica, x, que sea elegible para entrar a la base debido a que no mejoraría el valor objetivo y esto quiere decir que ya se ha alcanzado la solución óptima. Por otro lado si z c > pero no se puede encontrar ninguna componente y i positiva, entonces la solución óptima es no acotada (Bazaraa & Jarvis, 1981). En resumen, dada una solución básica factible, esta se puede mejorar si z c >, para alguna variable no básica x, si no, el proceso se detiene con un punto óptimo, si z j c j para todas las variables no básicas. Si z c >, y el vector B 1 a contiene al menos una componente positiva, entonces el incremento en x se verá bloqueado por una de las variables básicas, la cual se hace cero y sale de la base. En caso contrario si z c > y el vector B 1 a no contiene ninguna componente positiva, entonces x se puede incrementar indefinidamente y la solución óptima es no acotada con valor de - (Bazaraa & Jarvis, 1981). Para un problema de maximización se pueden hacer dos cosas; la primera, multiplicar los coeficientes de la función objetivo por -1, de esta manera se convierte en un problema de minimización y se resuelve como se ha expuesto. De otra manera se siguen los mismos pasos pero se busca el mínimo z j c j y el criterio para detener el proceso es que z c (Bazaraa & Jarvis, 1981). 2.2. Procedimiento del Método Simplex A continuación se dará un resumen del método simplex paso por paso. Consideremos el siguiente problema de programación lineal en la forma estándar: Minimizar z cx Sujeto a: Ax b x Donde A es una matriz de dimensión m n con rango m. Para empezar Selecciónese una solución básica factible con base B 1. Resuélvase el sistema con solución única x B B 1 b b. Sea x B b, x N, y z c B x B 2. Resuélvase el sistema con solución única w c B B 1. Para todas las variables no básicas calcúlese z j c j wa j c j. Sea z c máx j R {z j c j } Donde R es el conjunto de índices de las variables no básicas. Si z c, entonces el proceso se detiene, y la solución básica factible presente es la óptima. En caso contrario continuar con el paso 3. 3. Resuélvase el sistema con solución única y B 1 a. Si y, entonces la solución óptima es no acotada a lo largo del rayo b + x y e : x

En donde e, es un vector de ceros excepto por un 1 en la ésima posición. Si al menos algún componente del vector y es positivo, ir al el paso. x entra a la base y la variable de bloqueo x Br sale de ella, en donde el índice r se determina mediante utilizando el criterio de la razón mínima que se muestra a continuación, b r mínimo y r 1 i m b i y i : y i > x Se modifica la base B en donde a reemplaza a a Br, se actualiza el conjunto de índices de las variables no básicas R R {B r } {}. Ir al paso 1 (Bazaraa & Jarvis, 1981).