TEMA 5.6 PROGRAMACIÓN NO LINEAL 5.6.. INTRODUCCIÓN 5.6.. CONCEPTOS BÁSICOS 5.6.. MÉTODO O DE NEWTON ONSN SIN RESTRICCIONES S 5.6.4. MÉTODO DE NEWTON CON RESTRICCIONES. FUNCIONES DE PENALIZACIÓN.
INTRODUCCIÓN Un modelo matemático o problema se dice que pertenece a la programación no lineal si la unción objetivo /o alguna de las restricciones del problema son una unción no lineal de las variables de decisión ió (modelo dl oproblema no lineal). l) Si la unción objetivo /o alguna de las restricciones son no lineales las variables sólo pueden tomar valores enteros no negativos (modelo o problema no lineal entero), entonces el modelo matemático pertenecería al campo de la programación no lineal entera. Problemas de estas características surgen de orma inevitable en las aplicaciones de ingeniería, tales como diseño control óptimo, en aplicaciones cientíicas. Además muchos problemas que se ormulan como lineales se convierten en no lineales cuando se tienen en cuenta economías de escala (por ejemplo, costes no proporcionales a la cantidad). ESTADÍSTICA Y OPTIMIZACIÓN
Ejemplo: 4. 5 ma a s 6,69 6 El óptimo está en la rontera, 4 5 9 4. 5 a s Z=6 4 ESTADÍSTICA Y OPTIMIZACIÓN
Ejemplo (PNL cuadrática separable): 4 8 9 6 ma a s 8 4. a s Z=97 6 6 5 8, 4 Z*=857 Z=87 4 4 ESTADÍSTICA Y OPTIMIZACIÓN
Ejemplo (PNL cuadrática separable) 4 78 9 54 ma a s 6 8 4. a s 6 Z=89, 4 * Z*=65 Z=7 Z=6 5 4 ESTADÍSTICA Y OPTIMIZACIÓN
Con estos tres últimos ejemplos queremos mostrar es que el óptimo puede estar en cualquier sitio de la región actible. Como el óptimo en un PNL no necesariamente se alcanza en la rontera de la región actible, necesitamos describir algoritmos que tengan en cuenta todos los puntos de la región actible. Má locales en =,,4 :,5 R Má global en =4 Min local =,,5 Min global =5 5 ESTADÍSTICA Y OPTIMIZACIÓN 6
Sin embargo, muchos problemas no lineales tienen óptimos locales únicos que, por deinición, necesariamente deben ser globales. Por ejemplo, las siguientes condiciones garantizan, si eiste, que el óptimo es global:. La unción objetivo de máimo ái cóncava, o el logaritmo de la unción objetivo cóncava, con restricciones lineales.. La unción objetivo de mínimo convea, con restricciones lineales. No obstante, cuando apliquemos el algoritmo de Newton, en general, no conoceremos si la solución obtenida es un óptimo global. Como consecuencia, se suele intentar la prueba de iniciar el algoritmo desde dierentes puntos para determinar si el problema tiene dierentes soluciones óptimas. ESTADÍSTICA Y OPTIMIZACIÓN 7
( ) Función cóncava (curvatura hacia abajo) Función convea (curvatura hacia arriba) () () ESTADÍSTICA Y OPTIMIZACIÓN 8
CONCEPTOS BÁSICOS min (,..., ) n min ( ) s. a g (,..., ) n... ) s. a F ( PNL) g (,..., ) m n R n h (,..., ) n... F diid deinido a partir de un conjunto de restricciones h (,..., ) l n ( PNL : ALGORITMOS DE SOLUCIÓN BÁSICOS:. Algoritmos que no utilizan derivadas. Algoritmos que utilizan derivadas d ESTADÍSTICA Y OPTIMIZACIÓN 9
Cuando las unciones del problema son unciones dierenciables, podemos aplicar algoritmos de solución basados en las derivadas de la/s unción/es. Dos conceptos básicos asociados con las unciones dierenciables son el gradiente elhessiano (para el cálculo de este último se necesita que la unción sea dos veces dierenciable) Dada una unción : R n R, se deine el gradiente de,, como,...,,,...,.,...,,..., n,..., n, n n n t INTERPRETACIÓN: el gradiente de una unción (campo) escalar indica en cada punto la direcciónió demáimo ái crecimiento i de lamisma. Ai Asimismo, i el gradiente de una unción en un punto es el vector normal al hiperplano tangente de la unción en dicho punto. Una condición necesaria para que un punto sea un máimo o mínimo (local) de una unción es que su gradiente sea cero en dicho punto, es decir que sea un punto estacionario. ESTADÍSTICA Y OPTIMIZACIÓN
Dada una unción : R n R, sedeineelhessiano de, H, como H,,..., n,...,,..., n...... n...,...,,..., n n...... n n n n. INTERPRETACIÓN: el hessiano de una unción nos sirve para dar condiciones suicientes para que un punto estacionario de la unción sea un máimo o mínimo (relativo). ESTADÍSTICA Y OPTIMIZACIÓN
MÉTODO DE NEWTON SIN RESTRICCIONES TEMA 5.6. PROGRAMACIÓN NO LINEAL ALGORITMO DE NEWTON PARA PROBLEMAS DE UNA SOLA VARIABLE: Paso : Elegir > para precisión mínima. Elegir como semilla de inicio. Paso : Calcular ( ) ( ). Calcular = ( )/ ( ). IR al Paso. Paso : Si < o ( ) <, entonces PARAR es una solución para el problema. En otro caso, hacer := eiralpaso. CARACTERÍSTICAS:. Se utiliza para unciones dos veces derivables.. Se basa en la aproimación cuadrática de una unción.. Sirve para buscar puntos que anulan la derivada de la unción. 4. La segunda derivada debe ser no nula en cada punto. ESTADÍSTICA Y OPTIMIZACIÓN
EJEMPLO: resolver el siguiente PNL por el algoritmo de Newton. 4 min epsilón =, Iteración Abs('()) Abs( - ) -, -,89 4,,98 -,89 -,67,8765,658 4 -,67 -,8979 9,55,467 n n n n 4 -,8979 -,494,,49 n 5 -,494,5,494,69 6,5,,58,8 7,,,45, 8,,,, 9,,,, ESTADÍSTICA Y OPTIMIZACIÓN
Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación ni lineal.ls]hoja5 Celda objetivo (Mínimo) Celda Nombre Valor original Valor inal $B$ FUNC.OBJ. Iteración 78 - Celdas cambiantes Celda Nombre Valor ao original Valor ao inal $C$8 X -,99999986 Restricciones NINGUNA ESTADÍSTICA Y OPTIMIZACIÓN 4
5 5 5,8,6,4, -5-4 - - - -5 - -,8 -,6 -,4 -, -,,,4,6,8,,4,6,8 -,4 -,6 -,8 - -, -,4 4 -,6 -,8 - ESTADÍSTICA Y OPTIMIZACIÓN 5
EJEMPLO: resolver el siguiente PNL por el algoritmo de Newton. min 4 5 6 5 4 5 4 -,5 -,5,5,5,5 4 4,5 5 5,5 6n 75n 4n 675n 548n - n n 4 n n n 5n 548 - -4-5 -6-7 -8-9 - - - - -4-5 -6-7 -8 ESTADÍSTICA Y OPTIMIZACIÓN 6
Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación ni lineal.ls]hoja6 Celda objetivo (Mínimo) Celda Nombre Valor original Valor inal $C$4 () 7-6,9894 Celdas cambiantes Celda Nombre Valor original Valor inal $B$4 -,65547 Restricciones NINGUNA Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación ni lineal.ls]hoja6 Celda objetivo (Mínimo) Celda Nombre Valor original Valor inal $C$4 (),99967578 -,5565 Celdas cambiantes Celda Nombre Valor original Valor inal $B$4,75,499999 Restricciones NINGUNA Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación ni lineal.ls]hoja6 Celda objetivo (Mínimo) Celda Nombre Valor original i Valor inal $C$4 () 4,9875 -,5565 Celdas cambiantes Celda Nombre Valor original Valor inal $B$4,5,4999998 Restricciones NINGUNA Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación ni lineal.ls]hoja6 Celda objetivo (Mínimo) Celda Nombre Valor original Valor inal $C$4 () 4,9768-6,9894 Celdas cambiantes Celda Nombre Valor original Valor inal $B$4,75 4,664465 Restricciones NINGUNA ESTADÍSTICA Y OPTIMIZACIÓN 7
ALGORITMO DE NEWTON PARA PROBLEMAS DE VARIAS VARIABLES: Paso :Elegir > para precisión mínima. Elegir como semilla de inicio. Paso : Calcular ( )H( ). Calcular = H( ) - ( ). IR al Paso. Paso : Si < ó ( ) <, entonces PARAR es una solución para el problema. En otro caso, hacer := eiralpaso. CARACTERÍSTICAS:. Se utiliza para unciones dos veces dierenciables.. Se basa en la aproimación cuadrática de una unción.. Sirve para buscar puntos que anulan el gradiente de una unción. 4. Debe eistir la inversa del hessiano en cada punto. ESTADÍSTICA Y OPTIMIZACIÓN 8
EJEMPLO: resolver el siguiente PNL por el algoritmo de Newton. ma ), ( ) ( ) (,, ), ( ), ( ), ( ) ( ) ( ) ( ) ( )) ( (,,, H = H( ) ( ) H iter STOP iter OJO: si estuviésemos minimizando ocurriría lo mismo, por lo que H( ) ( )noseríauna dd di ió d d verdadera dirección de descenso. ESTADÍSTICA Y OPTIMIZACIÓN
-,5 - -,5 - -,5 -,5 - -,5 - -,5 - -,5-4 ESTADÍSTICA Y OPTIMIZACIÓN
Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación no lineal.ls]hoja Celda objetivo (Máimo) Celda Nombre Valor original Valor inal $B$4 FUNC.OBJ. 4 Celdas cambiantes Celda Nombre Valor original Valor inal $C$ X - -,5 $D$ Y - -,9 Restricciones NINGUNA (,) - 6 7 4 4 68 5 5 5 6 6 4 7 7 7 8 8 55 9 9 78 7 49 86 7 4 4 898 5 5 555 6 6 44 7 7 55 8 8 6 9 9 76 84 ESTADÍSTICA Y OPTIMIZACIÓN
ALGORITMO DEL GRADIENTE PARA PROBLEMAS DE VARIAS VARIABLES: Paso :Elegir > para precisión mínima. Elegir como semilla de inicio. Paso : Calcular ( ). Resolver el problema de una variable min ( m( )), m. IR al Paso. (Si maimizamos, ma ( +m( )), m.) Paso : Si < ó ( ) <, entonces PARAR es una solución para el problema. En otro caso, hacer := eiralpaso. ESTADÍSTICA Y OPTIMIZACIÓN
EJEMPLO: resolver el siguiente PNL por el algoritmo del gradiente. ma,,5,,5,4 m ma m m iter m m 9 5,,5, STOP iter,5 4 5 6 ESTADÍSTICA Y OPTIMIZACIÓN
Diicultades del algoritmo de Newton: Eistencia de múltiples mínimos locales Convergencia de los algoritmos al mínimo global Suavidad de las unciones a minimizar Sl Selección del dlpunto inicial iiil H() - () puede no ser una dirección de descenso (en el algoritmo del gradiente esto no sucede) ESTADÍSTICA Y OPTIMIZACIÓN 4
MÉTODO DE NEWTON CON RESTRICCIONES. FUNCIONES DE PENALIZACIÓN FUNCIONES DE PENALIZACIÓN: Se utilizan para penalizar puntos que sean inactibles no hacerlo para aquellos que son actibles. De este modo se intenta transormar problemas no lineales con restricciones en problemas no lineales sin restricciones poder aplicar los métodos anteriores. Dependiendo del tipo de restricción las unciones de penalización serán de una orma u otra. Restricción g( ) Función de penalización h ( ) h ( ) ma{, g( )} r r La unción de penalización de un PNL con restricciones vendrá dada por: m r ma{, g i ( )} p ( ) h ( ) i i l i r 5
ALGORITMO DE NEWTON CON FUNCIONES DE PENALIZACIÓN: Paso : Elegir > para criterio i de terminación. ió Elegir como semilla de inicio, escalar de penalización un escalar >. Paso : Comenzando con el punto solucionar el problema no lineal aplicando el algoritmo de Newton (o el algoritmo del gradiente) min ( ) p ( ) n s. a : Sea una solución del problema e IR al Paso. Paso : Si p( ) <, entonces PARAR es una solución del problema original. En otro caso, HACER := := eiralpaso. ESTADÍSTICA Y OPTIMIZACIÓN 6
EJEMPLO resolver el siguiente PNL por el algoritmo de Newton con unciones de penalización. 4 min ( ) ( s. a : ) Paso : =.5, = (, ), =., =, penalización cuadrática (r =) elegimos el algoritmo de Newton para resolver los sucesivos PNL sin restricciones del tipo: min 4 ( ) ( ) ( k iteración k - ésima ) ESTADÍSTICA Y OPTIMIZACIÓN 7
Iteración ( ) p( ). (, ) (.458,.767).95.8 (.458,.767) (.687,.746).575.98 (.687, 687.746) (.996,.845).5.96 4 (.996,.845) (.958,.8875).897.67 5 (.958,.8875) (.946,.894).945.8 6 (.946,.894) (.9456,.894).9456. ESTADÍSTICA Y OPTIMIZACIÓN 8
Microsot Ecel. Inorme de respuestas Hoja de cálculo: [Programación no lineal.ls]hoja Celda objetivo (Mínimo) Celda Nombre Valor original Valor inal $B$4 FUNC.OBJ.,9468665 Celdas cambiantes Celda Nombre Valor original Valor inal $C$ X,94554 $D$ X,89977559 Restricciones Celda Nombre Valor de la celda órmula Estado Divergencia $B$6 R 6,97E-7 $B$6=$D$6$D$6 Opcional ESTADÍSTICA Y OPTIMIZACIÓN 9
Diicultades del algoritmo de Newton con restricciones: Eistencia de múltiples mínimos locales Convergencia de los algoritmos al mínimo global Suavidad de las unciones a minimizar Selección del punto inicial H() - () puede no ser una dirección de descenso ESTADÍSTICA Y OPTIMIZACIÓN