Tema 4 Funciones convexas y optimización convexa

Documentos relacionados
May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

Cálculo en varias variables

MÉTODOS MATEMÁTICOS DE LA ECONOMÍA

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad

Notas sobre el teorema minimax

Clase 10: Extremos condicionados y multiplicadores de Lagrange

INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA

Funciones convexas Definición de función convexa. Tema 10

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

CAPÍTULO 4: DERIVADAS DE ORDEN SUPERIOR. En este capítulo D denota un subconjunto abierto de R n.

Teorema del Valor Medio

Funciones de Una Variable Real I. Derivadas

FUNCIONES CONVEXAS. El concepto de convexidad es fundamental en el análisis y resolución de los problemas de optimización.

Universidad del Rosario Economía Matemática II Taller 8 - Kuhn Tucker

8.4. CRITERIO DE ESTABILIDAD POR EL METODO DIRECTO DE LIAPUNOV

Funciones de Clase C 1

2. Continuidad y derivabilidad. Aplicaciones

MODELOS MATEMATICOS. Despacho B3-134, Teléfono: Tutorías: Martes y Miércoles de a 12.

OPTIMIZACIÓN VECTORIAL

1 Números reales. Funciones y continuidad.

1. DIFERENCIABILIDAD EN VARIAS VARIABLES

FUNCIONES REALES 1º DE BACHILLERATO CURSO

Espacios vectoriales reales.

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Lección 2: Funciones vectoriales: límite y. continuidad. Diferenciabilidad de campos

Sucesiones Introducción

Juan Manuel Pacheco Instituto de Investigaciones Teóricas y Aplicadas, Escuela de Estadística

4. Complementos sobre Problemas de Contorno para S.D.O. Lineales. 4. Complementos sobre Problemas de Contorno

Tema IX: TOPOLOGÍA. Tema IX: TOPOLOGÍA

CÁLCULO DIFERENCIAL Muestras de examen

Semana 2 [1/24] Derivadas. August 16, Derivadas

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c

Derivación. Aproximaciones por polinomios.

Microeconomía Superior I: Tema 2 (cont.)

IN Guía de Problemas Resueltos de Geometría de Programación Lineal v1.0

5 Continuidad y derivabilidad de funciones reales de varias variables reales.

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2014 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 4: FUNCIONES

Tema 2.- Formas Cuadráticas.

EXAMEN DE SEPTIEMBRE, MATEMÁTICAS I. 1. (2.5 ptos) Sean f y g funciones con derivadas primeras y segundas continuas de las que se sabe que

Jesús Getán y Eva Boj. Marzo de 2014

Ejercicios Resueltos de Cálculo III.

Límite superior y límite inferior de una sucesión

MATEMÁTICAS BÁSICAS. Autoras: Margarita Ospina Pulido Jeanneth Galeano Peñaloza Edición: Rafael Ballestas Rojano

Cálculo II. Tijani Pakhrou

Diferenciales de Orden Superior

MATEMÁTICAS II APUNTES DE TEORÍA CURSO ACADÉMICO Carlos Ivorra

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES

Análisis Matemático I: Numeros Reales y Complejos

Inecuaciones Lineales en una Variable Real

1. Halle el dominio de la función f(x) = ln(25 x2 ) x 2 7x + 12 ; es decir, el conjunto más grande posible donde la función está definida.

Funciones reales de variable real

Coordinación de Matemática I (MAT021) 1 er Semestre de 2013 Semana 2: Lunes 18 Viernes 22 de Marzo. Contenidos

Álgebra Lineal V: Subespacios Vectoriales.

Funciones reales de variable real

Derivadas parciales Derivadas direccionales Derivadas parciales de orden superior. Derivadas parciales y direccionales

520142: ALGEBRA y ALGEBRA LINEAL

Derivadas e integrales

Continuidad. 5.1 Continuidad en un punto

Definición. 1. Se define la función logaritmo (neperiano ) por. ln x =

Tema 2 Resolución de EcuacionesNo Lineales

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD

Universidad Rey Juan Carlos Facultad de CC. Jurídicas y Sociales (Campus de Vicálvaro)

IES Fco Ayala de Granada Sobrantes del 2010 (Modelo 6) Soluciones Germán-Jesús Rubio Luna. Opción A

=, una sucesión de intervalos cerrados. f x una función continua en el punto x = x0. = 0, el teorema queda demostrado. Si ( )

Programación Lineal Continua

GIMNASIO VIRTUAL SAN FRANCISCO JAVIER Valores y Tecnología para la Formación Integral del Ser Humano UNIDAD I FUNCIONES

Tema No. 3 Métodos de Resolución de Modelos de Programación Lineal. El Método Gráfico y Método Simplex Autoevaluación y Ejercicios Propuestos

Álgebra y Trigonometría Clase 2 Ecuaciones, desigualdades y Funciones

Análisis Matemático I: La integral de Riemann

Cálculo Diferencial en una variable

Capítulo 1: Fundamentos: Lógica y Demostraciones Clase 3: Relaciones, Funciones, y Notación Asintótica

EL CUERPO ORDENADO REALES

MATEMÁTICAS PARA LA ECONOMÍA II

entonces las derivadas laterales existen y son iguales. y vale lo mismo. Si existen las derivadas laterales y son iguales, entonces existe f (a)

Optimización con restricciones de desigualdad: Condiciones de Kuhn-Tucker

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones

MÉTODOS MATEMÁTICOS DE LA ECONOMÍA

1 Funciones de Varias Variables

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO 6. POLINOMIOS DE UNA VARIABLE.

Algebra lineal y conjuntos convexos

Economía Matemática. Cálculo III y Macroeconomía Avanzada II. Créditos Académicos 3 Horas de clase /semana 4 Horas de Trabajo Indepen/sema 5

DERIVADAS PARCIALES Y APLICACIONES

TEORÍA DE LA EMPRESA. ADOLFO GARCÍA DE LA SIENRA Instituto de Filosofía Facultad de Economía Universidad Veracruzana

Tema 5: Elementos de geometría diferencial

CONVEXIDAD: CONCEPTOS BÁSICOS

Determine if this function achieves a maximum in A. Does it achieve a minimum?

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

Clase 8 Matrices Álgebra Lineal

Funciones reales de variable real

2 t, y t = 2 sin 2t, z t = 3e 3t. ( 2 sin 2t) + z. t = 0. = f u (2, 3)u s (1, 0) + f v (2, 3)v s (1, 0) = ( 1)( 2) + (10)(5) = 52

2 x

PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).

Conjunto R 3 y operaciones lineales en R 3

Julio C. Carrillo E. Profesor Escuela de Matemáticas Universidad Industrial de Santander. Monday, November 5, 2007 at 8:44 am (FA07.

2 4. c d. Se verifica: a + 2b = 1

Extremos de varias variables

Análisis III. Joaquín M. Ortega Aramburu

RESUMEN TEORIA MATEMATICAS 5

Transcripción:

Tema 4 Funciones convexas y optimización convexa José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid

Contenidos del tema 4 Repaso de algunos resultados sobre optimización de funciones. Funciones convexas. Caracterizaciones. Operaciones que preservan la convexidad. Resultados generales sobre optimización convexa.

Notación Para una función f : R n R, denotamos Derivada direccional: sea d R n con d 0, f f (x + λd) f (x) (x, d) = lim. λ 0 λ Derivadas parciales: f i (x) = f (x, e i ) con e i = (0,..., 1,..., 0). Gradiente: f (x) = (f 1 (x),..., f n (x)). Matriz Hessiana: Hf (x) = f 11 (x) f 1n (x)....... f n1 (x) f nn (x)

Propiedades básicas f tiene derivadas parciales continuas f es diferenciable f tiene derivadas parciales. f diferenciable f (x, d) = f (x) d. f es diferenciable en x si y solo si f (x) = f ( x) + f ( x) (x x) + x x R( x; x x), donde lim x x R( x; x x) = 0. f es diferenciable dos veces en x si y solo si f (x) = f ( x) + f ( x) (x x) + 1 2 (x x) Hf ( x)(x x) + x x 2 R( x; x x), donde lim x x R( x; x x) = 0. Si f es diferenciable en x y f ( x) d < 0 (resp. > 0), entonces existe δ > 0 tal que f ( x) > f ( x + λd) (resp. <) si 0 < λ < δ.

Condiciones para óptimos locales Condición necesaria de primer orden: Sea f diferenciable en x. Si x es un mínimo o máximo local de f entonces f ( x) = 0. Condiciones necesarias de segundo orden: Sea f dos veces diferenciable en x. Si x es un mínimo local de f entonces 1. f ( x) = 0 2. Hf ( x) es semidefinida positiva Condiciones suficientes de segundo orden: Sea f dos veces diferenciable en x. Si 1. f ( x) = 0 2. Hf ( x) es definida positiva entonces x es un mínimo local (estricto) de f.

Funciones convexas Una función f : D R es convexa si su dominio D R n es convexo, y para todo x, y D, para todo λ [0, 1], se verifica f (λx + (1 λ)y) λf (x) + (1 λ)f (y). La convexidad estricta requiere < en lugar de. Una función f es (estrictamente) cóncava si f es (estrictamente) convexa. f es convexa si y solo si para todo x y u, g(t) = f (x + tu) es convexa (en su dominio, es decir, {t : x + tu D}).

Algunos ejemplos f (x) = x 2 es convexa. f (x) = max{x 1,..., x n } donde x = (x 1,..., x n ) es convexa. Las funciones afines f (x) = Ax + b son cóncavas y convexas. Cualquier norma f (x) = x es una función convexa. Si S es convexo, la distancia a S, es una función convexa. f (x) = d(x, S) = inf x s s S

Desigualdad de Jensen Teorema: Si f : D R es convexa, entonces para todo x 1,..., x k de su dominio y λ 1,..., λ n 0 con λ 1 + + λ k = 1 se cumple f (λ 1 x 1 + + λ k x k ) λ 1 f (x 1 ) +... + λ k f (x k ). Demostración: Por inducción sobre k, observando que si x = λ 1 x 1 + + λ k+1 x k+1, entonces x = λy + (1 λ)x k+1, donde y = k i=1 (λ 1/λ)x i, con λ = 1 λ k+1. Si X es una v.a. que toma los valores x i con probabilidad λ i, entonces f [E(X )] E[f (X )].

Epigrafo El epigrafo de una función f : D R se define como: epi(f ) = {(x, t) : x D, f (x) t} R n+1. Teorema: Una función es convexa si y solo si su epigrafo es un conjunto convexo. Teorema: Sea {f i : i I } una familia de funciones convexas definidas sobre un conjunto convexo no vacío S tal que para todo x S, el conjunto {f i (x) : i I } está acotado superiormente. Entonces la función f (x) = sup{f i (x) : i I }, x S, es convexa. Demostración: epi(f ) = i I epi(f i ).

Funciones convexas diferenciables Teorema: Sea f : D R diferenciable sobre un dominio convexo y abierto D. Entonces, f es convexa si y solo si para todo x, x D. f (x) f ( x) + f ( x) (x x), Demostración: ( ) Si x, x D y f es convexa en D, f (λx + (1 λ) x) λf (x) + (1 λ)f ( x) [f ( x + λ(x x) ) f ( x)]/λ f (x) f ( x). Se toman ĺımites cuando λ 0. ( ) Si x y y λ [0, 1], se aplica la condición a x e y con x = λx + (1 λ)y: f (x) f ( x) + f ( x)(x x) y f (y) f ( x) + f ( x)(y x). Se multiplica la primera desigualdad por λ, la segunda por 1 λ y se suman.

Funciones convexas diferenciables dos veces Teorema: Sea f : D R con dos derivadas continuas sobre un dominio convexo y abierto D. Entonces, f es convexa si y solo si Hf (x) es semidefinida positiva para todo x D. Demostración: Para n = 1 se demuestra en los ejercicios. Para n > 1 se considera g(λ) = f (x + λd) y se tiene en cuenta que g (λ) = d Hf (x + λd)d. Una función dos veces diferenciable es cóncava si D es convexo y Hf (x) es semidefinida negativa para todo x D. Si Hf (x) es definida positiva para todo x D, la función es estrictamente convexa, pero el recíproco no es cierto (por ejemplo, f (x) = x 4 ).

Operaciones que preservan la convexidad El supremo de funciones convexas es una función convexa. Sumas ponderadas no negativas: Si f i convexa y w i 0, para i = 1,..., n, entonces f = w 1 f 1 +... + w n f n es convexa. Composición con una aplicación afín: g(x) = f (Ax + b) es convexa si f es convexa. Composición: Sea D R n y f : D R convexa. Sea I f (D) un intervalo tal que g : I R es creciente y convexa. Entonces la composición g f es convexa. Minimización parcial: Si f es convexa en (x, y) y C es un conjunto convexo no vacío, la función g(x) = inf y C f (x, y) es convexa en x.

Más ejemplos de funciones convexas f (x) = log x es convexa. f (x) = e ax es convexa en R para todo a R. f (x) = x a (x > 0) es convexa si a 0 o a 1, y cóncava si 0 a 1. f (x) = x Ax + a x + c, donde A es simétrica, es convexa si y solo si A es semidefinida positiva. Sea X una matriz n p y sean β R p e y R n, entonces f (β) = y X β es convexa, donde es cualquier norma.

Problema general de optimización convexa La optimización convexa trata el problema general de minimizar una función convexa, sobre un conjunto factible también convexo: minimizar f (x) s.a. x S, (1) donde f : D R es convexa y S D R n es convexo. Casos particulares: Optimización lineal. Optimización cuadrática. Mínimos cuadrados.

Teorema local-global En un problema convexo no hay distinción entre mínimos globales y locales. Teorema: Todo mínimo local de (1) es también un mínimo global de (1). Demostración: Sea x un mínimo local. Existe R > 0 tal que f ( x) f (x), para todo x S B( x, R). Spg. que existe y S tal que f (y) < f ( x). Consideramos z = (1 θ) x + θy, para θ > 0 suficientemente pequeño. z S B( x, R) pero f (z) < f ( x).

Mínimos globales bajo convexidad y diferenciabilidad Teorema: Consideremos el problema (1) en el que se supone además que f es diferenciable. Un punto x S es mínimo global de (1) si y solo si f ( x) (x x) 0, para todo x S. Demostración: ( ) Por la convexidad de f, para todo x S, ( ) f (x) f ( x) + f ( x) (x x) f ( x). 1. Spg. existe x S con f ( x) (x x) < 0. Entonces, x x es una dirección de descenso local. 2. Existe 0 < λ < 1 tal que f ( x) > f ( x + λ(x x) ) = f (λx + (1 λ) x). 3. λx + (1 λ) x S porque S es convexo. 4. Por lo tanto, x no es un mínimo global.

Observaciones 1. Si S es abierto (por ejemplo, S = R n ) entonces la condición del teorema anterior se reduce a f ( x) = 0. (Considera x = x λ f ( x), para λ > 0 suf. pequeño.) 2. Sin embargo, si S no es abierto la condición sirve para detectar óptimos en la frontera. (min x 2 s.a. 1 x 2.) 3. Si f ( x) 0, entonces f ( x) define un hiperplano soporte a S en x. 4. Aplicación a un problema de optimización lineal. 5. Aplicación a un problema convexo con restricciones de igualdad: min f (x) s.a. Ax = b, donde f es convexa y diferenciable.

Ejemplo Resuelve gráficamente el problema: minimizar (x 1 4) 2 + (x 2 6) 2 s.a. x 2 x1 2 x 2 4 Demuestra anaĺıticamente que la solución obtenida gráficamente es el mínimo global del problema.

Una versión más expĺıcita del problema convexo En la práctica consideramos problemas convexos para los que el conjunto factible se conoce más expĺıcitamente: minimizar f (x) s.a. f i (x) 0, i = 1,..., m ai x = b i, i = 1,..., p, donde las funciones f, f 1,..., f n son convexas. Equivalentemente, minimizar f (x) s.a. f i (x) 0, i = 1,..., m Ax = b, donde las filas de A son los vectores a i. Denotamos por D la intersección de los dominios de todas las funciones del problema.