Análisis aplicado. Direcciones de descenso.

Documentos relacionados
Análisis aplicado. Descenso suficiente.

Análisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c

Tema 4 Funciones convexas y optimización convexa

1 Funciones de Varias Variables y Diferenciabilidad

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Tema 3 Optimización lineal. Algoritmo del simplex

Clase 9 Programación No Lineal

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones

Método de Gradientes Conjugados.

Minimización de una forma cuadrática sobre una recta (ejercicios)

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1

Métodos de gradiente. Métodos de Krylov

Clase 5: Multiplicadores de Lagrange

Multiplicadores de Lagrange y dualidad

1.3.1 Fundamentos de cálculo vectorial

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

MATEMÁTICAS II Notas de clase

GRADIENTE CONJUGADO. May 15, 2018 DWIN ANCIZAR DIAZ ZAPATA (UNIVERSIDAD NACIONAL GRADIENTE DECONJUGADO COLOMBIA )


Ejercicios de optimización sin restricciones

Introducción a la Programación Matemática. Yolanda Hinojosa

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO. Decanato de Ciencias y Tecnología Licenciatura en Ciencias Matemáticas ROSMARY MONTERO

Un Método de Búsqueda Lineal Inexacta

Coordinación de Matemáticas III (MAT 023) x a. Además, diremos que f es continua en U si f es continua en cada punto de U.

9. DIFERENCIACIÓN DE FUNCIONES DE VARIAS VARIABLES.

Programación lineal. Estimar M. Ejemplos.

OPTIMIZACION MATEMATICA (4,5 Créditos)

Tema 7: Programación matemática

Soluciones del capítulo 9 Optimización Estática

Optimización con restricciones de desigualdad. Yolanda Hinojosa

MATEMATICAS III (Lic. en Economía. 14/07/04) Convocatoria adelantada de Septiembre

Análisis de Sensibilidad

GuíaDidáctica: Geometría AnalíticaPlana UTPL. La Universidad Católica de Loja MODALIDAD ABIERTA Y A DISTANCIA

OPTIMIZACIÓN VECTORIAL

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

Capítulo VI. Diferenciabilidad de funciones de varias variables

Héctor Manuel Mora Escobar. Dpto. Matemáticas, U. Nacional, Bogotá.

Cálculo numérico. Sistemas de ecuaciones lineales.

Introducción a la optimización. Tomás Arredondo Vidal 7/4/09

PROGRAMACIÓN MATEMÁTICA

CONTROL ÓPTIMO: TIEMPO DISCRETO

Análisis convexo, cálculo diferencial y aplicaciones

ECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso ) Cuarto Curso de Ingeniero Industrial

Matemáticas III Tema 1 Funciones de varias variables. Diferenciabilidad

Se desea resolver el problema. P : mín f(x) (5.1)

Aplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa:

1. Hallar la ecuación paramétrica y las ecuaciones simétricas de la recta en los siguientes casos:

Replicación aproximada de derivados de electricidad en mercados incompletos

Clase 4: Diferenciación

Índice. 1 Extremos relativos. 2 Funciones convexas y extremos

Optimización en Ingeniería

5.2 Análisis de sensibilidad: el teorema de la función implícita

Optimización de Problemas no lineales.

CÁLCULO III. Pablo Torres. Funciones definidas en R n. Facultad de Ciencias Exactas, Ingeniería y Agrimensura - Universidad Nacional de Rosario

OPTIMIZACIÓN CLÁSICA. En el problema de optimización

Tema 11: Diferenciabilidad en varias variables.

MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN Nombre de asignatura: AMPLIACIÓN DE MATEMÁTICAS. Módulo: FORMACIÓN FUNDAMENTAL

Análisis Matemático I: Cálculo diferencial

CAPÍTULO 3. GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica.

Práctica 3: Diferenciación

Resolución numérica de ecuaciones no lineales

Guía Semana 7 1. RESUMEN 2. EJERCICIOS PROPUESTOS. Universidad de Chile. Ingeniería Matemática

Cálculo en varias variables

Funciones de Una Variable Real I. Derivadas

Función diferenciable Regla de la cadena (2 variables) Regla de la cadena (vectorial) Diferenciabilidad

Problemas con soluciones

Ecuaciones Diferenciales Ordinarias y Simulación con Matlab

Sobre las desigualdades de Bell, un teorema de von Neumann y la diferenciabilidad de ciertas funciones de correlación

Múltiple Opción. Respuestas. Sean {a n } y {b n } dos sucesiones A A D C E. Para cada a R +, el área encerrada A D B C D

PROGRAMA. Asignatura MAT 215 CALCULO EN VARIAS VARIABLES"

APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES.

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Aproximaciones de funciones y problemas de extremos

Teorema de Cambio de Variables para Integrales Dobles

Transformaciones Lineales

Tema 2 Conjuntos convexos

Calcular el cociente y el resto en las siguientes divisiones: 6x 3 + 5x 2 9x 3x 2. (b)

CONVERGENCIA GLOBAL DE UN ALGORITMO DE DESCENSO MULTIDIRECCIONAL PARA UN PROBLEMA DE ESTIMACION DE PARAMETROS EN EDP

CAPÍTULO 2 PROGRAMACIÓN NO LINEAL. Programación No Lineal

GRADO EN ADE CURSO

Funciones de dos variables:extremos locales de funciones de dos variables. Condición necesaria. Teorema de los valores extremos.

INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS

PROGRAMA DE CURSO UNIDADES TEMÁTICAS. Cálculo en varias variables. Unidades Docentes Cátedra Auxiliares Trabajo Personal

El Teorema de la función implicita versión para funciones f : R R

Sistemas Lineales y Matrices

Estadística Bayesiana

Práctica 3: Diferenciación I

Análisis aplicado. Ax = b. Gradiente conjugado.

Unidad didáctica 1. Introducción a las funciones de varias variables 9. Objetivos de la Unidad... 11

Clase 8 Nociones Básicas de Convexidad

Estimadores Bayes y Minimax.

La interpolación polinomial en el análisis de métodos iterativos

Proyectos de trabajos para Matemáticas

Transcripción:

José Luis Morales http://allman.rhon.itam.mx/ jmorales Departamento de Matemáticas. ITAM. 2009.

El problema por resolver.

El problema por resolver. Problemas reales que se pueden formular como: minimizar f (x), f : R n R, en donde f es una función con derivadas continuas de orden 2.

El problema por resolver. Problemas reales que se pueden formular como: minimizar f (x), f : R n R, en donde f es una función con derivadas continuas de orden 2. Soluciones locales débiles: x R n, tal que existe una vecindad N(x ;ρ) f (x ) f (x), x N(x ;ρ)

El problema por resolver. Problemas reales que se pueden formular como: minimizar f (x), f : R n R, en donde f es una función con derivadas continuas de orden 2. Soluciones locales débiles: x R n, tal que existe una vecindad N(x ;ρ) f (x ) f (x), x N(x ;ρ) Optimización diferenciable.

El problema por resolver. Problemas reales que se pueden formular como: minimizar f (x), f : R n R, en donde f es una función con derivadas continuas de orden 2. Soluciones locales débiles: x R n, tal que existe una vecindad N(x ;ρ) f (x ) f (x), x N(x ;ρ) Optimización diferenciable. Aproximaciones para x.

Importancia del gradiente. Funciones cuadráticas f (x) = a + b T x + 1 2 xt Ax, f : R n R, A simétrica. f (x) = b + Ax. 5 0 5 10 15 20 25 15 10 5 0 5 10 15

Ejemplo f (x) = x 2 1 + 10x 2 2, x T 0 = (1,1), p 0 = f (x 0 ) nbis α f (x 0 + αp 0 ) f (x 0 ) 0 1.0000 3611.0000 11.0 1 0.5000 810.0000 11.0 2 0.2500 160.2500 11.0 3 0.1250 23.0625 11.0 4 0.0625 1.3906 11.0

Definición de dirección de descenso

Definición de dirección de descenso Descenso a primer orden. Sea p k R n f (x k + αp k ) = f (x k ) + αp T k f (x k) + O(α 2 ), α > 0.

Definición de dirección de descenso Descenso a primer orden. Sea p k R n f (x k + αp k ) = f (x k ) + αp T k f (x k) + O(α 2 ), α > 0. Supongamos que p T k f (x k) < 0.

Definición de dirección de descenso Descenso a primer orden. Sea p k R n f (x k + αp k ) = f (x k ) + αp T k f (x k) + O(α 2 ), α > 0. Supongamos que p T k f (x k) < 0. Entonces existe α tal que para toda α < α f (x k + αp k ) < f (x k ). Definición: p k es dirección de descenso para f en el punto x k si y sólo si p T k f (x k) < 0.

Interpretación del gradiente Considerar el siguiente problema min p p T f (x k ), p 2 = 1, f (x k ) 0. El problema anterior es equivalente a resolver min θ = p 2 f (x k ) 2 cos θ Por lo tanto p = f (x k) f (x k ) 2. es la solución.

Ejemplo. Consideremos las direcciones siguientes en el punto x = (1,1) T : Naturalmente f (x) ˆp = f (x) p N pˆ N = p N 20.099... = ˆp T f (x) < pˆ T N f (x) = 15.55... Sin embargo, p N consigue un descenso de 11 unidades con α = 1. La dirección p alcanza un descenso de 10.66... unidades con α =.0545 (el valor óptimo de α).

Conclusiones.

Conclusiones. Descenso monótono en f. x k+1 = x k + α k p k. Contraejemplos. Construir teoría.

Conclusiones. Descenso monótono en f. x k+1 = x k + α k p k. Contraejemplos. Construir teoría. La diferenciabilidad de f permite usar el teorema de Taylor para hacer análisis.

Conclusiones. Descenso monótono en f. x k+1 = x k + α k p k. Contraejemplos. Construir teoría. La diferenciabilidad de f permite usar el teorema de Taylor para hacer análisis. La diferenciabilidad de f proporciona una dirección natural de descenso.

Conclusiones. Descenso monótono en f. x k+1 = x k + α k p k. Contraejemplos. Construir teoría. La diferenciabilidad de f permite usar el teorema de Taylor para hacer análisis. La diferenciabilidad de f proporciona una dirección natural de descenso. Otras direcciones de descenso: p T f (x k ) < 0.

Conclusiones. Descenso monótono en f. x k+1 = x k + α k p k. Contraejemplos. Construir teoría. La diferenciabilidad de f permite usar el teorema de Taylor para hacer análisis. La diferenciabilidad de f proporciona una dirección natural de descenso. Otras direcciones de descenso: p T f (x k ) < 0. Condiciones de optimalidad: Si x es un minimizador local de f entonces f (x ) = 0. Tarea.