PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).

Tamaño: px
Comenzar la demostración a partir de la página:

Download "PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP)."

Transcripción

1 PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP.

2 Optimización con restricciones La presencia de restricciones reduce la región en la cual buscamos el óptimo. Los criterios de optimalidad vistos hasta ahora no siempre se cumplen ( = ( 2 2 ( = 0, = 2 Pero si 4 entonces el mínimo tiene que ser en =4 y este no es un punto estacionario ya que ' ( 4 = 4, por tanto no es el punto estacionario de

3 Problemas con restricciones de igualdad min s.a. h (, 2, K, N (,, K, = 0 =, K, K 2 N Método de eliminación de variables: eliminando, K variables independientes, el problema se convierte en un problema sin restricciones La dimensión del problema se reduce de N a N-K El problema que se obtiene se puede resolver con cualquier algoritmo de optimización sin restricciones

4 Problemas con restricciones de igualdad 2 Eemplo: min s.a. h ( = 23 ( = + + = min Eliminamos 3 (, = ( Pero si ( = h = No es posible eliminar ninguna variable eplícitamente Es necesario encontrar un método que permita manipular las restricciones

5 Problemas con restricciones de igualdad 3 Método de los multiplicadores de Lagrange: Transorma el problema original a uno equivalente sin restricciones mediante los multiplicadores de Lagrange. Minimizar (, 2,..., N Sueto a h (, 2,..., N = 0 =,2,...,K Se transorma en: Minimizar L(,v = ( - K i = v i h i ( Solución: encontrar el mínimo de L(,v en unción de v y austar v para satisacer las restricciones. => Se obtiene un sistema de ecuaciones cuya solución es el óptimo de la unción original.

6 Problemas con restricciones de igualdad 4 Sistema con N+K ecuaciones y N+K incógnitas ( y v: L i = 0 i =,..., N h ( = 0 =,... K Para saber si es máimo o mínimo se calcula la matriz Hessiana de L con respecto a : Si H L (;v es deinida positiva => mínimo Si H L (;v es deinida negativa => máimo Etendiendo los multiplicadores de Lagrange a restricciones de desigualdad, tenemos las condiciones de uhn-tucer

7 Problema de Programación no-lineal (NLP min s.a g h ( ( 0 ( = 0 = (, K, N =, K,J =, K,K ( 0 Se dice que g es una restricción activa en el punto si ( 0 g = y es inactiva si g ( > 0 Un punto actible es aquél que satisace las restricciones Una región actible es la zona donde se satisacen las restricciones g g ( = 0 ( > 0

8 Condiciones de Kuhn-Tucer Encontrar los vectores ( N, μ( J, λ( K que satisaga las siguientes condiciones: ( J K μ g ( λ h ( = 0 = = g μ ( 0 h ( = 0 μ g ( = 0 0 =,2,...,J =,2,...,K =,2,...,J =,2,...,J

9 Interpretación de las condiciones de KT min s.a h ( ( = 0 =, K, K ( h ( = 0 λ h ( = 0 Condiciones de KT L ( ; λ = ( λ h ( Función de Lagrange ( λ = h ( = 0 ( λ h ( L( = = 0 Condiciones de L Optimalidad de primer orden Las condiciones de KT son las condiciones de optimalidad de primer orden del Problema de Lagrange

10 Teorema de Necesidad de Primer Orden min s.a g h ( ( 0 ( = 0 = (, K, N =, K,J =, K,K Sean, g, y h unciones dierenciables, y una solución actible del problema. { ( } Sea I = g 0. Además g ( I y h son linealmente = ( independientes. Si es una solución óptima del problema entonces eiste ( μ,λ ( tales que, μ, λ resuelve las condiciones de KT ( I ( A las condiciones de que g y h sean linealmente independiente en el óptimo se le llama restricción de cualiicación

11 Restricción de Cualiicación Para algunos problemas de programación no lineal, además las restricciones de cualiicación se satisacen cuando:. Todas las restricciones de desigualdad e igualdad son lineales 2. Cuando todas las restricciones de desigualdad son unciones cóncavas y las de igualdad son lineales y eiste al menos una solución actible, estrictamente dentro de la región actible de las restricciones de desigualdad. Cuando la restricción de cualiicación no se alcanza en el óptimo, puede que no eista solución al problema de KT Condición necesaria: si el punto no cumple las condiciones de KT no es óptimo, pero si las cumple puede ser óptimo o no.

12 Teorema de Suiciencia de Primer Orden min s.a g h ( ( 0 ( = 0 = (, K, N =, K,J =, K,K Sea la unción ( convea, las restricciones de desigualdad g ( =,...,J todas cóncavas, y las restricciones de igualdad h ( =,..., K son lineales. ( Si eiste una solución, μ, λ que satisace las condiciones de KT, entonces es una solución óptima del problema de NLP. Condición suiciente: si cumple las condiciones de KT => es óptimo.

13 Qué haríamos si las unciones no son dierenciables?

14 Condiciones de ensilladura o punto de inleión Deinición: Se dice que una unción (,y tiene un punto de inleión en (,y si: Para todas las y y. (, y (, y (, y X minimiza la unción (,y para todas las y maimiza la unción (,y para todas las y

15 Problema de punto de silla de KT min s.a g ( ( S 0 =, K,J El problema de punto de silla o de inleión de Kuhn-Tucer es el siguiente, encontrar un punto (, μ tal que: L (, μ L(, μ L(, μ μ 0 S Donde: L (, μ = ( g ( μ

16 Teorema de Suiciencia de Optimalidad ( Si, μ es un punto de inleión de KT, entonces es una solución al problema de programación no lineal No se necesita la suposición de conveidad de las unciones No se invoca la restricción de cualiicación El teorema da la suiciencia. Pudiera eistir algunos problemas de programación no lineal, para las cuales no eista un punto de inleión, incluso aunque tenga solución óptima

17 Teorema de Necesidad Sea el valor que minimiza la unción ( sueta a las restricciones g ( 0, =, K,J, S. Asumimos que S es un conunto conveo, ( es una unción convea, y g son unciones cóncavas en S. Asumimos también que eiste un punto S tal que g ( > 0. Entonces eiste un vector de multiplicadores μ 0 tales que (, μ sea un punto de ensilladura o de inleión de la unción de Lagrange que satisace: L L ( 0 (, μ = ( g ( μ (, μ L(, μ L(, μ μ 0 S

18 Punto de inleión de KT Teorema: ( Una solución, μ donde μ 0 y S es un punto de inleión de KT si y solo si se cumplen las siguientes condiciones: (. X minimiza a L, μ para todas las S u g g ( = 0, =, K, J ( 0, =, K, J

19 Problema de PNL Condiciones de KT min s.a g ( ( 0 ( = 0 = (, K, h N =, K,J =, K,K ( h J K μ g ( λ h ( = 0 = = g ( 0 =,2,...,J ( = 0 =,2,...,K μ g ( = 0 =,2,...,J μ 0 =,2,...,J es una solución actible al PNL cuando 0, y ( ( = 0, es un mín. local del PNL cuando es actible y se cumple que para todas las soluciones actibles en una pequeña vecindad es un mín. local estricto cuando es actible y para todas las soluciones actibles se cumple que en una pequeña vecindad Un punto de KT del PNL es un vector (, μ, λ que satisace las condiciones de KT g h δ ( ( ( ( < ( δ(

20 λ, Teorema de Necesidad de Segundo Orden Consideramos el problema de PNL, y sean, g y h, unciones dos veces dierenciables, y sea actible para el problema. Sea I = g 0 el conunto de las restricciones activas en. También se asume que g ( I ( y h son linealmente independientes. Las condiciones necesarias para que sea un mínimo local al problema son: ( λ ( { ( } =. Eisten unos multiplicadores,μ tales que, λ, μ sea un pto. KT y 2. Para cualquier vector se satisace que: g h ( y = 0 I ( y = 0 =, K, K ( N y T H L (, λ, μ y 0 L J (, λ, μ = ( μ g ( λ h ( K = = H L es el Hessiano de la unción de Lagrange respecto a y evaluado en, μ (

21 Teorema de Suiciencia de Segundo Orden Las condiciones suicientes para que el punto sea un mínimo local estricto del problema PNL, donde, g y h son doblemente dierenciables son las sgtes. ( λ (. Eisten unos multiplicadores,μ tales que, λ, μ sean un pto. de KT 2. Para cualquier vector y que satisace: g g h ( N 0 ( y = 0 I = g ( { = 0, μ 0} { g = 0, μ 0} > ( y 0 I = ( 2 = ( y = 0 =, K, K y T H L (, λ, μ y > 0

22 Funciones de Penalización min s. a. g ( ( ( R 0 =,2, K, J h = 0 =,2, K, K ( l ( u i =,2, K, N i i i N El problema original se convierte en un problema sin restricciones mediante una unción de penalización P (,R = ( + Ω( R,g(,h( R es el conunto de los parámetros de penalización Ω es una unción de R y las unciones de restricción.

23 Funciones de Penalización 2 Características de la transormación: La solución del problema debe aproimarse a la solución del problema de NLP: t T< El problema de minimizar P(,R debe ser similar en diicultad a minimizar ( R (t+ = F(R (t debe ser simple. Dos tipos de transormaciones: Métodos barrera o orma interior: todos los puntos generados son actibles Métodos de orma eterior: los puntos generados son no actibles. (t lim =

24 Funciones de Penalización 3 Función parabólica Operador de bracet Ω = R{ h( } 2 ( 2 Ω = R g Métodos de orma eterior: puntos generados son no actibles α = α 0 si α 0 si α > 0

25 Eemplo con restricciones de igualdad En este caso R= (t =[3,3] T ( (t =2. h( (t =

26 Eemplo con restricciones de igualdad 2 En este caso R=0 (t =[2.574, 2.574] T ( (t =4.088; h( (t =0.428 En este caso R=00 (t =[2.5075,2.5075] T ( (t =4.477 h( (t =0.05

27 Eemplo con restricciones de desigualdad En este caso R= (t =[3,3] T ( (t =2 g( (t =- En este caso R=0 (t =[2.75,2.75] T ( (t =3.25 g( (t = -0.5

28 Eemplo con restricciones de desigualdad 2 En este caso R=00 (t =[2.5075,2.5075] T ( (t = g( (t = -0.05

29 Funciones de penalización 4 Barrera ininita: Logaritmica: Ω = 0 20 g ( con g (<0 J Ω = Rln[ g( ] J Ω Ω 0.0 g( 0 g( Métodos barrera o de orma interior: los puntos generados son siempre actibles

30 Funciones de penalización 5 Algoritmo:.- Deinir ε, ε 2, ε 3 => condiciones de terminación para la búsqueda lineal, vectorial y penalización. X 0 y R P(,R = ( + Ω(R, g(, h( 3.- Encontrar + / P( +, R sea mínimo con R io. Terminar con ε P( +, R P (, R - ε 3? Si => + = Parar No => continuar 5.- Elegir R + = R + ΔR y volver al paso 2.

31 Eemplo con unciones barrera R=00 (t =[-.8, -.8] ( (t =67 g( (t =8.62 R=0 (t =[.5,.5] ( (t =2.5 g( (t =2.0 R= (t =[2.3, 2.3] ( (t =5.45 g( (t =0.30

32 Método del Gradiente Reducido Generalizado min s.a. h (, 2, K, N (,, K, = 0 =, K, K 2 N Si h ( son no lineales pero puedes resolverse eplícitamente, puede usarse el método de eliminación de variables: h ( = 0 => = Φ(,..., -, +,..., N Esto no ocurre en la mayoría de los casos, pero se puede hacer una aproimación lineal de la restricción en torno a un punto que sí cumpla la restricción: / h ( = 0 H (; = h ( + h ( ( =,..., K Utilizamos está aproimación para encontrar otro punto actible:

33 Método GRG 2 / h (; = 0 =,...,K h ( ( =0 =,..., K Esto es un sistema de ecuaciones con N incógnitas y normalmente <N => no eiste solución única. Se puede resolver el sistema para K variables en unción de las otras N-K. K variables => básicas N-K variables => no básicas ˆ = h h h J ˆ... ˆ ˆ 2 = h h h C ( ˆ ( ˆ = + C J ( ˆ ˆ C J =

34 Método GRG 3 Utilizamos la última ecuación para eliminar variables de la unción obetivo: La unción obetivo ahora es una unción sin restricciones de las N-K variables no básicas, y podemos aplicar las condiciones necesarias para que sea mínimo:, ( ( ˆ ( ˆ, ~ C J = 0 ~ =, ( ˆ( ~ ( ~ = + = ˆ ˆ ~ ~ ( ~ ] [ ˆ( ( ( ~ C J + = Gradiente reducido generalizado Mínimo: 0 ( ~ =

35 Método GRG 4 Hemos usado linealizaciones de las restricciones para epresar la unción obetivo como una unción de N-K variables no básicas sin restricciones => algoritmo de optimización vectorial en torno al punto de linealización. Algoritmo:.- Calcular ~ ( = ( ˆ( J C ~ ( < ε 2.- Si Parar ~ T d = Si no d = ( dˆ, d dˆ = J Cd ( T 3.- Minimizar ( + α d con respecto al parámetro α => Hacer + = + α d. Ir al paso.

36 Método GRG 5 La dirección d así generada es descendente, pero los puntos generados en esa dirección no tienen por qué ser actibles. Para resolver este problema, se calcula y se proyecta sobre la supericie deinida por el conunto de restricciones y se minimiza ( a lo largo de la curva resultante. ˆ h ( + α d, ˆ = 0 Encontrar un que cumpla: =,...,K t d Método de Newton d ˆ i + i = ˆ [J ( t + α d, ˆ i ] h( t + α d, ˆ i ˆ ( ˆ < ( Si el método converge a un, si nos quedamos con el nuevo punto y seguimos el algoritmo, si no se cumple, se disminuye α y se repiten las iteraciones de Newton t

37 Algoritmo GRG Partir de un punto inicial 0, α = α 0, ε, ε 2, ε 3 >0 criterios de terminación y un parámetro de reducción; 0 < γ <.- Elegir una partición ~ de, en y de orma que J sea no singular. Calcular: ( t 2.- Si ~ t ( < ε parar Si no ~ T d = d = ( dˆ, d dˆ = J Cd 3.- α = α 0 ; a Calcular v i = t + α d Si h (v i ε 2 =,...K ir a d Si no. Continuar ˆ ( T

38 Algoritmo GRG 2 b vˆ i + = vˆ i J ( v i h( v i v i + = v i c Si i vˆ + vˆ i > ε ir a b Si no: Si h (v i ε 3 =,..., K ir a (d Si no α = γα Newton no converge. e ir a (a => el algoritmo de d Si ( t (v i, la dirección no es descendente, hacer α = γα e ir a (a Si no: t+ = v i e ir al paso.

39 Tratamiento de los límites min s. a. g ( ( ( R 0 =,2, K, J h = 0 =,2, K, K ( l ( u i =,2, K, N i i i N.- Tratamiento eplícito como desigualdades. 2.- Implícito: teniendo en cuenta los límites en los pasos del algoritmo: 2..- Sólo las variables aleadas de sus límites puedes ser variables básicas, se ordenan las variables de acuerdo con la distancia al límite más cercano: z i (t = min {( iu it, ( it il } Se ordenan las z i en orden decreciente y las primeras variables son las básicas.

40 Tratamiento de los límites Modiica d para asegurar que los límites no son superados: u 0 i = ~ Si i y ( i < 0 L di = 0 ( ~ i = ~ Si i y ( i > 0 i en otros casos En el paso 3 se deben insertar chequeos para asegurar que los límites no se eceden durante las iteraciones de Newton. Si un límite es ecedido, se hace una interpolación lineal entre t y v i para estimar el punto en esa línea que no eceda el límite.

41 Tratamiento de las desigualdades Se introducen variables de holgura que convierten la desigualdad en una igualdad: a g ( b h + ( = a -g ( + N+ = 0 h + ( = g ( b + N+ = 0 Se incrementa la dimensionalidad del problema.

f(x) f(x) 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS CONCAVIDAD Y CONVEXIDAD DE FUNCIONES.

f(x) f(x) 2.- OPTIMIZACIÓN. CONCEPTOS BÁSICOS CONCAVIDAD Y CONVEXIDAD DE FUNCIONES. .- OPTIMIZACIÓN. CONCEPTOS BÁSICOS...- CONCAVIDAD Y CONVEXIDAD DE FUNCIONES. La determinación de la concavidad y conveidad de unciones nos ayudará a establecer si una solución optima local es también una

Más detalles

Aplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa:

Aplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa: Aplicaciones de la Optimización Convea al análisis de redes Bibliograía optimización convea: Nonlinear Programming: nd Edition. by Dimitri P. Bertseas. ISBN: - 88659--. Publication: 999 Conve Optimization,

Más detalles

TEMA 5.6 PROGRAMACIÓN NO LINEAL

TEMA 5.6 PROGRAMACIÓN NO LINEAL TEMA 5.6 PROGRAMACIÓN NO LINEAL 5.6.. INTRODUCCIÓN 5.6.. CONCEPTOS BÁSICOS 5.6.. MÉTODO O DE NEWTON ONSN SIN RESTRICCIONES S 5.6.4. MÉTODO DE NEWTON CON RESTRICCIONES. FUNCIONES DE PENALIZACIÓN. INTRODUCCIÓN

Más detalles

OPTIMIZACIÓN VECTORIAL

OPTIMIZACIÓN VECTORIAL OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de

Más detalles

OPTIMIZACIÓN CLÁSICA. En el problema de optimización

OPTIMIZACIÓN CLÁSICA. En el problema de optimización OPTIMIZACIÓN CLÁSICA Definición En el problema de optimización ( ) ópt f (x 1,..., x n ), (x 1,..., x n ) F D el conjunto F recibe el nombre de conjunto factible y la función f el de función objetivo.

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Clase 9 Programación No Lineal

Clase 9 Programación No Lineal Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 9 Programación No Lineal ICS 110 Optimización Profesor : Claudio Seebach Apuntes de Clases

Más detalles

Máximos y mínimos de una función real de dos variables reales

Máximos y mínimos de una función real de dos variables reales Máimos mínimos de una unción real Deinición Sea D una región del plano Sea :D R Se dice que alcanza su valor máimo absoluto M en un punto P (, ) D cuando M (, ) (,) (,) D Se dice que tiene un máimo relativo

Más detalles

Programación NO Lineal (PNL) Optimización sin restricciones

Programación NO Lineal (PNL) Optimización sin restricciones Programación NO Lineal (PNL) Optimización sin restricciones Ejemplos de los problemas que se aplica la programación NO Lineal: Problema de transporte con descuentos por cantidad : El precio unitario de

Más detalles

( ) ( ( ) ( ) ) ( ( ) ( x) ( 2) ( ) ( ) ( )

( ) ( ( ) ( ) ) ( ( ) ( x) ( 2) ( ) ( ) ( ) Modelo. Problema B.- Caliicación máima: puntos) La igura representa la gráica de una unción : [ 6; 5] R. Contéstese razonadamente a las preguntas planteadas.? a) Para qué valores de es > b) En qué puntos

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Máximos y mínimos de una función real de dos variables reales

Máximos y mínimos de una función real de dos variables reales Máimos mínimos de una unción real Deinición Sea D una región del plano Sea :D R Se dice que alcanza su valor máimo absoluto M en un punto P =, ) D cuando M =, ),),) D Se dice que tiene un máimo relativo

Más detalles

Extremos de funciones de dos variables 1.- Sea z = f(x, y) una función cuyas derivadas parciales son continuas en afirmarse que:

Extremos de funciones de dos variables 1.- Sea z = f(x, y) una función cuyas derivadas parciales son continuas en afirmarse que: Etremos de unciones de dos variables 1.- Sea z = (, ) una unción cuas derivadas parciales son continuas en airmarse que: a) alcanza sus valores máimo mínimo absolutos en R. b) es dierenciable en todo punto

Más detalles

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1

José Francisco Tudón Maldonado Mario Roberto Urbina Núñez. Funciones de Mérito en Ecuaciones No Lineales. i=1 n. = r i (x) i=1 Funciones de mérito José Francisco Tudón Maldonado Mario Roberto Urbina Núñez 9 de abril de 011 1 Introducción Las funciones de mérito surgen para determinar en un algoritmo que resuelve un problema de

Más detalles

R. Puede. a) f alcanza sus valores máximo y mínimo absolutos en R. X b) f es diferenciable en todo punto de R. ' ' , para algún punto

R. Puede. a) f alcanza sus valores máximo y mínimo absolutos en R. X b) f es diferenciable en todo punto de R. ' ' , para algún punto Etremos de unciones de dos variables Etremos de unciones de dos variables 1.- Sea z = (, ) una unción cuas derivadas parciales son continuas en airmarse que: a) alcanza sus valores máimo mínimo absolutos

Más detalles

Análisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM

Análisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM Departamento de Matemáticas. ITAM. 2011. Consideraciones http://allman.rhon.itam.mx/ jmorales Temas del curso + bibliografía. Exámenes, proyectos. Aprender haciendo Trabajo individual Consideraciones http://allman.rhon.itam.mx/

Más detalles

Dualidad y postoptimización

Dualidad y postoptimización Dualidad y postoptimización José María Ferrer Caja Universidad Pontificia Comillas Definición A cada problema de optimización lineal le corresponde otro que se denomina problema dual En forma canónica

Más detalles

Jesús Getán y Eva Boj. Marzo de 2014

Jesús Getán y Eva Boj. Marzo de 2014 Optimización con restricciones de igualdad Jesús Getán y Eva Boj Facultat d Economia i Empresa Universitat de Barcelona Marzo de 2014 Jesús Getán y Eva Boj Optimización con restricciones de igualdad 1

Más detalles

Multiplicadores de Lagrange y dualidad

Multiplicadores de Lagrange y dualidad Multiplicadores de Lagrange y dualidad Problemas con solo restricciones de igualdad Sea x* un mínimo local y regular ( : son linealmente independientes), entonces existen tales que: Interpretación y ejemplos.

Más detalles

UNIDAD TEMÁTICA XIII

UNIDAD TEMÁTICA XIII FUNCIONES DE UNA SOLA VARIABLE UNIDAD TEMÁTICA XIII XIII.1 INTRODUCCIÓN Las funciones de una variable son las más simples dentro del análisis funcional, y mediante ellas se puede describir muchos problemas

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

Programación Lineal. - Si no: Sea j tal que c

Programación Lineal. - Si no: Sea j tal que c Programación Lineal El objetivo de este documento es hacer una breve introducción a la programación lineal que pueda contribuir al fácil manejo de la aplicación. La programación lineal es un procedimiento

Más detalles

Funciones Reales de Varias Variables

Funciones Reales de Varias Variables UNIVERSIDAD NACIONAL DE INGENIERIA Facultad de Ingeniería Mecánica Curso: Cálculo Vectorial Funciones Reales de Varias Variables Pro: Hermes Pantoja C. NOTA HISTORICA. Mar Faira Somerville (1780-187).

Más detalles

PROGRAMACIÓN MATEMÁTICA

PROGRAMACIÓN MATEMÁTICA PROGRAMACIÓN MATEMÁTICA TEMA 1. INTRODUCCIÓN A LA PROGRAMACIÓN MATEMÁTICA. CONJUNTOS CONVEXOS. CONVEXIDAD DE UNA FUNCIÓN. PLANTEAMIENTO FORMAL DEL PROBLEMA DE PROGRAMACION MATEMATICA. - Función Objetivo:

Más detalles

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c Programación lineal (+ extensiones). Objetivos y panorama del curso. Departamento de Matemáticas. ITAM. 2008. Introducción Programación lineal http://allman.rhon.itam.mx/ jmorales La programación lineal

Más detalles

Repaso de Matemáticas ticas 1. Microeconomía Douglas Ramírez

Repaso de Matemáticas ticas 1. Microeconomía Douglas Ramírez Repaso de Matemáticas ticas Microeconomía Douglas Ramírez Relaciones Matemáticas ticas Funciones Optimización Relaciones entre variables El objetivo de cualquier disciplina cientíica es descubrir que variables

Más detalles

UNIDAD 9 DERIVADAS Y APLICACIONES. 1. TASA DE VARIACIÓN MEDIA. Se define la tasa de variación media de una función f ( x) y = en un intervalo [ b]

UNIDAD 9 DERIVADAS Y APLICACIONES. 1. TASA DE VARIACIÓN MEDIA. Se define la tasa de variación media de una función f ( x) y = en un intervalo [ b] IES Padre Poveda (Guadi UNIDAD 9 DERIVADAS Y APLICACIONES. TASA DE VARIACIÓN MEDIA. Se deine la tasa de variación media de una unción y en un intervalo [ b] T. V. M. [ a, b] a, como: ( ( a b a ( a, a,

Más detalles

OPTIMIZACION CLASICA. M.C. Héctor Martínez Rubin Celis 1

OPTIMIZACION CLASICA. M.C. Héctor Martínez Rubin Celis 1 OPTIMIZACION CLASICA M.C. Héctor Martínez Rubin Celis Máimos y Mínimos Locales Funciones Decrecientes y Crecientes f '() f ( ) Gráfica de f ( ) + Crece Sube - Decrece Baja Cuando una gráfica cambia en

Más detalles

Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas

Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas. Clasificación de Sistemas Clasificación de Sistemas Clasificación de Sistemas Simples, complicados o complejos Deterministas o probabilistas Centralizados o distribuidos Reactivos o proactivos Rígidos o adaptativos Simples, complicados

Más detalles

Unidad didáctica 1. Introducción a las funciones de varias variables 9. Objetivos de la Unidad... 11

Unidad didáctica 1. Introducción a las funciones de varias variables 9. Objetivos de la Unidad... 11 ÍNDICE SISTEMÁTICO PÁGINA Sumario... 5 Prólogo... 7 Unidad didáctica 1. Introducción a las funciones de varias variables 9 Objetivos de la Unidad... 11 1. Conceptos básicos de topología en R n... 12 1.1.

Más detalles

TEMA 12 INICIACIÓN AL CÁLCULO DE DERIVADAS. APLICACIONES

TEMA 12 INICIACIÓN AL CÁLCULO DE DERIVADAS. APLICACIONES Tema Derivadas. Aplicaciones Matemáticas I º Bacillerato TEMA INICIACIÓN AL CÁLCULO DE DERIVADAS. APLICACIONES TASA DE VARIACIÓN MEDIA DE UNA FUNCIÓN EN UN INTERVALO EJERCICIO : Halla la tasa de variación

Más detalles

1 x. y = en los puntos de intersección con la recta. La ecuación de una recta en forma punto pendiente es y y = m x x, entonces las rectas pedidas son

1 x. y = en los puntos de intersección con la recta. La ecuación de una recta en forma punto pendiente es y y = m x x, entonces las rectas pedidas son Eamen de Cálculo Dierencial Curso / Opción A Ejercicio. (Puntuación máima: puntos) Halla las ecuaciones de las rectas tangentes a la curva y. e y en los puntos de intersección con la recta Calculemos los

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Tema Derivadas. Aplicaciones Matemáticas CCSSI 1º Bachillerato 1

Tema Derivadas. Aplicaciones Matemáticas CCSSI 1º Bachillerato 1 Tema Derivadas. Aplicaciones Matemáticas CCSSI 1º Bachillerato 1 EJERCICIO : A partir de la gráica de (): a b c Cuáles son los puntos de corte con los ejes? Di cuáles son sus asíntotas. Indica la posición

Más detalles

Optimización de Problemas no lineales.

Optimización de Problemas no lineales. Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN34A: Clase Auxiliar Optimización de Problemas no lineales. Marcel Goic F. Esta es una versión bastante

Más detalles

TEMA 3. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: CONDICIONES DE KUHN TUCKER

TEMA 3. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: CONDICIONES DE KUHN TUCKER e-mail: imozas@el.uned.es https://www.innova.uned.es/webpages/ilde/web/inde.htm TEMA 3. OPTIMIZACIÓN CON RESTRICCIONES DE DESIGUALDAD: CONDICIONES DE KUHN TUCKER Observemos que minimizar f() equivale a

Más detalles

METODOS NUMERICOS CATEDRA 1 1. Ingeniería Civil ING.CRISTIANCASTROP. Facultad de Ingeniería de Minas, Geología y Civil

METODOS NUMERICOS CATEDRA 1 1. Ingeniería Civil ING.CRISTIANCASTROP. Facultad de Ingeniería de Minas, Geología y Civil CATEDRA 1 1 Facultad de Ingeniería de Minas, Geología y Civil Departamento académico de ingeniería de minas y civil METODOS NUMERICOS Ingeniería Civil ING.CRISTIANCASTROP. Capitulo XI OPTIMIZACIÓN EN INGENIERÍA

Más detalles

Jorge Hans Alayo Gamarra 15 de abril de Definición del problema: Determinación de precio de la reserva en un mercado eléctrico centralizado

Jorge Hans Alayo Gamarra 15 de abril de Definición del problema: Determinación de precio de la reserva en un mercado eléctrico centralizado Imlementación de un algoritmo de punto interior para problemas de programación lineal: aplicación a la determinación del precio de la reserva de electricidad Jorge Hans Alayo Gamarra 15 de abril de 2012

Más detalles

INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS

INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS 1 Índice 1. Minimización irrestricta 6 1.1. Condiciones de Optimalidad............................. 6 1.2. Métodos de descenso.................................

Más detalles

Valores máximos y mínimos para funciones de dos o más variables.

Valores máximos y mínimos para funciones de dos o más variables. Pro. Enrique Mateus Nieves Valores máimos mínimos para unciones de dos o más variables. Una unción de dos variables tiene en a,b : Si, a,b cuando, está cerca de a,b. (esto quiere decir que, a,b pata todos

Más detalles

Método lagrangiano. En el método de Jacobi, sea que el vector Λ represente los coeficientes de sensibilidad; esto es.

Método lagrangiano. En el método de Jacobi, sea que el vector Λ represente los coeficientes de sensibilidad; esto es. Método lagrangiano. En el método de Jacobi, sea que el vector Λ represente los coeficientes de sensibilidad; esto es Entonces, Λ = Y0 J 1 = f g f Λ g = 0 Esta ecuación satisface las condiciones necesarias

Más detalles

Optimización en Ingeniería

Optimización en Ingeniería Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El Concepto de Penalización Un método de

Más detalles

APLICACIONES DE LA DERIVADA

APLICACIONES DE LA DERIVADA º Bachillerato Trino Grau Fernández APLICACIONES DE LA DERIVADA RECTA TANGENTE Escribe e 0 EJERCICIO : la ecuación de la rectatangente a la curva en 0. Ordenada del punto: (0) Pendiente de la recta: e

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia 4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt

Más detalles

2. Derivadas parciales y derivadas direccionales de un campo escalar.

2. Derivadas parciales y derivadas direccionales de un campo escalar. GRADO DE INGENIERÍA AEROESPACIAL. CURSO 0.. Derivadas parciales derivadas direccionales de un campo escalar. El cálculo de varias variables es básicamente el cálculo de una variable, aplicado a varias

Más detalles

Derivada. lim 5x. Derivada por definición. Sea y = f (x) una función que depende de x. Se define la derivada de dicha función como otra función: lim h

Derivada. lim 5x. Derivada por definición. Sea y = f (x) una función que depende de x. Se define la derivada de dicha función como otra función: lim h S_A._LECV Derivada Derivada por deinición. Sea y = una unción que depende de. Se deine la derivada de dica unción como otra unción: La simbología de la derivada es y y Analíticamente la derivada es un

Más detalles

Optimización de Procesos

Optimización de Procesos Optimización de Procesos Tier I: Métodos Matemáticos de Click to edit Master title style Optimización Sección 3: Programación No Lineal Introducción a la Programación No Click to edit Master title style

Más detalles

Optimización con restricciones de desigualdad. Yolanda Hinojosa

Optimización con restricciones de desigualdad. Yolanda Hinojosa Optimización con restricciones de desigualdad Yolanda Hinojosa Contenido Optimización no lineal con restricciones de desigualdad. Condiciones necesarias y suficientes de óptimo Análisis de sensibilidad.

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

CAPÍTULO 2 PROGRAMACIÓN NO LINEAL. Programación No Lineal

CAPÍTULO 2 PROGRAMACIÓN NO LINEAL. Programación No Lineal CAPÍTULO 2 PROGRAMACIÓN NO LINEAL Programación No Lineal Capítulo 2: Programación No Lineal mín (ó máx)f(x) s.a. x S R n No existe un método que permita resolver cualquier problema de programación no lineal.

Más detalles

Cálculo en varias variables

Cálculo en varias variables Cálculo en varias variables Dpto. Matemática Aplicada Universidad de Málaga Resumen Límites y continuidad Funciones de varias variables Límites y continuidad en varias variables 1 Límites y continuidad

Más detalles

METODOS DE SOLUCION DE SISTEMAS DE ECUACIONES

METODOS DE SOLUCION DE SISTEMAS DE ECUACIONES Jacobi El método de Jacobi es un proceso simple de iteraciones de punto fijo en la solución de raíces de una ecuación. La iteración de punto fijo tiene dos problemas fundamentales : Algunas veces no converge

Más detalles

APLICACIONES DE LAS DERIVADAS

APLICACIONES DE LAS DERIVADAS APLICACIONES DE LAS DERIVADAS. Monotonía: Crecimiento y decrecimiento de una unción. Determinación de etremos relativos. Optimización de unciones. Curvatura: Concavidad o curvatura de una unción 5. Puntos

Más detalles

Forma estándar de un programa lineal

Forma estándar de un programa lineal Forma estándar de un programa lineal Sin pérdida de generalidad, todo programa lineal se puede escribir como: min cx s.t Ax = b x 0 Objetivo: minimizar Todas las desigualdades como ecuaciones Todas las

Más detalles

(x x 0 ) y 0. O bien z z 0 = x 0. y notamos a este límite ᾱ (t 0 ) = dᾱ dt (t 0).

(x x 0 ) y 0. O bien z z 0 = x 0. y notamos a este límite ᾱ (t 0 ) = dᾱ dt (t 0). O bien z z 0 = x 0 z 0 (x x 0 ) y 0 z 0 (y y 0 ). Para obtener la ecuación cartesiana de este plano hacemos x 0 (x x 0 )+y 0 (y y 0 )+z 0 (z z 0 ) = 0, como x 0 + y0 + z0 = x 0 + y0 + r (x 0 + y0) = r

Más detalles

Jesús Getán y Eva Boj. Marzo de 2014

Jesús Getán y Eva Boj. Marzo de 2014 Jesús Getán y Eva Boj Facultat d Economia i Empresa Universitat de Barcelona Marzo de 2014 Jesús Getán y Eva Boj 1 / 51 Formulación general del problema Óptimos locales Condición de regularidad Condiciones

Más detalles

c j (x) 0 j D c j (x) = 0 j I

c j (x) 0 j D c j (x) = 0 j I INTRODUCCIÓN A LA OPTIMIZACIÓN 1. Introducción 1.1. Generalidades. Dado un conjunto X y una función f : X R (la funciónobjetiva), se desea determinar x X tal que, para todo x X valga f(x) f(x ). La variable

Más detalles

Forma estándar de un PPL con m restricciones y n variables. (b 0)

Forma estándar de un PPL con m restricciones y n variables. (b 0) Forma estándar de un PPL con m restricciones y n variables Maximizar (minimizar) Z = c 1 x 1 + c 2 x 2 +... + c n x n a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 +a 22 x 2 +... + a 2n x n = b 2...

Más detalles

GRÁFICA DE FUNCIONES

GRÁFICA DE FUNCIONES GRÁFICA DE FUNCIONES. Función cuadrática. Potencia. Eponencial 4. Logarítmica 5. Potencia de eponente negativo 6. Seno 7. Coseno 8. Tangente 9. Valor absoluto. Dominio. Puntos de corte con los ejes. Simetrías.

Más detalles

f x e ; b) Teniendo en cuenta la gráfica anterior,

f x e ; b) Teniendo en cuenta la gráfica anterior, MATEMÁTICAS II. º BTO A Fecha: -- ANÁLISIS: C El eamen se realiará con tinta de un solo color: aul ó negro Se valorará positivamente: ortograía, redacción, márgenes, presentación clara ordenada Todas las

Más detalles

Introducción a la Programación Matemática. Yolanda Hinojosa

Introducción a la Programación Matemática. Yolanda Hinojosa Introducción a la Programación Matemática Yolanda Hinojosa Contenido Planteamiento general de un problema de programación matemática. Convexidad. ANEXO: Derivadas Sucesivas. Fórmula de Taylor. Clasificación

Más detalles

1. Sensibilidad en caso de restricciones de igualdad

1. Sensibilidad en caso de restricciones de igualdad FACULTAD CS. FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA57B Optimización No Lineal. Semestre 2007-1 Profesor: Héctor Ramírez C. Auxiliar: Oscar Peredo. Clase Auxiliar #4 Análisis de Sensibilidad en Optimización

Más detalles

BLOQUE 1 [2.5 PUNTOS]

BLOQUE 1 [2.5 PUNTOS] LOQUE [. PUNTOS] CUESTIÓN.- a) Enuncie el teorema de Rouche-Fröbenius [. puntos] b) Discuta, en unción de los valores del parámetro a, el siguiente sistema de ecuaciones ay z a lineales: ay az [ puntos]

Más detalles

SOLUCIONES EJERCICIOS DERIVADAS

SOLUCIONES EJERCICIOS DERIVADAS SOLUCIONES EJERCICIOS DERIVADAS Ejercicio nº. Calcula '(), utilizando la deinición de derivada, siendo: () 5 ' ( ) () ( ) 5( ) 8 (4 4 ) 0 5 8 ( ) lím lím lím 8 8 lím 0 5 8 lím lím ( ) lím ( ) Ejercicio

Más detalles

Métodos iterativos para resolver sistemas de ecuaciones lineales

Métodos iterativos para resolver sistemas de ecuaciones lineales Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/

Más detalles

x + y + bz = a x + y + az = b bx + ay + 4z = 1

x + y + bz = a x + y + az = b bx + ay + 4z = 1 UC3M Matemáticas para la Economía Eamen Final, 3 de junio de 017 RESUELTO 1 Dados los parámetros a y b, se considera el sistema de ecuaciones lineales + y + bz = a + y + az = b b + ay + 4z = 1 (a) (5 puntos)

Más detalles

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 4 Optimización no Lineal ORGANIZACIÓN DEL TEMA Sesiones: El caso sin restricciones: formulación, ejemplos Condiciones de optimalidad, métodos Caso con restricciones:

Más detalles

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria.

Dualidad 1. 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. 5 Condiciones de holgura complementaria. Dualidad 1 1 Formas simétricas. 2 Relación primal-dual. 3 Dualidad: el caso general. 4 Teoremas de dualidad. Condiciones de holgura complementaria. 6 Solución dual óptima en la tabla. 7 Interpretación

Más detalles

Tema 3 Optimización lineal. Algoritmo del simplex

Tema 3 Optimización lineal. Algoritmo del simplex Tema 3 Optimización lineal. Algoritmo del simplex José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 3 Teorema fundamental de la programación lineal. Algoritmo

Más detalles

1 Matrices y Sistemas lineales de ecuaciones

1 Matrices y Sistemas lineales de ecuaciones Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 1 Matrices y Sistemas lineales de ecuaciones Sea M n m = M n m (R) el espacio vectorial de las matrices reales con n ilas y m columnas.

Más detalles

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker

Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker Tema 5 Dualidad y condiciones de Karush-Kuhn-Tucker José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 5 Condiciones de Karush-Kuhn-Tucker (KKT). Problemas

Más detalles

L [1] ( ) = 1 L [ ( )] ( ) =2 L[1] ( )+L[( 3) 3 ( )] ( ) = 2 + 3

L [1] ( ) = 1 L [ ( )] ( ) =2 L[1] ( )+L[( 3) 3 ( )] ( ) = 2 + 3 Ampliación de Matemáticas II Grado en Ingeniería en Tecnologías Industriales Convocatoria 9 Junio 5. ( puntos) Resolver utilizando la transformada de Laplace la ED ( + + +( 3) 3 (), (), (). Determinar

Más detalles

Tema 4 Funciones convexas y optimización convexa

Tema 4 Funciones convexas y optimización convexa Tema 4 Funciones convexas y optimización convexa José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 4 Repaso de algunos resultados sobre optimización de funciones.

Más detalles

INTRODUCCIÓN A LA MATEMÁTICA SUPERIOR OPERACIONES CON FUNCIONES. Suma, diferencia, producto y cociente de funciones

INTRODUCCIÓN A LA MATEMÁTICA SUPERIOR OPERACIONES CON FUNCIONES. Suma, diferencia, producto y cociente de funciones INTRODUCCIÓN A LA MATEMÁTICA SUPERIOR OPERACIONES CON FUNCIONES Suma, dierencia, producto y cociente de unciones Terminología Valor de la unción Dominio Suma g g + g D D + Dierencia g ( g) g Producto g

Más detalles

2 Prueba de desarrollo. -Independencia lineal. -Ejemplos de independencia lineal. -Aplicaciones a la Economía.

2 Prueba de desarrollo. -Independencia lineal. -Ejemplos de independencia lineal. -Aplicaciones a la Economía. Asignatura de: ECONOMÍA MATEMÁTICA I CALENDARIZACIÓN DE CONTENIDOS Modalidad Presencial 018 Asignatura: Al finalizar la asignatura, el de analizar el álgebra lineal, cálculo diferencial, integrales múltiples,

Más detalles

Se desea resolver el problema. P : mín f(x) (5.1)

Se desea resolver el problema. P : mín f(x) (5.1) Capítulo 5 Teoría Lagrangiana 5.1. Condiciones para problemas con restricciones de igualdad. Se desea resolver el problema P : mín f(x) (5.1) s.a : h i (x) = 0 i = 1, 2..., m donde f : IR n IR y h i :

Más detalles

TEMA 12 INTRODUCCIÓN A LA OPTIMIZACIÓN

TEMA 12 INTRODUCCIÓN A LA OPTIMIZACIÓN TEMA 12 INTRODUCCIÓN A LA OPTIMIZACIÓN Preparación y Requisitos Objetivos Distinguir extremos locales de globales Utilizar las condiciones necesarias y/o suficientes para calcular los extremos de funciones

Más detalles

El reconocimiento de patrones desde un punto de vista estadístico es la selección o extracción de características.

El reconocimiento de patrones desde un punto de vista estadístico es la selección o extracción de características. ANÁLISIS DE COMPONENTES PRINCIPALES El reconocimiento de patrones desde un punto de vista estadístico es la selección o extracción de características Esta selección se refiere a procesos donde el espacio

Más detalles

Detección de Esquinas y Vértices

Detección de Esquinas y Vértices Detección de Esquinas Vértices Departamento de Automática, Ingeniería Electrónica e Inormática Industrial Universidad Politécnica de Madrid Detección de Esquinas Vértices José María Sebastián http://www.disam.upm.es/vision

Más detalles

12.1 CRECIMIENTO DE UNA FUNCIÓN EN UN INTERVALO

12.1 CRECIMIENTO DE UNA FUNCIÓN EN UN INTERVALO INICIACIÓN AL CÁLCULO DE DERIVADAS. APLICACIONES. CRECIMIENTO DE UNA FUNCIÓN EN UN INTERVALO TASA DE VARIACIÓN MEDIA Deinición Se llama tasa de variación media (T.V.M.) de una unción, y = () en un intervalo

Más detalles

Clase 3: Aplicaciones de programación

Clase 3: Aplicaciones de programación Clase 3: Aplicaciones de programación dinámica Matemática avanzada para macroeconomía Hamilton Galindo Junio - Agosto 2015 Contenido 1 2 Modelo de Hercowitz y Sampson (1991) I Preliminares 1 Este modelo

Más detalles

TEMA 2. FUNCIONES REALES DE VARIABLE REAL 2.4. APLICACIONES DE LA DERIVABILIDAD

TEMA 2. FUNCIONES REALES DE VARIABLE REAL 2.4. APLICACIONES DE LA DERIVABILIDAD TEMA. FUNCIONES REALES DE VARIABLE REAL.4. APLICACIONES DE LA DERIVABILIDAD .4. APLICACIONES DE LA DERIVABILIDAD.4.1. Intervalos de crecimiento y decrecimiento.4.. Etremos locales de una función.4.3. Intervalos

Más detalles

1 CALCULO AVANZADO EN ESPACIOS DE VARIABLES REALES Y COMPLEJAS. (1.1_CvR_T_061, Revisión: , C1-C2)

1 CALCULO AVANZADO EN ESPACIOS DE VARIABLES REALES Y COMPLEJAS. (1.1_CvR_T_061, Revisión: , C1-C2) CALCULO AVANZADO EN ESPACIOS DE VARIABLES REALES Y COMPLEJAS. (._CvR_T_6, Revisión: 9-8-6, C-C). FUNCIONES, LIMITES Y CONTINUIDAD.. DEFINICIONES BÁSICAS. FUNCIÓN: - Regla que asigna un valor () para cada

Más detalles

Breve sobre Kuhn-Tucker

Breve sobre Kuhn-Tucker Breve sobre Kuhn-Tucker Alejandro Lugon 20 de agosto de 2010 Resumen Se presentan a manera de manual de referencia los resultados relevantes para la solución de problemas de maximización usando los resultados

Más detalles

5.- Problemas de programación no lineal.

5.- Problemas de programación no lineal. Programación Matemática para Economistas 7 5.- Problemas de programación no lineal..- Resolver el problema Min ( ) + ( y ) s.a 9 5 y 5 Solución: En general en la resolución de un problema de programación

Más detalles

Optimización de Problemas de Producción

Optimización de Problemas de Producción Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de

Más detalles

4.5 Algoritmo RLS (Recursive Least Squares)

4.5 Algoritmo RLS (Recursive Least Squares) 4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de

Más detalles

Unidad didáctica 11: Ecuaciones no lineales. Aproximaciones sucesivas. Método de Newton-Raphson. Ejercicios.

Unidad didáctica 11: Ecuaciones no lineales. Aproximaciones sucesivas. Método de Newton-Raphson. Ejercicios. Unidad didáctica 11: Ecuaciones no lineales. Aproimaciones sucesivas. Método de Newton-Raphson. Ejercicios. Israel Cañamón Valera Dto. de Matemática Aplicada y Métodos Inormáticos. E.T.S.I. Minas 1 ÍNDICE

Más detalles

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex. El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.

Más detalles

Pruebas de Acceso a enseñanzas universitarias oficiales de grado Castilla y León

Pruebas de Acceso a enseñanzas universitarias oficiales de grado Castilla y León Pruebas de Acceso a enseñanzas universitarias oficiales de grado Castilla y León MATEMÁTICAS II EJERCICIO Nº páginas: INDICACIONES:.- OPTATIVIDAD: El alumno deberá escoger una de las dos opciones, pudiendo

Más detalles

UNIDAD 5: FUNCIONES. CARACTERÍSTICAS

UNIDAD 5: FUNCIONES. CARACTERÍSTICAS I.E.S. Ramón Giraldo UNIDAD 5: FUNCIONES. CARACTERÍSTICAS. CONCEPTO DE FUNCIÓN Una unción real de variable real es una correspondencia de un conjunto D en el conjunto de los números reales, es decir, una

Más detalles

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011 Método de Newton Cálculo numérico. Notas de clase. 25 de abril, 2011 La resolución de sistemas de ecuaciones algebraicas no lineales de la forma F(x) = 0, F : R n R n, (1) en donde F es una función continua

Más detalles