OPTIMIZACIÓN VECTORIAL
|
|
- María José Maestre Córdoba
- hace 7 años
- Vistas:
Transcripción
1 OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)
2 OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)
3 Métodos de búsqueda directa Son útiles cuando no se conoce el gradiente de la función Eisten técnicas: Heurísticas: El método del simple Teóricas: Método de las direcciones conjugadas de Powell Método Simple Geométricamente el elemento que requiere menos puntos para su construcción => Simple regular, que en dimensión N es un poliedro compuesto de N+ puntos equidistantes que forman sus vértices triángulo, tetraedro,...).
4 Método Simple X) X2) X3) Se sitúa un simple regular en el espacio de las variables independientes X) X2) X3) X4) El vértice con mayor valor de la función se refleja a través del centroide Este punto se utiliza para formar un nuevo simple Este procedimiento se repite hasta que se encuentre el mínimo o se encuentre uno de los siguientes casos:
5 Método Simple 2. El valor de la función en el peor punto y el punto reflejado sea el mismo. 2 3 En este caso se debe elegir el siguiente vértice que tenga el valor de la función más elevado 4 2. Cuando se llega a un ciclo En este caso se debe reducir el simple en un determinado factor y empezar el procedimiento a partir del simple nuevo 3. Criterio de terminación
6 Implementación del Método Simple Requiere de dos cálculos:. Generación de un simple regular de dimensión N, dado un punto base 0 y un factor de escala = + = + = N,,2, j i, j i δ j i δ 2 0) j 0) j i) j K α ) ) α + = δ α + + = δ 2 N N 2 N N N 2 2 2
7 Implementación del Método Simple 2 2. Cálculo del punto reflejado: Supongamos que j) es el punto que será reflejado. Entonces el centroide de los restantes N puntos será c = N N i= 0 i j Todos los puntos sobre la línea desde j) hasta c vienen dados por: = ) i j) j) + λ ) λ = 0 j) = λ = = c λ = 2 j) j) = 2 nueva c c anterior
8 Ventajas y desventajas del Método Ventajas. Cálculos simples y lógica no complicada 2. Los requerimientos de almacenamiento son bajos array de N+,N+2)) 3. Pocos parámetros de ajuste factor de escala y parámetros de terminación) Desventajas. Problemas de escala, todos los vértices utilizan la misma 2. El algoritmo es lento, no utiliza información pasada 3. No eiste una forma simple de epandir el simple sin calcular el patrón completo. Si α se reduce la búsqueda tiene que continuar con este tamaño de paso. α
9 Método del simple modificado Método de Nedler y Mead: no hay que mantener la regularidad del simple en el procedimiento de búsqueda: epansiones y contracciones. h) es el punto con mayor valor de la función, g) el siguiente punto más grande y l) el punto con menor valor de la función. El punto reflejado es: = h) + + θ) c - h) ) θ = => algoritmo original; θ = α - θ => contracción; θ = β = 0.5 θ > => epansión; θ = γ = 2 Se hace una refleión normal y se chequea por una contracción o epansión según las condiciones:
10 Método del simple modificado X h) X new X h) X new z a) Refleión normal: f l) ) < f new ) < f g) ) b) Epansión: f new ) < f l) ) X h) z X new X h) z X new c) Contracción: f g) ) < f new ) < f h) ) d) Contracción negativa: f new ) > f g) ) y f new ) f h) )
11 Direcciones conjugadas de Powell I) Se aproima la función objetivo por una función cuadrática. Si una función cuadrática de N variables puede transformarse en la suma de N cuadrados perfectos, el óptimo se encuentra con N búsquedas de una variable. q) = a + b T + /2 T C Hay que encontrar una matriz de transformación T tal que el término cuadrático sea diagonal: = Tz Q) = T C = z T T T C T z = z T D z Se está escribiendo el vector en un nuevo sistema de coordenadas t j, llamadas direcciones conjugadas. Sólo queda encontrar estas direcciones. = Tz = t z + t 2 z t n z n
12 Direcciones conjugadas de Powell II) Propiedad del subespacio paralelo: dada una función cuadrática q), dos puntos arbitrarios ) y 2) y una dirección d; si y ) es la solución al problema min q ) + λd) e y 2) es la solución de min q 2) + λd) entonces la dirección y 2) -y ) ) es C conjugada de d. ) y ) d Direcciones C-conjugadas: es un conjunto de vectores linealmente independientes que diagonalizan la matriz C, es decir: 2) y 2) S it C S j = 0 i j
13 Direcciones conjugadas de Powell III) Propiedad etendida del subespacio paralelo: 2) 3) e 2) 0) e ) ) Calcular: λ 0) mínimo f ) = 0) + λ 0) e ) λ ) mínimo f 2) = ) + λ ) e 2 ) λ 2) mínimo f 3) = 2) + λ 2) e ) s = 3) - ) es C-conjugada de e y e 2 Repetir procedimiento con e 2 y s
14 Direcciones conjugadas de Powell IV) Algoritmo:.- Definir 0) y un conjunto de direcciones independientes s i) = e i), i=,...,n 2.- Minimizar a lo largo de N+ direcciones usando el mínimo anterior y poner s N) como primera y última dirección de búsqueda 3.- Construir la nueva dirección conjugada 4.- Borrar s ), reemplazarla por s 2), etc. Poner la nueva dirección en s N) e ir al paso 2. Incluir: Un chequeo de convergencia Test para asegurar la independencia lineal de las direcciones conjugadas
15 Métodos de solución de problemas sin restricciones optimización vectorial) Métodos de Búsqueda Directa Utilizan los valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)
16 Métodos del Gradiente X +) = ) + α ) s ) ). Tamaño del paso del algoritmo: α ) 2. Vector de Dirección de búsqueda: s ) ) 3. Algoritmo del gradiente y método del Descenso más pronunciado
17 Significado Geométrico del vector gradiente Epansión en serie de Taylor de la función alrededor de * : f) = f * ) + f * ) f * ) es fijo por tanto el segundo término dictará el descenso de f) => s ) ) = - f ) )
18 Tamaño del paso del algoritmo 2 α f α) + d + ) = f αd ) min f + αd ) f + α ) puede ser constante método del gradiente) o calcularse en cada iteración de forma que f +) ) sea mínimo a lo largo de la dirección - f ) ) método del descenso más pronunciado) α α
19 Algoritmo del Método del Descenso más pronunciado. Selección de un punto inicial 0, e g. La iteración =0 2. Calcular f ). Parar si f ) e g. De lo contrario, definir el vector : s = s ) = - f ) 3. Obtener α de minimizar f α) = f + α s ). Actualizar + = + α s 4. = + y = +. Ir al paso 2. Inconveniente: Lentitud del algoritmo cerca del mímimo ya que f *) ) = 0.
20 Métodos de solución de problemas sin restricciones optimización vectorial) Métodos de Búsqueda Directa Utilizan los valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)
21 Método de Newton I) Consideramos la epansión de Taylor de la función objetivo: ) f ) = f + 2 ) )) T T 2 )) 3 + f + f O ) Hacemos una aproimación cuadrática de f) eliminando el término de tercer orden ~ f )) ) ; = f ) )) T T 2 ) + f + f ) El siguiente punto se calcula suponiendo que el gradiente de la aproimación cuadrática es igual a cero 2
22 Método de Newton II) Utilizamos la aproimación cuadrática de f) para construir una secuencia de iteración, forzando a +), como el siguiente punto en la secuencia. f ~ )) ) ; = f ) 2 ) + f ) = 0 De aquí que: = 2 f )) ) f ) + ) ) 2 ) = f ) ) f ) Método de Optimización de Newton
23 Método de Newton III) Método modificado de Newton: α ) es tal que f +) ) sea mínimo s ) ) = - [ 2 f ) )] - f ) ) Características: asegura la dirección descendente, pero la evaluación de [ 2 f ) )] - es difícil y puede ser singular. Método de Marquardt-Lavenberg: α ) =. s ) ) = - [ 2 f ) ) + λ ) I ] - f ) ) λ ) controla la dirección de búsqueda y mejora la singularidad de la Hessiana. Se chequea la dirección descendente, si f + ) < f ) => λ +) < λ ), si no se cumple: λ ) = βλ ) con β > y se repite el paso otra vez.
24 Método de Marquadt-Lavenberg Algoritmo:.- Definir 0, estima inicial de *, M el número máimo de iteraciones y ε criterio de convergencia. 2.- = 0. λ 0 = f ) < ε?. Si ir a 0, No continuar 4.- K M?. Si ir a 0. No: continuar 5.- Calcular s ) = - [ 2 f ) ) + λ ) I ] - f ) ) 6.- Hacer + = + s ) 7.- f + ) < f )?. Si ir a 8, No: ir a Hacer λ + = 0.5* λ ; = +; Ir a Hacer λ = 2*λ. Ir a Parar.
25 Método del gradiente conjugado Se calculan direcciones conjugadas utilizando el gradiente. Aproimando la función objetivo por una función cuadrática: q) = a + b T + /2 T C q) = g) = C + b g) = C s ) = - g ) + i=0 - γ i) s i) con s 0) = - g 0) γ i) se calculan tal que s sea C- conjugado a todas las direcciones anteriores calculadas: s 0, s,..., s - Varias soluciones: Fletcher- Reeves: s ) = - g ) + [g ) 2 / g -) 2 ] s - Pola y Ribiere: s ) = - f ) + γ s -) con γ = g ) T g ) / g - ) 2
26 Métodos de Quasi-Newton I) Se diseñan para tener las mismas características de los métodos de Newton pero usando sólo derivadas primeras. La dirección de búsqueda es: S = - A f ) con A métrica A se calcula de forma recursiva: A + = A + A c A c se calcula de forma que la secuencia A 0, A,..., A + aproime la inversa de la matri hesiana: H - = [ 2 f )] - Si la función es cuadrática la matri hessiana es C, por tanto se quiere aproimar: C - = β A + y que cumpla la propiedad cuadrática: = C - g
27 Métodos de Quasi-Newton II) = β A + g ; A c g = / β A g La solución es: Método de Davidon-Fletcher-Powell: y = y z = A g = T T T T c g z z g A g y y A β + = ) ) ) ) T T T T g A g A g g A g A A
28 Métodos de Quasi-Newton III) Conserva las propiedades de simetría y definida positiva => Si A 0 es simétrica y definida positiva, A, A 2,... También. => Una solución A 0 =I Método de Boyden-Fletcher-Shannon BFS) + = + T T T T T T g g g g I A g g I A ) ) ) ) ) )
29 Algoritmo general.- Definir M: número máimo de iteraciones, 0 estima inicial, ε : criterio de convergencia, ε 2 criterio de convergencia lineal. 2.- K=0 3.- Calcula f ) 4.- f ) ε.. Si => ir a 2. No => continuar 5.- K > M. Si => ir a 2. No => continuar 6.- Calcular s ) 7.- Encontrar un α / f + α s ) sea mínimo, usando ε Hacer + = + α s 9.- f + ) < f ). Si => continuar. No =>Ir a / ε.. Si => Ir a 2. No => continuar.- Hacer K=K+. Ir a Parar
30 Formas de calcular el gradiente Calcular el gradiente de forma numérica: ε ε ε ) ) * lim 0 f e f d df i i + = = ε ε ε ε 2 ) * ) * lim 0 i i i e f e f d df + = =
31 Ejemplo
32
Optimización en Ingeniería
Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El Método de Marquardt Algoritmo Paso 1:
Más detallesPROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).
PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP. Optimización con restricciones La presencia de restricciones reduce la región en la cual buscamos el óptimo. Los criterios
Más detallesApuntes de Computación Científica I 1. Optimización
Apuntes de Computación Científica I Optimización 1. Optimización Maximización (de beneficios, flujo,...) o minimización (de costes, recursos, error,...) de una función f(x) Maximizar f(x) es minimizar
Más detallesMétodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones
Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Dr. Gonzalo Hernández Oliva UChile - Departamento de Ingeniería Matemática 07 de Mayo 2006 Abstract En este apunte veremos
Más detallesAplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa:
Aplicaciones de la Optimización Convea al análisis de redes Bibliograía optimización convea: Nonlinear Programming: nd Edition. by Dimitri P. Bertseas. ISBN: - 88659--. Publication: 999 Conve Optimization,
Más detallesIntroducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.
Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),
Más detallesIntroducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia
4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt
Más detallesEjercicio 1.- A continuación se muestra el pseudocódigo correspondiente a un método de resolución de ecuaciones no lineales.
Página de Ejercicio.- A continuación se muestra el pseudocódigo correspondiente a un método de resolución de ecuaciones no lineales. Algoritmo Paso : Asignar f 0 f( 0 ); f f( ); Paso : Repetir para i desde
Más detallesMÉTODOS INDIRECTOS PRIMER ORDEN
MÉODOS INDIRECOS PRIMER ORDEN Una buena dirección de búsqueda debe reducir la función objetivo tal que si 0 es el punto original y es el nuevo punto entonces: f ( ) f ( 2 ) Una dirección s se llama dirección
Más detallesOptimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19
Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R
Más detallesPráctica 3 Métodos de búsqueda para funciones de varias variables
Práctica 3 Métodos de búsqueda para funciones de varias variables Método de Hooke & Jeeves Este método data de 1961 y consiste en tres tipos de procedimientos: exploración, cambio de punto base y movimiento
Más detallesOptimización Multivariable irrestricta Métodos Directos
irrestricta Métodos Directos 1 Método Simplex El método Simplex Secuencial utiliza una figura geométrica regular para seleccionar puntos en los vértices de una figura en los que se debe evaluar la función.
Más detallesE.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones
ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesUniversidad Nacional Autónoma de México Facultad de Ciencias Geometría Analítica II Tarea 1
Universidad Nacional Autónoma de México Facultad de Ciencias Geometría Analítica II Tarea. Completa las igualdades usando el dibujo. γ β = α β = β + θ = θ + ε + ω = θ + ε = β + θ + ω = α + ε = β + δ =.
Más detallesALN - Curso 2007 Gradiente Conjugado
ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada
Más detallesMatemáticas para la Empresa
Matemáticas para la Empresa 1 o L. A. D. E. Curso 2008/09 Relación 1. Espacios Vectoriales 1. a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy)
Más detallesRelación 1. Espacios vectoriales
MATEMÁTICAS PARA LA EMPRESA Curso 2007/08 Relación 1. Espacios vectoriales 1. (a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy) Demuestra que IR
Más detallesMATEMÁTICAS II Examen del 28/06/2007 Solución Importante
MATEMÁTICAS II Eamen del 8/06/007 Solución Importante Las calificaciones se harán públicas en la página web de la asignatura y en el tablón de anuncios del Dpto. de Métodos Cuantitativos en Economía y
Más detallesOptimización en Ingeniería
Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El método de Nelder-Mead que vimos antes
Más detallesINTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS
INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS 1 Índice 1. Minimización irrestricta 6 1.1. Condiciones de Optimalidad............................. 6 1.2. Métodos de descenso.................................
Más detallesTEMA V. Espacios vectoriales
TEMA V. Espacios vectoriales 1 1. Demostrar que cada uno de los siguientes conjuntos tiene estructura de espacio vectorial sobre el cuerpo de los reales: a El conjunto (R 2, +,, R. b El conjunto (R 3,
Más detallesTema 4 Funciones convexas y optimización convexa
Tema 4 Funciones convexas y optimización convexa José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 4 Repaso de algunos resultados sobre optimización de funciones.
Más detallesTÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA
ESCUELA ESTUDIOS DE TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA DEPARTAMENTO DE INGENIERÍA INFORMÁTICA MATEMÁTICA APLICADA I ÁLGERA LINEAL OLETINES DE PROLEMAS Curso 8-9 Sistemas de ecuaciones lineales.
Más detallesAPLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES.
Universidad del Atlántico Revista Del Programa De Matemáticas Páginas: 40 54 Facultad de Ciencias Básicas c Programa de Matemáticas Vol. IV, No 1, (2017) APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE
Más detallesCálculo Numérico. Curso Ejercicios: Preliminares I
Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,
Más detallesJesús Getán y Eva Boj. Marzo de 2014
Jesús Getán y Eva Boj Facultat d Economia i Empresa Universitat de Barcelona Marzo de 2014 Jesús Getán y Eva Boj 1 / 51 Formulación general del problema Óptimos locales Condición de regularidad Condiciones
Más detallesCeros de Funciones: Multivariable
Ceros de Funciones: Multivariable Prof. Marlliny Monsalve 1 1 Postgrado en Ciencias de la Computación Universidad Central de Venezuela Análisis Numérico May 19, 2015 Prof. Monsalve (UCV) Ceros Multivariable
Más detallesMaestría en Matemáticas
Reactivos Propuestos para Examen de Admisión (ASN) Ingreso en Agosto de 203. Sea R el conjunto de los números reales y S el conjunto de todas las funciones valuadas en los reales con dominio en R. Muestre
Más detallesECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso ) Cuarto Curso de Ingeniero Industrial
ECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso 2009-2010) Cuarto Curso de Ingeniero Industrial Optimización y Sistemas de Ecuaciones no Lineales FUNCIONES CONVEXAS. CRITERIOS DE OPTIMALIDAD Un problema
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesOPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal
OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 4 Optimización no Lineal ORGANIZACIÓN DEL TEMA Sesiones: El caso sin restricciones: formulación, ejemplos Condiciones de optimalidad, métodos Caso con restricciones:
Más detallesEXAMEN JUNIO PP 1A SEMANA
EXAMEN JUNIO PP A SEMANA XAVI AZNAR Ejercicio. Defina semejanza, razón de semejanza y movimento asociado a una semejanza. Ejercicio. En el espacio vectorial V 3 (R) sea q la forma cuadrática cuya expresión
Más detallesÓrdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple
Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.
Más detallesFactorización QR Método iterativo de Jacobi
Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
Más detallesCálculo diferencial e integral 3
Cálculo diferencial e integral 3 Guía 1 1. Sean a 1,..., a n R n. Demuestra que el conjunto { W = x = (x 1,..., x n ) R n es un subespacio vectorial de R n. } n a i x i = 0 i=1 2. Sean W y V subespacios
Más detallesProfesores de Enseñanza Secundaria. MATEMÁTICAS. ANDALUCÍA 2018
ANDALUCÍA 8 PROBLEMA Dados la matriz A R, el vector b R, α R y el subespacio F de R A =, b = y F + = α + + = α a) Discutir y resolver cuando sea compatible el sistema AX=b con X R. b) Sea E el espacio
Más detallesOptimización de Procesos
Optimización de Procesos Tier I: Métodos Matemáticos de Click to edit Master title style Optimización Sección 3: Programación No Lineal Introducción a la Programación No Click to edit Master title style
Más detalles190. Dado el paralelepípedo OADBFCEG en el espacio afín ordinario, se considera el sistema de referencia afín R = ( O, OA, OB, OC ).
Hoja de Problemas Geometría VIII 90. Dado el paralelepípedo OADBFCEG en el espacio afín ordinario, se considera el sistema de referencia afín R O, Sean: OA, OB, OC ). OG la recta determinada por los puntos
Más detalles2 Espacios vectoriales
Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 2 Espacios vectoriales 2.1 Espacio vectorial Un espacio vectorial sobre un cuerpo K (en general R o C) es un conjunto V sobre el que hay
Más detallesAnexo 1: Algoritmos de optimización para funciones con ruido
Anexo : Algoritmos de optimización para funciones con ruido Introducción Los algoritmos que hemos visto hasta el momento no pueden ser implementados si el gradiente de la función objetivo no está disponible
Más detallesEjercicios de optimización sin restricciones
Ejercicios de optimización sin restricciones Programación Matemática Licenciatura en Ciencias y Técnicas Estadísticas Curso 5/6 Indica la dirección que el método de Newton (sin modificaciones calcularía
Más detallesEjercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y
Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS Ejercicios tipo test de las lecciones 1 y 2. 1. El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1,
Más detallesTEMA 5.6 PROGRAMACIÓN NO LINEAL
TEMA 5.6 PROGRAMACIÓN NO LINEAL 5.6.. INTRODUCCIÓN 5.6.. CONCEPTOS BÁSICOS 5.6.. MÉTODO O DE NEWTON ONSN SIN RESTRICCIONES S 5.6.4. MÉTODO DE NEWTON CON RESTRICCIONES. FUNCIONES DE PENALIZACIÓN. INTRODUCCIÓN
Más detallesCLASIFICACIÓN AFÍN DE CÓNICAS
Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS CLASIFICACIÓN AFÍN DE CÓNICAS Sea E un R-espacio vectorial de dimensión. Sean E = e 1, e un plano vectorial de E y e 0 un
Más detallesResolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto
Resolución de Ecuaciones no lineales Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Objetivos Aprender a resolver ecuaciones de la forma: f () = 0 Donde f es una función no-lineal de
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesÁlgebra Lineal. Maestría en Ciencias Matemáticas. x y + z = 1 x y z = 3 2x y z = 1. x + y + 2z = 1 4x 2ty + 5z = 2 x y + tz = 1
Álgebra Lineal Maestría en Ciencias Matemáticas Resuelva el siguiente sistema usando la factorización LU o P T LU (según sea el caso) x y + z = x y z = 3 2x y z = 2 Calcule A usando el algoritmo de Gauss-Jordan:
Más detallesIntroducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Más detallesOptimización de Problemas de Producción
Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de
Más detallesTEMA 1 Álgebra de matrices 4 sesiones. TEMA 2 Determinantes 4 sesiones. TEMA 3 Sistemas de ecuaciones 4 sesiones
1.1. MATEMÁTICAS II TEMPORALIZACIÓN Y SECUENCIACIÓN: TEMA 1 Álgebra de matrices 4 sesiones TEMA 2 Determinantes 4 sesiones TEMA 3 Sistemas de ecuaciones 4 sesiones TEMA 4 Vectores en el espacio 4 sesiones
Más detallesParte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales
Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso
Más detallesMaterial para exámen final
Cálculo 3, FAMAT-UG, aug-dic, 2006 Material para exámen final Fecha del exámen: 5 dic, 2006 Definiciones: Hay que saber las definiciones precisas de todos los siguientes términos, y conocer ejemplos concretos
Más detallesResolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto
Resolución de Ecuaciones no lineales Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Objetivos Aprender a resolver ecuaciones de la forma: f () = 0 Donde f es una función no-lineal de
Más detallesOptimización Clásica. Yolanda Hinojosa
Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones
Más detallesSistemas de ecuaciones no lineales
Práctica 6 Sistemas de ecuaciones no lineales En esta práctica revisaremos algunos métodos básicos para la resolución numérica de sistemas de ecuaciones no lineales 61 Método iterativo del punto fijo Partimos
Más detallesMétodo Simplex en Optimización de Problemas de Producción
Método Simplex en Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile - Fernando Islas - Carlos Testuri Héctor Cancela - Antonio Mauttone Depto. Investigación Operativa. Instituto de Computación.
Más detallesGEOMETRÍA EN EL ESPACIO
GEOMETRÍA EN EL ESPACIO 1. PUNTOS Y VECTORES OPERACIÓN TEORÍA Y FORMULACIÓN EJEMPLO Coordenadas de un punto Punto medio de un segmento Dividir un segmento en n partes iguales Coordenadas de un vector (
Más detallesAnálisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM
Departamento de Matemáticas. ITAM. 2011. Consideraciones http://allman.rhon.itam.mx/ jmorales Temas del curso + bibliografía. Exámenes, proyectos. Aprender haciendo Trabajo individual Consideraciones http://allman.rhon.itam.mx/
Más detallesOptimización Clásica. Yolanda Hinojosa
Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones
Más detallesMatrices y sistemas de ecuaciones
Matrices y sistemas de ecuaciones María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices
Más detalles1.- Sean A i B dos matrices cuadradas invertibles. Es verdad que:
1.- Sean A i B dos matrices cuadradas invertibles. Es verdad que: (B -1 A -1 - (A B) -1 + A) B = A B? Justifica tu respuesta. De hecho el problema consiste en demostrar que: B A (A B) = Expresión que es
Más detallesProducto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31
Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular
Más detallesCoordinación de Matemática II (MAT022)
Coordinación de Matemática II (MAT022) Guía de ejercicios N 6 parte Complementos Espacios Vectoriales En los ejercicios que siguen utilizamos la siguientes notaciones: R n [x es el espacio vectorial sobre
Más detallesMétodos de gradiente. Métodos de Krylov
Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso
Más detalles2.9 Ejercicios resueltos
86 Sistemas de ecuaciones lineales. Espacios vectoriales. 2.9 Ejercicios resueltos Ejercicio 2. Sea A = ( ) 2. Se pide: 3 m a) Encontrar m para que existan matrices cuadradas B ynonulastalesque A B =0.
Más detallesUNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Departamento de Matemáticas
UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Departamento de Matemáticas a t e a t i c a s PROBLEMAS, CÁLCULO I, er CURSO. FUNCIONES DE VARIABLE REAL GRADO EN INGENIERÍA EN: SISTEMAS AUDIOVISUALES
Más detallesTeoría de redes y optimización en redes
Teoría de redes y optimización en redes Pedro Sánchez Martín Contenidos Definiciones básicas Árbol generador mínimo de expansión Camino mínimo Algoritmo Dkstra Algoritmo Bellman-Ford Fluo máximo Fluo de
Más detallesEsta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )
Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder
Más detallesGrado en Ciencias Ambientales. Matemáticas. Curso 11/12
Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Problemas Tema 1. Espacios Vectoriales. 1 Repaso de Estructuras Algebraicas 1.1. Construye explícitamente el conjunto A B, siendo A = {1, 2, 3},
Más detallesAnálisis de Algoritmos Problemas de grafos
Análisis de Algoritmos Problemas de grafos Dra. Elisa Schaeffer elisa.schaeffer@gmail.com PISIS / FIME / UANL Problemas de grafos p. 1 INDEPENDENT SET es NP-completo Necesitamos un gadget : el triángulo.
Más detallesGeneración de modelos tridimensionales a partir de una secuencia de imágenes. Sergio Ricardo Murguia Santana
Generación de modelos tridimensionales a partir de una secuencia de imágenes Sergio Ricardo Murguia Santana 31 de julio de 2005 2 Índice general 1. Introducción* 5 1.1. Modelo de la cámara*........................
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detallesMétodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012
Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema
Más detallesMatemáticas II Bachillerato Ciencias y Tecnología 2º Curso. Espacio euclídeo Determinación de ángulos
Espacio euclídeo 5.1. Determinación de ángulos.... - 2-5.1.1. Ángulo determinado por dos rectas secantes.... - 2-5.1.2. Ángulo determinado por planos secantes.... - 2-5.1.3. Ángulo determinado por una
Más detallesGradiente conjugado. Miguel Vargas-Félix. CIMAT, August 26, /24
Gradiente conjugado Miguel Vargas-Félix miguelvargas@cimat.mx http://www.cimat.mx/~miguelvargas CIMAT, August 26, 2015 1/24 Método de gradiente conjugado Es un método iterativo para minimizar funciones
Más detallesMATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden.
MATEMÁTICAS ESPECIALES II - 8 PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. Considere el sistema de ecuaciones diferenciales ordinarias (EDOs) de primer orden dx dt = f (t,
Más detallesDiagonalización de matrices
Diagonalización de matrices María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Diagonalización de matrices Matemáticas I 1 / 22 Valores y vectores propios de una matriz Definición
Más detallesGEOMETRÍA. (x 1) 2 +(y 2) 2 =1. Razónalo. x y + z = 2. :3x 3z +1= 0 es doble de la distancia al plano π 2. : x + y 1= 0. Razónalo.
GEOMETRÍA 1. (Junio, 1994) Sin resolver el sistema, determina si la recta x +3y +1= 0 es exterior, secante o tangente a la circunferencia (x 1) +(y ) =1. Razónalo.. (Junio, 1994) Dadas las ecuaciones de
Más detallesParte II - Prácticas 8 a 9. Álgebra A 62 ÁLGEBRA A 62 (INGENIERÍA)
Parte II - Prácticas 8 a 9 Álgebra A 62 Ingeniería 2015 CICLO BÁSICO COMÚN UBA ÁLGEBRA A 62 (INGENIERÍA) Práctica 8 Introducción a las transformaciones lineales Definiciones y propiedades Transformaciones
Más detallesÁlgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema
Más detallesRectas y Planos en el Espacio
Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta
Más detalles4.5 Algoritmo RLS (Recursive Least Squares)
4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de
Más detallesLista de problemas de álgebra, 2016
Instituto Politécnico Nacional Escuela Superior de Física y Matemáticas Posgrado en Ciencias Físicomatemáticas Línea de Matemáticas Lista de problemas de álgebra 2016 Egor Maximenko: En mi opinión cualquier
Más detallespresentan las definiciones básicas, se analizan los resultados más importantes y se discuten
1 Conceptos Básicos 1.1 Introducción En este capítulo hacemos una revisión del método de epansiones asintóticas. Se presentan las definiciones básicas, se analizan los resultados más importantes y se discuten
Más detallesMAT1202: Algebra Lineal GUIA N 6 Otoño 2002 Valores y Vectores Propios
Pontificia Universidad Católica de Chile Facultad de Matemáticas MAT1202: Algebra Lineal GUIA N 6 Otoño 2002 Valores y Vectores Propios 1. Determine los valores y vectores propios de 0 3 A + I = 1 3 A
Más detallesMétodos matemáticos: Análisis funcional
Métodos matemáticos: Análisis funcional Conceptos y resultados fundamentales Curso 2011/2012 Aquí encontrarás los Teoremas hay que saber para el primer parcial ( 1) así como las definiciones, problemas
Más detallesCálculo de autovalores
Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares
Más detallesProblemas de Espacios Vectoriales
Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial
Más detallesIntroducción a la optimización. Tomás Arredondo Vidal 7/4/09
Introducción a la optimización Tomás Arredondo Vidal 7/4/09 Esta charla trata de lo siguiente: Algunos aspectos de la optimización basada en derivados. Optimización basada en derivados: La optimización
Más detallesProblemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10
Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas Curso 2009/10 Hoja 1 Preliminares 1 Resuelve los siguientes sistemas de ecuaciones de números complejos: { z 1 + iz 2 = 1 i 3z 1 + (1
Más detallesValores y vectores propios
Valores y vectores propios Problemas teóricos El los siguientes problemas se denota por L(V ) conjunto de los operadores lineales en un espacio vectorial V (en otras palabras, de las transformaciones lineales
Más detallesBoletín II. Cálculo diferencial de funciones de una variable
CÁLCULO Boletín II. Cálculo diferencial de funciones de una variable Ejercicios básicos 1. (NUEVO) Utiliza la definición de derivada para demostrar que f () = 10 para 5 2. ( ) sin() 2. Sea arctan. Calcula
Más detallesSOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO
SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO 013-014 1 0 Ejercicio 1º.- Dada la matriz: A 1 1 a) (1,5 puntos) Determina los valores de λ para los
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Más detallesRectas y Planos en el Espacio
Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. octubre 2013 En esta Presentación... En esta Presentación veremos: Rectas En esta Presentación... En esta Presentación veremos:
Más detallesIdentificación n de SIStemas
Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n
Más detallesE.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones
ETS Minas: Métodos Matemáticos Soluciones Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detalles