OPTIMIZACIÓN VECTORIAL

Tamaño: px
Comenzar la demostración a partir de la página:

Download "OPTIMIZACIÓN VECTORIAL"

Transcripción

1 OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)

2 OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)

3 Métodos de búsqueda directa Son útiles cuando no se conoce el gradiente de la función Eisten técnicas: Heurísticas: El método del simple Teóricas: Método de las direcciones conjugadas de Powell Método Simple Geométricamente el elemento que requiere menos puntos para su construcción => Simple regular, que en dimensión N es un poliedro compuesto de N+ puntos equidistantes que forman sus vértices triángulo, tetraedro,...).

4 Método Simple X) X2) X3) Se sitúa un simple regular en el espacio de las variables independientes X) X2) X3) X4) El vértice con mayor valor de la función se refleja a través del centroide Este punto se utiliza para formar un nuevo simple Este procedimiento se repite hasta que se encuentre el mínimo o se encuentre uno de los siguientes casos:

5 Método Simple 2. El valor de la función en el peor punto y el punto reflejado sea el mismo. 2 3 En este caso se debe elegir el siguiente vértice que tenga el valor de la función más elevado 4 2. Cuando se llega a un ciclo En este caso se debe reducir el simple en un determinado factor y empezar el procedimiento a partir del simple nuevo 3. Criterio de terminación

6 Implementación del Método Simple Requiere de dos cálculos:. Generación de un simple regular de dimensión N, dado un punto base 0 y un factor de escala = + = + = N,,2, j i, j i δ j i δ 2 0) j 0) j i) j K α ) ) α + = δ α + + = δ 2 N N 2 N N N 2 2 2

7 Implementación del Método Simple 2 2. Cálculo del punto reflejado: Supongamos que j) es el punto que será reflejado. Entonces el centroide de los restantes N puntos será c = N N i= 0 i j Todos los puntos sobre la línea desde j) hasta c vienen dados por: = ) i j) j) + λ ) λ = 0 j) = λ = = c λ = 2 j) j) = 2 nueva c c anterior

8 Ventajas y desventajas del Método Ventajas. Cálculos simples y lógica no complicada 2. Los requerimientos de almacenamiento son bajos array de N+,N+2)) 3. Pocos parámetros de ajuste factor de escala y parámetros de terminación) Desventajas. Problemas de escala, todos los vértices utilizan la misma 2. El algoritmo es lento, no utiliza información pasada 3. No eiste una forma simple de epandir el simple sin calcular el patrón completo. Si α se reduce la búsqueda tiene que continuar con este tamaño de paso. α

9 Método del simple modificado Método de Nedler y Mead: no hay que mantener la regularidad del simple en el procedimiento de búsqueda: epansiones y contracciones. h) es el punto con mayor valor de la función, g) el siguiente punto más grande y l) el punto con menor valor de la función. El punto reflejado es: = h) + + θ) c - h) ) θ = => algoritmo original; θ = α - θ => contracción; θ = β = 0.5 θ > => epansión; θ = γ = 2 Se hace una refleión normal y se chequea por una contracción o epansión según las condiciones:

10 Método del simple modificado X h) X new X h) X new z a) Refleión normal: f l) ) < f new ) < f g) ) b) Epansión: f new ) < f l) ) X h) z X new X h) z X new c) Contracción: f g) ) < f new ) < f h) ) d) Contracción negativa: f new ) > f g) ) y f new ) f h) )

11 Direcciones conjugadas de Powell I) Se aproima la función objetivo por una función cuadrática. Si una función cuadrática de N variables puede transformarse en la suma de N cuadrados perfectos, el óptimo se encuentra con N búsquedas de una variable. q) = a + b T + /2 T C Hay que encontrar una matriz de transformación T tal que el término cuadrático sea diagonal: = Tz Q) = T C = z T T T C T z = z T D z Se está escribiendo el vector en un nuevo sistema de coordenadas t j, llamadas direcciones conjugadas. Sólo queda encontrar estas direcciones. = Tz = t z + t 2 z t n z n

12 Direcciones conjugadas de Powell II) Propiedad del subespacio paralelo: dada una función cuadrática q), dos puntos arbitrarios ) y 2) y una dirección d; si y ) es la solución al problema min q ) + λd) e y 2) es la solución de min q 2) + λd) entonces la dirección y 2) -y ) ) es C conjugada de d. ) y ) d Direcciones C-conjugadas: es un conjunto de vectores linealmente independientes que diagonalizan la matriz C, es decir: 2) y 2) S it C S j = 0 i j

13 Direcciones conjugadas de Powell III) Propiedad etendida del subespacio paralelo: 2) 3) e 2) 0) e ) ) Calcular: λ 0) mínimo f ) = 0) + λ 0) e ) λ ) mínimo f 2) = ) + λ ) e 2 ) λ 2) mínimo f 3) = 2) + λ 2) e ) s = 3) - ) es C-conjugada de e y e 2 Repetir procedimiento con e 2 y s

14 Direcciones conjugadas de Powell IV) Algoritmo:.- Definir 0) y un conjunto de direcciones independientes s i) = e i), i=,...,n 2.- Minimizar a lo largo de N+ direcciones usando el mínimo anterior y poner s N) como primera y última dirección de búsqueda 3.- Construir la nueva dirección conjugada 4.- Borrar s ), reemplazarla por s 2), etc. Poner la nueva dirección en s N) e ir al paso 2. Incluir: Un chequeo de convergencia Test para asegurar la independencia lineal de las direcciones conjugadas

15 Métodos de solución de problemas sin restricciones optimización vectorial) Métodos de Búsqueda Directa Utilizan los valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)

16 Métodos del Gradiente X +) = ) + α ) s ) ). Tamaño del paso del algoritmo: α ) 2. Vector de Dirección de búsqueda: s ) ) 3. Algoritmo del gradiente y método del Descenso más pronunciado

17 Significado Geométrico del vector gradiente Epansión en serie de Taylor de la función alrededor de * : f) = f * ) + f * ) f * ) es fijo por tanto el segundo término dictará el descenso de f) => s ) ) = - f ) )

18 Tamaño del paso del algoritmo 2 α f α) + d + ) = f αd ) min f + αd ) f + α ) puede ser constante método del gradiente) o calcularse en cada iteración de forma que f +) ) sea mínimo a lo largo de la dirección - f ) ) método del descenso más pronunciado) α α

19 Algoritmo del Método del Descenso más pronunciado. Selección de un punto inicial 0, e g. La iteración =0 2. Calcular f ). Parar si f ) e g. De lo contrario, definir el vector : s = s ) = - f ) 3. Obtener α de minimizar f α) = f + α s ). Actualizar + = + α s 4. = + y = +. Ir al paso 2. Inconveniente: Lentitud del algoritmo cerca del mímimo ya que f *) ) = 0.

20 Métodos de solución de problemas sin restricciones optimización vectorial) Métodos de Búsqueda Directa Utilizan los valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de utilizar la primera derivada también utilizan la segunda derivada de f)

21 Método de Newton I) Consideramos la epansión de Taylor de la función objetivo: ) f ) = f + 2 ) )) T T 2 )) 3 + f + f O ) Hacemos una aproimación cuadrática de f) eliminando el término de tercer orden ~ f )) ) ; = f ) )) T T 2 ) + f + f ) El siguiente punto se calcula suponiendo que el gradiente de la aproimación cuadrática es igual a cero 2

22 Método de Newton II) Utilizamos la aproimación cuadrática de f) para construir una secuencia de iteración, forzando a +), como el siguiente punto en la secuencia. f ~ )) ) ; = f ) 2 ) + f ) = 0 De aquí que: = 2 f )) ) f ) + ) ) 2 ) = f ) ) f ) Método de Optimización de Newton

23 Método de Newton III) Método modificado de Newton: α ) es tal que f +) ) sea mínimo s ) ) = - [ 2 f ) )] - f ) ) Características: asegura la dirección descendente, pero la evaluación de [ 2 f ) )] - es difícil y puede ser singular. Método de Marquardt-Lavenberg: α ) =. s ) ) = - [ 2 f ) ) + λ ) I ] - f ) ) λ ) controla la dirección de búsqueda y mejora la singularidad de la Hessiana. Se chequea la dirección descendente, si f + ) < f ) => λ +) < λ ), si no se cumple: λ ) = βλ ) con β > y se repite el paso otra vez.

24 Método de Marquadt-Lavenberg Algoritmo:.- Definir 0, estima inicial de *, M el número máimo de iteraciones y ε criterio de convergencia. 2.- = 0. λ 0 = f ) < ε?. Si ir a 0, No continuar 4.- K M?. Si ir a 0. No: continuar 5.- Calcular s ) = - [ 2 f ) ) + λ ) I ] - f ) ) 6.- Hacer + = + s ) 7.- f + ) < f )?. Si ir a 8, No: ir a Hacer λ + = 0.5* λ ; = +; Ir a Hacer λ = 2*λ. Ir a Parar.

25 Método del gradiente conjugado Se calculan direcciones conjugadas utilizando el gradiente. Aproimando la función objetivo por una función cuadrática: q) = a + b T + /2 T C q) = g) = C + b g) = C s ) = - g ) + i=0 - γ i) s i) con s 0) = - g 0) γ i) se calculan tal que s sea C- conjugado a todas las direcciones anteriores calculadas: s 0, s,..., s - Varias soluciones: Fletcher- Reeves: s ) = - g ) + [g ) 2 / g -) 2 ] s - Pola y Ribiere: s ) = - f ) + γ s -) con γ = g ) T g ) / g - ) 2

26 Métodos de Quasi-Newton I) Se diseñan para tener las mismas características de los métodos de Newton pero usando sólo derivadas primeras. La dirección de búsqueda es: S = - A f ) con A métrica A se calcula de forma recursiva: A + = A + A c A c se calcula de forma que la secuencia A 0, A,..., A + aproime la inversa de la matri hesiana: H - = [ 2 f )] - Si la función es cuadrática la matri hessiana es C, por tanto se quiere aproimar: C - = β A + y que cumpla la propiedad cuadrática: = C - g

27 Métodos de Quasi-Newton II) = β A + g ; A c g = / β A g La solución es: Método de Davidon-Fletcher-Powell: y = y z = A g = T T T T c g z z g A g y y A β + = ) ) ) ) T T T T g A g A g g A g A A

28 Métodos de Quasi-Newton III) Conserva las propiedades de simetría y definida positiva => Si A 0 es simétrica y definida positiva, A, A 2,... También. => Una solución A 0 =I Método de Boyden-Fletcher-Shannon BFS) + = + T T T T T T g g g g I A g g I A ) ) ) ) ) )

29 Algoritmo general.- Definir M: número máimo de iteraciones, 0 estima inicial, ε : criterio de convergencia, ε 2 criterio de convergencia lineal. 2.- K=0 3.- Calcula f ) 4.- f ) ε.. Si => ir a 2. No => continuar 5.- K > M. Si => ir a 2. No => continuar 6.- Calcular s ) 7.- Encontrar un α / f + α s ) sea mínimo, usando ε Hacer + = + α s 9.- f + ) < f ). Si => continuar. No =>Ir a / ε.. Si => Ir a 2. No => continuar.- Hacer K=K+. Ir a Parar

30 Formas de calcular el gradiente Calcular el gradiente de forma numérica: ε ε ε ) ) * lim 0 f e f d df i i + = = ε ε ε ε 2 ) * ) * lim 0 i i i e f e f d df + = =

31 Ejemplo

32

Optimización en Ingeniería

Optimización en Ingeniería Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El Método de Marquardt Algoritmo Paso 1:

Más detalles

PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).

PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP). PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP. Optimización con restricciones La presencia de restricciones reduce la región en la cual buscamos el óptimo. Los criterios

Más detalles

Apuntes de Computación Científica I 1. Optimización

Apuntes de Computación Científica I 1. Optimización Apuntes de Computación Científica I Optimización 1. Optimización Maximización (de beneficios, flujo,...) o minimización (de costes, recursos, error,...) de una función f(x) Maximizar f(x) es minimizar

Más detalles

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Dr. Gonzalo Hernández Oliva UChile - Departamento de Ingeniería Matemática 07 de Mayo 2006 Abstract En este apunte veremos

Más detalles

Aplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa:

Aplicaciones de la Optimización Convexa al análisis de redes Bibliografía optimización convexa: Aplicaciones de la Optimización Convea al análisis de redes Bibliograía optimización convea: Nonlinear Programming: nd Edition. by Dimitri P. Bertseas. ISBN: - 88659--. Publication: 999 Conve Optimization,

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia

Introducción al algoritmo de máxima pendiente. Análisis de estabilidad y convergencia 4.3 Algoritmo de máxima pendiente Introducción al algoritmo de máxima pendiente Aplicación al filtro de Wiener Análisis de estabilidad y convergencia Otras técnicas de optimización Newton-Raphson Levemberg-Marquardt

Más detalles

Ejercicio 1.- A continuación se muestra el pseudocódigo correspondiente a un método de resolución de ecuaciones no lineales.

Ejercicio 1.- A continuación se muestra el pseudocódigo correspondiente a un método de resolución de ecuaciones no lineales. Página de Ejercicio.- A continuación se muestra el pseudocódigo correspondiente a un método de resolución de ecuaciones no lineales. Algoritmo Paso : Asignar f 0 f( 0 ); f f( ); Paso : Repetir para i desde

Más detalles

MÉTODOS INDIRECTOS PRIMER ORDEN

MÉTODOS INDIRECTOS PRIMER ORDEN MÉODOS INDIRECOS PRIMER ORDEN Una buena dirección de búsqueda debe reducir la función objetivo tal que si 0 es el punto original y es el nuevo punto entonces: f ( ) f ( 2 ) Una dirección s se llama dirección

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Práctica 3 Métodos de búsqueda para funciones de varias variables

Práctica 3 Métodos de búsqueda para funciones de varias variables Práctica 3 Métodos de búsqueda para funciones de varias variables Método de Hooke & Jeeves Este método data de 1961 y consiste en tres tipos de procedimientos: exploración, cambio de punto base y movimiento

Más detalles

Optimización Multivariable irrestricta Métodos Directos

Optimización Multivariable irrestricta Métodos Directos irrestricta Métodos Directos 1 Método Simplex El método Simplex Secuencial utiliza una figura geométrica regular para seleccionar puntos en los vértices de una figura en los que se debe evaluar la función.

Más detalles

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Ejercicios Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles

Universidad Nacional Autónoma de México Facultad de Ciencias Geometría Analítica II Tarea 1

Universidad Nacional Autónoma de México Facultad de Ciencias Geometría Analítica II Tarea 1 Universidad Nacional Autónoma de México Facultad de Ciencias Geometría Analítica II Tarea. Completa las igualdades usando el dibujo. γ β = α β = β + θ = θ + ε + ω = θ + ε = β + θ + ω = α + ε = β + δ =.

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

Matemáticas para la Empresa

Matemáticas para la Empresa Matemáticas para la Empresa 1 o L. A. D. E. Curso 2008/09 Relación 1. Espacios Vectoriales 1. a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy)

Más detalles

Relación 1. Espacios vectoriales

Relación 1. Espacios vectoriales MATEMÁTICAS PARA LA EMPRESA Curso 2007/08 Relación 1. Espacios vectoriales 1. (a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy) Demuestra que IR

Más detalles

MATEMÁTICAS II Examen del 28/06/2007 Solución Importante

MATEMÁTICAS II Examen del 28/06/2007 Solución Importante MATEMÁTICAS II Eamen del 8/06/007 Solución Importante Las calificaciones se harán públicas en la página web de la asignatura y en el tablón de anuncios del Dpto. de Métodos Cuantitativos en Economía y

Más detalles

Optimización en Ingeniería

Optimización en Ingeniería Optimización en Ingeniería Departamento de Computación CINVESTAV-IPN Av. IPN No. 2508 Col. San Pedro Zacatenco México, D.F. 07300 email: ccoello@cs.cinvestav.mx El método de Nelder-Mead que vimos antes

Más detalles

INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS

INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS INTRODUCCIÓN A LA OPTIMIZACIÓN CON ALGORITMOS 1 Índice 1. Minimización irrestricta 6 1.1. Condiciones de Optimalidad............................. 6 1.2. Métodos de descenso.................................

Más detalles

TEMA V. Espacios vectoriales

TEMA V. Espacios vectoriales TEMA V. Espacios vectoriales 1 1. Demostrar que cada uno de los siguientes conjuntos tiene estructura de espacio vectorial sobre el cuerpo de los reales: a El conjunto (R 2, +,, R. b El conjunto (R 3,

Más detalles

Tema 4 Funciones convexas y optimización convexa

Tema 4 Funciones convexas y optimización convexa Tema 4 Funciones convexas y optimización convexa José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 4 Repaso de algunos resultados sobre optimización de funciones.

Más detalles

TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA

TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA ESCUELA ESTUDIOS DE TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA DEPARTAMENTO DE INGENIERÍA INFORMÁTICA MATEMÁTICA APLICADA I ÁLGERA LINEAL OLETINES DE PROLEMAS Curso 8-9 Sistemas de ecuaciones lineales.

Más detalles

APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES.

APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE PARA OPTIMIZAR FUNCIONES DE VARIAS VARIABLES. Universidad del Atlántico Revista Del Programa De Matemáticas Páginas: 40 54 Facultad de Ciencias Básicas c Programa de Matemáticas Vol. IV, No 1, (2017) APLICACIÓN DEL MÉTODO DE DESCENSO DE MAYOR PENDIENTE

Más detalles

Cálculo Numérico. Curso Ejercicios: Preliminares I

Cálculo Numérico. Curso Ejercicios: Preliminares I Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,

Más detalles

Jesús Getán y Eva Boj. Marzo de 2014

Jesús Getán y Eva Boj. Marzo de 2014 Jesús Getán y Eva Boj Facultat d Economia i Empresa Universitat de Barcelona Marzo de 2014 Jesús Getán y Eva Boj 1 / 51 Formulación general del problema Óptimos locales Condición de regularidad Condiciones

Más detalles

Ceros de Funciones: Multivariable

Ceros de Funciones: Multivariable Ceros de Funciones: Multivariable Prof. Marlliny Monsalve 1 1 Postgrado en Ciencias de la Computación Universidad Central de Venezuela Análisis Numérico May 19, 2015 Prof. Monsalve (UCV) Ceros Multivariable

Más detalles

Maestría en Matemáticas

Maestría en Matemáticas Reactivos Propuestos para Examen de Admisión (ASN) Ingreso en Agosto de 203. Sea R el conjunto de los números reales y S el conjunto de todas las funciones valuadas en los reales con dominio en R. Muestre

Más detalles

ECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso ) Cuarto Curso de Ingeniero Industrial

ECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso ) Cuarto Curso de Ingeniero Industrial ECUACIONES DIFERENCIALES Y MÉTODOS NUMÉRICOS (Curso 2009-2010) Cuarto Curso de Ingeniero Industrial Optimización y Sistemas de Ecuaciones no Lineales FUNCIONES CONVEXAS. CRITERIOS DE OPTIMALIDAD Un problema

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 4 Optimización no Lineal ORGANIZACIÓN DEL TEMA Sesiones: El caso sin restricciones: formulación, ejemplos Condiciones de optimalidad, métodos Caso con restricciones:

Más detalles

EXAMEN JUNIO PP 1A SEMANA

EXAMEN JUNIO PP 1A SEMANA EXAMEN JUNIO PP A SEMANA XAVI AZNAR Ejercicio. Defina semejanza, razón de semejanza y movimento asociado a una semejanza. Ejercicio. En el espacio vectorial V 3 (R) sea q la forma cuadrática cuya expresión

Más detalles

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.

Más detalles

Factorización QR Método iterativo de Jacobi

Factorización QR Método iterativo de Jacobi Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Cálculo diferencial e integral 3

Cálculo diferencial e integral 3 Cálculo diferencial e integral 3 Guía 1 1. Sean a 1,..., a n R n. Demuestra que el conjunto { W = x = (x 1,..., x n ) R n es un subespacio vectorial de R n. } n a i x i = 0 i=1 2. Sean W y V subespacios

Más detalles

Profesores de Enseñanza Secundaria. MATEMÁTICAS. ANDALUCÍA 2018

Profesores de Enseñanza Secundaria. MATEMÁTICAS. ANDALUCÍA 2018 ANDALUCÍA 8 PROBLEMA Dados la matriz A R, el vector b R, α R y el subespacio F de R A =, b = y F + = α + + = α a) Discutir y resolver cuando sea compatible el sistema AX=b con X R. b) Sea E el espacio

Más detalles

Optimización de Procesos

Optimización de Procesos Optimización de Procesos Tier I: Métodos Matemáticos de Click to edit Master title style Optimización Sección 3: Programación No Lineal Introducción a la Programación No Click to edit Master title style

Más detalles

190. Dado el paralelepípedo OADBFCEG en el espacio afín ordinario, se considera el sistema de referencia afín R = ( O, OA, OB, OC ).

190. Dado el paralelepípedo OADBFCEG en el espacio afín ordinario, se considera el sistema de referencia afín R = ( O, OA, OB, OC ). Hoja de Problemas Geometría VIII 90. Dado el paralelepípedo OADBFCEG en el espacio afín ordinario, se considera el sistema de referencia afín R O, Sean: OA, OB, OC ). OG la recta determinada por los puntos

Más detalles

2 Espacios vectoriales

2 Espacios vectoriales Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 2 Espacios vectoriales 2.1 Espacio vectorial Un espacio vectorial sobre un cuerpo K (en general R o C) es un conjunto V sobre el que hay

Más detalles

Anexo 1: Algoritmos de optimización para funciones con ruido

Anexo 1: Algoritmos de optimización para funciones con ruido Anexo : Algoritmos de optimización para funciones con ruido Introducción Los algoritmos que hemos visto hasta el momento no pueden ser implementados si el gradiente de la función objetivo no está disponible

Más detalles

Ejercicios de optimización sin restricciones

Ejercicios de optimización sin restricciones Ejercicios de optimización sin restricciones Programación Matemática Licenciatura en Ciencias y Técnicas Estadísticas Curso 5/6 Indica la dirección que el método de Newton (sin modificaciones calcularía

Más detalles

Ejercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y

Ejercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS Ejercicios tipo test de las lecciones 1 y 2. 1. El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1,

Más detalles

TEMA 5.6 PROGRAMACIÓN NO LINEAL

TEMA 5.6 PROGRAMACIÓN NO LINEAL TEMA 5.6 PROGRAMACIÓN NO LINEAL 5.6.. INTRODUCCIÓN 5.6.. CONCEPTOS BÁSICOS 5.6.. MÉTODO O DE NEWTON ONSN SIN RESTRICCIONES S 5.6.4. MÉTODO DE NEWTON CON RESTRICCIONES. FUNCIONES DE PENALIZACIÓN. INTRODUCCIÓN

Más detalles

CLASIFICACIÓN AFÍN DE CÓNICAS

CLASIFICACIÓN AFÍN DE CÓNICAS Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS CLASIFICACIÓN AFÍN DE CÓNICAS Sea E un R-espacio vectorial de dimensión. Sean E = e 1, e un plano vectorial de E y e 0 un

Más detalles

Resolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto

Resolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Objetivos Aprender a resolver ecuaciones de la forma: f () = 0 Donde f es una función no-lineal de

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Álgebra Lineal. Maestría en Ciencias Matemáticas. x y + z = 1 x y z = 3 2x y z = 1. x + y + 2z = 1 4x 2ty + 5z = 2 x y + tz = 1

Álgebra Lineal. Maestría en Ciencias Matemáticas. x y + z = 1 x y z = 3 2x y z = 1. x + y + 2z = 1 4x 2ty + 5z = 2 x y + tz = 1 Álgebra Lineal Maestría en Ciencias Matemáticas Resuelva el siguiente sistema usando la factorización LU o P T LU (según sea el caso) x y + z = x y z = 3 2x y z = 2 Calcule A usando el algoritmo de Gauss-Jordan:

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Optimización de Problemas de Producción

Optimización de Problemas de Producción Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile Colaboran: Héctor Cancela - Antonio Mauttone - Carlos Testuri Depto. Investigación Operativa. Instituto de Computación. Facultad de

Más detalles

TEMA 1 Álgebra de matrices 4 sesiones. TEMA 2 Determinantes 4 sesiones. TEMA 3 Sistemas de ecuaciones 4 sesiones

TEMA 1 Álgebra de matrices 4 sesiones. TEMA 2 Determinantes 4 sesiones. TEMA 3 Sistemas de ecuaciones 4 sesiones 1.1. MATEMÁTICAS II TEMPORALIZACIÓN Y SECUENCIACIÓN: TEMA 1 Álgebra de matrices 4 sesiones TEMA 2 Determinantes 4 sesiones TEMA 3 Sistemas de ecuaciones 4 sesiones TEMA 4 Vectores en el espacio 4 sesiones

Más detalles

Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales

Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso

Más detalles

Material para exámen final

Material para exámen final Cálculo 3, FAMAT-UG, aug-dic, 2006 Material para exámen final Fecha del exámen: 5 dic, 2006 Definiciones: Hay que saber las definiciones precisas de todos los siguientes términos, y conocer ejemplos concretos

Más detalles

Resolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto

Resolución de Ecuaciones no lineales. Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Juan Manuel Rodríguez Prieto Resolución de Ecuaciones no lineales Objetivos Aprender a resolver ecuaciones de la forma: f () = 0 Donde f es una función no-lineal de

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

Sistemas de ecuaciones no lineales

Sistemas de ecuaciones no lineales Práctica 6 Sistemas de ecuaciones no lineales En esta práctica revisaremos algunos métodos básicos para la resolución numérica de sistemas de ecuaciones no lineales 61 Método iterativo del punto fijo Partimos

Más detalles

Método Simplex en Optimización de Problemas de Producción

Método Simplex en Optimización de Problemas de Producción Método Simplex en Optimización de Problemas de Producción Pedro Piñeyro - Luis Stábile - Fernando Islas - Carlos Testuri Héctor Cancela - Antonio Mauttone Depto. Investigación Operativa. Instituto de Computación.

Más detalles

GEOMETRÍA EN EL ESPACIO

GEOMETRÍA EN EL ESPACIO GEOMETRÍA EN EL ESPACIO 1. PUNTOS Y VECTORES OPERACIÓN TEORÍA Y FORMULACIÓN EJEMPLO Coordenadas de un punto Punto medio de un segmento Dividir un segmento en n partes iguales Coordenadas de un vector (

Más detalles

Análisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM

Análisis aplicado. José Luis Morales. Departamento de Matemáticas. ITAM Departamento de Matemáticas. ITAM. 2011. Consideraciones http://allman.rhon.itam.mx/ jmorales Temas del curso + bibliografía. Exámenes, proyectos. Aprender haciendo Trabajo individual Consideraciones http://allman.rhon.itam.mx/

Más detalles

Optimización Clásica. Yolanda Hinojosa

Optimización Clásica. Yolanda Hinojosa Optimización Clásica Yolanda Hinojosa Contenido Optimización no lineal sin restricciones. Condiciones necesarias y suficientes de óptimo Optimización no lineal con restricciones de igualdad. Condiciones

Más detalles

Matrices y sistemas de ecuaciones

Matrices y sistemas de ecuaciones Matrices y sistemas de ecuaciones María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices

Más detalles

1.- Sean A i B dos matrices cuadradas invertibles. Es verdad que:

1.- Sean A i B dos matrices cuadradas invertibles. Es verdad que: 1.- Sean A i B dos matrices cuadradas invertibles. Es verdad que: (B -1 A -1 - (A B) -1 + A) B = A B? Justifica tu respuesta. De hecho el problema consiste en demostrar que: B A (A B) = Expresión que es

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

Coordinación de Matemática II (MAT022)

Coordinación de Matemática II (MAT022) Coordinación de Matemática II (MAT022) Guía de ejercicios N 6 parte Complementos Espacios Vectoriales En los ejercicios que siguen utilizamos la siguientes notaciones: R n [x es el espacio vectorial sobre

Más detalles

Métodos de gradiente. Métodos de Krylov

Métodos de gradiente. Métodos de Krylov Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso

Más detalles

2.9 Ejercicios resueltos

2.9 Ejercicios resueltos 86 Sistemas de ecuaciones lineales. Espacios vectoriales. 2.9 Ejercicios resueltos Ejercicio 2. Sea A = ( ) 2. Se pide: 3 m a) Encontrar m para que existan matrices cuadradas B ynonulastalesque A B =0.

Más detalles

UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Departamento de Matemáticas

UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Departamento de Matemáticas UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Departamento de Matemáticas a t e a t i c a s PROBLEMAS, CÁLCULO I, er CURSO. FUNCIONES DE VARIABLE REAL GRADO EN INGENIERÍA EN: SISTEMAS AUDIOVISUALES

Más detalles

Teoría de redes y optimización en redes

Teoría de redes y optimización en redes Teoría de redes y optimización en redes Pedro Sánchez Martín Contenidos Definiciones básicas Árbol generador mínimo de expansión Camino mínimo Algoritmo Dkstra Algoritmo Bellman-Ford Fluo máximo Fluo de

Más detalles

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n ) Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder

Más detalles

Grado en Ciencias Ambientales. Matemáticas. Curso 11/12

Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Problemas Tema 1. Espacios Vectoriales. 1 Repaso de Estructuras Algebraicas 1.1. Construye explícitamente el conjunto A B, siendo A = {1, 2, 3},

Más detalles

Análisis de Algoritmos Problemas de grafos

Análisis de Algoritmos Problemas de grafos Análisis de Algoritmos Problemas de grafos Dra. Elisa Schaeffer elisa.schaeffer@gmail.com PISIS / FIME / UANL Problemas de grafos p. 1 INDEPENDENT SET es NP-completo Necesitamos un gadget : el triángulo.

Más detalles

Generación de modelos tridimensionales a partir de una secuencia de imágenes. Sergio Ricardo Murguia Santana

Generación de modelos tridimensionales a partir de una secuencia de imágenes. Sergio Ricardo Murguia Santana Generación de modelos tridimensionales a partir de una secuencia de imágenes Sergio Ricardo Murguia Santana 31 de julio de 2005 2 Índice general 1. Introducción* 5 1.1. Modelo de la cámara*........................

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012 Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema

Más detalles

Matemáticas II Bachillerato Ciencias y Tecnología 2º Curso. Espacio euclídeo Determinación de ángulos

Matemáticas II Bachillerato Ciencias y Tecnología 2º Curso. Espacio euclídeo Determinación de ángulos Espacio euclídeo 5.1. Determinación de ángulos.... - 2-5.1.1. Ángulo determinado por dos rectas secantes.... - 2-5.1.2. Ángulo determinado por planos secantes.... - 2-5.1.3. Ángulo determinado por una

Más detalles

Gradiente conjugado. Miguel Vargas-Félix. CIMAT, August 26, /24

Gradiente conjugado. Miguel Vargas-Félix.  CIMAT, August 26, /24 Gradiente conjugado Miguel Vargas-Félix miguelvargas@cimat.mx http://www.cimat.mx/~miguelvargas CIMAT, August 26, 2015 1/24 Método de gradiente conjugado Es un método iterativo para minimizar funciones

Más detalles

MATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden.

MATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. MATEMÁTICAS ESPECIALES II - 8 PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. Considere el sistema de ecuaciones diferenciales ordinarias (EDOs) de primer orden dx dt = f (t,

Más detalles

Diagonalización de matrices

Diagonalización de matrices Diagonalización de matrices María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Diagonalización de matrices Matemáticas I 1 / 22 Valores y vectores propios de una matriz Definición

Más detalles

GEOMETRÍA. (x 1) 2 +(y 2) 2 =1. Razónalo. x y + z = 2. :3x 3z +1= 0 es doble de la distancia al plano π 2. : x + y 1= 0. Razónalo.

GEOMETRÍA. (x 1) 2 +(y 2) 2 =1. Razónalo. x y + z = 2. :3x 3z +1= 0 es doble de la distancia al plano π 2. : x + y 1= 0. Razónalo. GEOMETRÍA 1. (Junio, 1994) Sin resolver el sistema, determina si la recta x +3y +1= 0 es exterior, secante o tangente a la circunferencia (x 1) +(y ) =1. Razónalo.. (Junio, 1994) Dadas las ecuaciones de

Más detalles

Parte II - Prácticas 8 a 9. Álgebra A 62 ÁLGEBRA A 62 (INGENIERÍA)

Parte II - Prácticas 8 a 9. Álgebra A 62 ÁLGEBRA A 62 (INGENIERÍA) Parte II - Prácticas 8 a 9 Álgebra A 62 Ingeniería 2015 CICLO BÁSICO COMÚN UBA ÁLGEBRA A 62 (INGENIERÍA) Práctica 8 Introducción a las transformaciones lineales Definiciones y propiedades Transformaciones

Más detalles

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema

Más detalles

Rectas y Planos en el Espacio

Rectas y Planos en el Espacio Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. septiembre 2012 Verónica Briceño V. () Rectas y Planos en el Espacio septiembre 2012 1 / 20 En esta Presentación... En esta

Más detalles

4.5 Algoritmo RLS (Recursive Least Squares)

4.5 Algoritmo RLS (Recursive Least Squares) 4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de

Más detalles

Lista de problemas de álgebra, 2016

Lista de problemas de álgebra, 2016 Instituto Politécnico Nacional Escuela Superior de Física y Matemáticas Posgrado en Ciencias Físicomatemáticas Línea de Matemáticas Lista de problemas de álgebra 2016 Egor Maximenko: En mi opinión cualquier

Más detalles

presentan las definiciones básicas, se analizan los resultados más importantes y se discuten

presentan las definiciones básicas, se analizan los resultados más importantes y se discuten 1 Conceptos Básicos 1.1 Introducción En este capítulo hacemos una revisión del método de epansiones asintóticas. Se presentan las definiciones básicas, se analizan los resultados más importantes y se discuten

Más detalles

MAT1202: Algebra Lineal GUIA N 6 Otoño 2002 Valores y Vectores Propios

MAT1202: Algebra Lineal GUIA N 6 Otoño 2002 Valores y Vectores Propios Pontificia Universidad Católica de Chile Facultad de Matemáticas MAT1202: Algebra Lineal GUIA N 6 Otoño 2002 Valores y Vectores Propios 1. Determine los valores y vectores propios de 0 3 A + I = 1 3 A

Más detalles

Métodos matemáticos: Análisis funcional

Métodos matemáticos: Análisis funcional Métodos matemáticos: Análisis funcional Conceptos y resultados fundamentales Curso 2011/2012 Aquí encontrarás los Teoremas hay que saber para el primer parcial ( 1) así como las definiciones, problemas

Más detalles

Cálculo de autovalores

Cálculo de autovalores Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares

Más detalles

Problemas de Espacios Vectoriales

Problemas de Espacios Vectoriales Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial

Más detalles

Introducción a la optimización. Tomás Arredondo Vidal 7/4/09

Introducción a la optimización. Tomás Arredondo Vidal 7/4/09 Introducción a la optimización Tomás Arredondo Vidal 7/4/09 Esta charla trata de lo siguiente: Algunos aspectos de la optimización basada en derivados. Optimización basada en derivados: La optimización

Más detalles

Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10

Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10 Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas Curso 2009/10 Hoja 1 Preliminares 1 Resuelve los siguientes sistemas de ecuaciones de números complejos: { z 1 + iz 2 = 1 i 3z 1 + (1

Más detalles

Valores y vectores propios

Valores y vectores propios Valores y vectores propios Problemas teóricos El los siguientes problemas se denota por L(V ) conjunto de los operadores lineales en un espacio vectorial V (en otras palabras, de las transformaciones lineales

Más detalles

Boletín II. Cálculo diferencial de funciones de una variable

Boletín II. Cálculo diferencial de funciones de una variable CÁLCULO Boletín II. Cálculo diferencial de funciones de una variable Ejercicios básicos 1. (NUEVO) Utiliza la definición de derivada para demostrar que f () = 10 para 5 2. ( ) sin() 2. Sea arctan. Calcula

Más detalles

SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO

SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO 013-014 1 0 Ejercicio 1º.- Dada la matriz: A 1 1 a) (1,5 puntos) Determina los valores de λ para los

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Rectas y Planos en el Espacio

Rectas y Planos en el Espacio Rectas y Planos en el Espacio Rectas y Planos en el Espacio Verónica Briceño V. octubre 2013 En esta Presentación... En esta Presentación veremos: Rectas En esta Presentación... En esta Presentación veremos:

Más detalles

Identificación n de SIStemas

Identificación n de SIStemas Identificación n de SIStemas Métodos de Estimación n Recursivos ISIS J. C. Gómez Métodos de Identificación n Recursivos Mínimos Cuadrados Recursivos ara una estructura de modelo de regresión lineal y n

Más detalles

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones

E.T.S. Minas: Métodos Matemáticos Soluciones Tema 4 Métodos iterativos para sistemas de ecuaciones ETS Minas: Métodos Matemáticos Soluciones Tema Métodos iterativos para sistemas de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña

Más detalles