El Problema de Mínimos Cuadrados

Tamaño: px
Comenzar la demostración a partir de la página:

Download "El Problema de Mínimos Cuadrados"

Transcripción

1 Capítulo 8 El Problema de Mínimos Cuadrados 8.1. El problema de mínimos cuadrados El problema del ajuste de datos; es decir, descubrir una función matemática que pueda explicar de la mejor forma posible el comportamiento de algún mecanismo o grupo de seres u objetos que puede ser medido, y del cual conocemos algunos datos (con sus posibles errores de medición), es un problema clásico y ha supuesto un reto para la comunidad matemática desde su planteamiento por Gauss y Legendre hacia En lenguaje de álgebra lineal consiste en encontrar la solución de un sistema lineal Ax b siendo A P C m n con m n. En A y b se recogen todos los datos del experimento que se quieren ajustar. Enseguida veremos algunos ejemplos. Sabemos que el sistema tiene solución si y sólo si b P Im A, condición que difícilmente se cumple si m es mucho mayor que n. Si m n diremos que el sistema Ax b está sobredeterminado; y si no existe ningún x P C n 1 tal que Ax b lo que se 159

2 160 El Problema de Mínimos Cuadrados puede intentar es buscar un x de forma que el vector r Ax b P C m, que se llama residuo o vector residual, sea lo más pequeño posible. Lo grande o pequeño que sea r lo mediremos mediante una norma. El problema de mínimos cuadrados consiste en encontrar x P C n 1 para que el vector residuo tenga la menor norma euclídea posible. Su formulación precisa sería la siguiente: Problema de mínimos cuadrados: Sea F R o C. Dada una matriz A P F m n y un vector b P F m,(m n) encontrar x P C n 1 para que }Ax b} 2 sea mínimo. La elección de la norma euclídea se puede justificar desde varios puntos de vista: histórico, geométrico, estadístico,... ; pero sobre todo porque es la norma habitual, conduce a los algoritmos más sencillos y así como todas las normas son funciones continuas de los vectores, la norma euclídea es, además, diferenciable. Como, por añadidura, la función }Ax b} 2 alcanza su máximo absoluto en un máximo local, este máximo puede calcularse igualando a cero las derivadas parciales de dicha función. Este proceso conduce a lo que se llaman las ecuaciones normales del problema de mínimos cuadrados. Estas ecuaciones nos las encontraremos más adelante procedentes de un contexto completamente diferente. Ejemplo 8.1 El ejemplo más típico de ajuste de datos por mínimos cuadrados es el cálculo del polinomio de interpolación: dados m puntos del plano px i, y i q, i 1,..., m, de forma que x i x j para i j, se trata de encontrar un polinomio de grado a lo más m 1, ppxq a 0 a 1 x a m 1 x m 1, que pase por los n puntos. Se trata, entonces, de encontrar los coeficientes a 0, a 1,..., a m 1, para que Esto equivale a resolver el sistema lineal ppx i q y i, i 1,..., m. a 0 a 1 x i a m 1 x m 1 i y i, i 1,..., m (8.1)

3 8.1 El problema de mínimos cuadrados 161 cuya matriz de coeficientes es A x j 1 i 1 x 1 x 2 1 x m x 2 x 2 2 x m x m x 2 m xm 1 m Esta es una matriz de Vandermonde cuyo determinante es det A ¹ i jpx i x j q. Por consiguiente A es invertible y el sistema (8.1) tiene una única solución. En la Figura 8.1 se muestra la gráfica del polinomio de interpolación que pasa por los 11 puntos pi, 0q con i 5, 4,..., 1, 0, 1,..., 4, 5. Se trata de un polinomio de grado 10. A su derecha se ha escrito el código de MATLAB que obtiene los coeficientes del polinomio de interpolación: c Azb y que da la gráfica: plot(t, polyval(p,t),a,b, r*, markersize,10);. El comando polyval(p,t) devuelve un vector: el valor del polinomio p en las componentes del vector t. Nótese el uso de las sentencias fliplr y flipud para obtener la matriz de los coeficientes del sistema y los coeficientes del polinomio de interpolación en la forma apropiada. La sentencia zeroaxes hace que los ejes cartesianos se dibujen en la forma que se acostumbra a utilizar en la pizarra: dos líneas perpendiculares que se cortan en p0, 0q. 5 Figura 8.1: a=-5:5; 4 A=fliplr(vander(a)); 3 b=[ ] ; 2 c=azb; 1 p=flipud(c); t=linspace(-5.05,5.05); plot(t, polyval(p,t),a,b, r*,...; markersize,10); zeroaxes Indudablemente el polinomio de interpolación se ajusta perfectamente a los datos, pero a menudo éstos proceden de experimentos y lo que se pretende es buscar una

4 162 El Problema de Mínimos Cuadrados curva que interprete los datos obtenidos. Como las mediciones se realizan en momentos puntuales, tal gráfica debería reflejar, salvo que se tengan motivos para pensar lo contrario, una comportamiento suave entre dos datos consecutivos, y no la fluctuación que muestra el polinomio de interpolación de nuestro ejemplo. Quizá un polinomio de menor grado pueda mostrar un mejor comportamiento. Tal polinomio no pasará por algunos de los puntos. Pero la medición de todo proceso real conlleva errores que podrían explicar tal fenómeno. Ejemplo 8.2 (Ajuste por mínimos cuadrados) Con los mismos datos del ejemplo anterior calcular el polinomio de grado 7 que mejor se ajusta a los datos en el sentido de los mínimos cuadrados. Siguiendo los mismos pasos que en el ejemplo anterior lo que buscamos es un polinomio de grado a lo más n 1 m 1 ppxq a 0 a 1 x a n 1 x n 1 tal que }ppxq y} 2 sea mínimo. Aquí, ppxq es el vector cuya i-ésima componente es ppx i q y el vector y es el que tiene por i-ésima componente y i. Ahora bien, si A 1 x 1 x 2 1 x1 n 1 1 x 2 x 2 2 x2 n x m x 2 m xn 1 m es la matriz de Vandermonde truncada y c pa 0, a 1,..., a n 1 q es el vector de los coeficientes de p tenemos que ppxq Ac. Así que se trata de hallar un vector c en el que se alcance mín xpc n }Ax y} 2. En la Figura 8.2 se presenta la gráfica producida por MATLAB del polinomio de grado 7 que mejor se ajusta a los datos pa i, b i q en el sentido de los mínimos cuadrados. El problema de mínimos cuadrados correspondiente se calcula en el interior de la sentencia ployfit. El resto del código de MATLAB que se muestra es el mismo que en el apartado anterior. Una observación final antes de abordar la solución del problema de mínimos cuadrados y los algoritmos correspondientes. Una variante del problema de encontrar

5 8.2 La solución del problema de mínimos cuadrados Figura 8.2: 4 a=-5:5 A=fliplr(vander(a)) 3 b=[ ] ; 2 p=polyfit(a,b,7); 1 t=linspace(-5.3,5.3); plot(t, polyval(p,t),a,b, r*,... markersize,10); axis([ ]); zeroaxes el polinomio de grado a lo más n 1 que mejor se ajusta a una nube de m puntos, px i, y i q, distribuídos en el plano es el de encontrar la función φpxq c 1 φ 1 pxq c 2 φ 2 pxq c n φ n pxq, que mejor se ajusta a una de tales nubes de puntos. Aquí φ 1, φ 2,..., φ n son funciones dadas, o de las que uno sospecha que una combinación lineal de ellas puede ajustarse bien a los datos. En este caso el problema se reduce a calcular el vector c donde se alcanza el mínimo: mín xpc }Ax y} 2, siendo A P F m n la matriz cuyo elemento en la posición pi, jq es φ j px i q y siendo y el vector cuyas componetes son y 1,..., y m La solución del problema de mínimos cuadrados En esta sección demostramos el resultado que nos da la solución del problema de mínimos cuadrados. Geométricamente la situación es muy simple (véase la Figura 8.3): el vector de Im A cuya distancia a b es mínima es la proyección ortogonal de b sobre Im A. Y la distancia mínima es la norma del residuo. Esto es lo que nos dice el siguiente Teorema.

6 164 El Problema de Mínimos Cuadrados b r=ax 0 b Im A Ax 0 Figura 8.3: La solución del problema de mínimos cuadrados Teorema 8.3 Sean A P F m n, F R o C, y b P F m 1, m n. Sea P A la proyección ortogonal sobre Im A. Entonces, Ax 0 cumple }Ax 0 b} 2 mín xpf n }Ax b} 2 si y sólo si se cumple cualquiera de las siguientes condiciones que son equivalentes: (i) Ax 0 P A b. (ii) b Ax 0 P pim Aq K. (iii) A Ax 0 A b. Además, la solución x 0 es única si y sólo si rang A n. En la demostración se usa el teorema de Pitágoras: Si x, y P C n son ortogonales entonces }x y} 2 2 }x}2 2 }y}2 2. En efecto, }x y} 2 2 px yq px yq x x y x y y x x x y y }x} 2 2 }y}2 2, donde hemos usado que x y y x 0 porque x e y son ortogonales. Demostración.- Todo se basa en la demostración de la idea geométrica expuesta más arriba: mín xpc n }Ax b} 2 }P A b b} 2. Vemaos que esto es así. En efecto }Ax b} 2 2 }Ax P Ab P A b b} 2 2 }Ax P Ab} 2 2 }P Ab b} 2 2

7 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 165 porque Ax P A b P Im A y P A b b pi P A qb P pimaq K y aplicando el Teorema de Pitágoras. Por lo tanto, para todo x P C n }Ax b} 2 }P A b b} 2. Pero como P A b P Im A, existe x 1 P C n tal que Ax 1 P A b; i.e., }Ax 1 b} 2 }P A b b} 2. Por lo tanto mín xpc n }Ax b} 2 }P A b b} 2, tal y como deseábamos mostrar. Ahora, si Ax 0 es el vector que hace mínima la distancia de Ax a b entonces }P A b b} 2 2 mín xpc n }Ax b}2 2 }Ax 0 b} 2 2 }Ax 0 P A b} 2 2 }P Ab b} 2 2. De aquí deducimos que }Ax 0 P A b} 2 0; es decir, Ax 0 P A b. Sólo queda demostrar la equivalencia entre las tres condiciones. Por una parte P A b Ax 0 ñ b Ax 0 b P A b pi P A qb P pim Aq K. Y si b Ax 0 P pim Aq K entonces P A pb Ax 0 q 0 de modo que P A b P A Ax 0. Pero como Ax 0 P Im A tenemos que P A Ax 0 Ax 0. Esto demuestra la equivalencia entre las condiciones (i) y (ii). Finalmente, como pim Aq K Ker A tenemos que b Ax 0 P pim Aq K si y sólo si A pb Ax 0 q 0; i. e., A Ax 0 A b. Falta demostrar que la solución del problema de mínimos cuadrados es única si y sólo si rang A n. Ahora bien, rang A n si y sólo si A A es invertible. Una forma de ver esto es, por ejemplo, la siguiente: rang A n si y sólo si σ n paq 0. Como los valores singulares de A son las raíces cuadradas positivas de los valores propios de A A, σ n 0 si y sólo si todos los valores propios de A A son distintos de cero; i.e. detpa Aq 0. Pero A A es invertible si y sólo si el sistema A Ax A b tiene solución única Algoritmos para calcular la solución del problema de mínimos cuadrados El Teorema 8.3 nos da las claves para calcular un vector x 0 que solucione el problema de mínimos cuadrados. En primer lugar, el sistema A Ax A b recibe el nombre de

8 166 El Problema de Mínimos Cuadrados ecuaciones normales del problema de mínimos cuadrados. Es el sistema que aparece al calcular el mínimo local de la función fpxq }Ax b} 2. Es decir, el sistema Bf pxq 0, i 1,..., n Bx i da lugar al sistema A Ax A b. Como la función f es convexa, alcanza su mínimo absoluto en un mínimo local. Para resolver el sistema A Ax A b numéricamente, tendremos en cuenta la estructura especial de la matriz A A: es hermítica (simétrica en el caso real). Además es definida positiva porque x A Ax }Ax} 2 0 para x 0. Ahora bien toda matriz hermítica definida positiva admite una factorización de Cholesky (variante de la factorización LU cuando la matriz es simétrica o hermítica). En MATLAB el comando chol(a) devuelve la factorización de Cholesky de A si ésta es hermítica definida positiva. Recordemos que una factorización de Cholesky de una matriz hermítica definida positiva, A, es una factorización de la forma A LL siendo L una matriz triangular superior. Esta factorización es especialmente apropiada para resolver sistemas lineales mediante sustitución hacia adelante y hacia atrás. Teniendo en cuenta todo esto podemos dar un primer algoritmo para la resolución del problema de mínimos cuadrados. Algoritmo mínimos cuadrados via ecuaciones normales Dada A P F m n y dado b P F m 1. Fórmense las matrices A A y A b. 2. Calcúlese la factorización de Cholesky de A A LL, (chol(a)) 3. Resuélvase Ly A b (z o sustitución hacia adelante) 4. Resuélvase L x y.(z o sustitución hacia atrás)

9 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 167 Cuando A es hermítica definida positiva pero mal condicionada, el algoritmo de Cholesky puede dar resultados muy inexactos. Por lo tanto, el algoritmo anterior no es adecuado para resolver el problema de mínimos cuadrados. Una posibilidad sería usar la factorización QR de A A para conseguir la factorización de Cholesky de A A en vez del algoritmo de Cholesky. En efecto, si A QR es la factorización QR reducida de A, entonces A A R Q QR R R LL, donde hemos utilizado que Q Q I n, por tener Q columnas ortonormales, y hemos puesto L R. Esto nos muestra que si A es de rango completo, la factorización de Cholesky de A A es única. Esta alternativa, sin embargo, carece de sentido porque la ventaja del algoritmo de Choleski es que su coste es n 2 (mientras que el de la factorización QR sería de orden cúbico) y hay otros algoritmos que, cuando el de Choleski no es aconsejable, usan la factorización QR y sólo precisan resolver un sistema triangular. Presentamos a continuación uno de tales algoritmos. En el segundo algoritmo se trata de conseguir la solución, x 0, como solución del sistema Ax 0 P A b. Para ello, debemos conseguir P A, que es la proyección ortogonal sobre Im A. Recordemos que P A QQ, donde Q es una matriz cuyas columnas son una base ortonormal de Im A. Recordemos que si A QR es una factorización QR de A entonces las columnas de Q son una base ortonormal de Im A y, por consiguiente, QQ es la proyección ortogonal sobre Im A. Algoritmo mínimos cuadrados via factorización QR Dada A P F m n y dado b P F m 1. Hállese la factorización QR, reducida, de A 2. Calcúlese Q b. 3. Resuélvase Rx Q b (z o sustitución hacia atrás) Estos dos algoritmos pueden presentar problemas si la matriz A es singular o muy próxima a serlo; i.e., κpaq es muy grande. Si la situación es ésta, tenemos una alternativa: los valores singulares.

10 168 El Problema de Mínimos Cuadrados El problema de mínimos cuadrados y la inversa Moore- Penrose La inversa generalizada de Moore-Penrose se puede definir como la matriz que soluciona el problema de mínimos cuadrados. Es decir, de la misma que la solución del sistema Ax b es x A 1 b siempre que A sea invertible, la solución del problema de mínimos cuadrados es x 0 A : b. Veremos que esto es, en efecto así, y que este hecho nos proporciona un algoritmo alternativo para resolver el problema de mínimos cuadrados. Recordemos que x 0 es solución del problema se mínimos cuadrados si y sólo si es solución del sistema Ax P A b, siendo P A la proyección ortogonal sobre Im A. Recordemos también que si r rang A y A UΣV es una descomposición completa de A en valores singulares, entonces las r primeras columnas de U son una base ortonormal de Im A. (Proposición 3.10). Sea U r la submatriz de U formada por sus r primeras columnas. Como son una base ortonormal de Im A, la matriz U r U r es la proyección ortogonal sobre Im A. Es decir, P A U r U r. Así pues, si ponemos Σr 0 Σ 0 0 entonces el sistema Ax P A b es equivalente a U r Σr 0 V x U r U r b. Y este sistema es equivalente a Σ r c U r b y y V x. Entonces, 0 V x U r b dado que U r U r I r. Pongamos Ax P A b ô Σ r 0 y c. Si Σ r Diagpσ 1,..., σ r q, la solución general de este sistema es y c 1 {σ 1 c 2 {σ 2 c r {σ r y r 1 y n T con y r 1,..., y n, números arbitrarios. Si el rango de A es completo, n, la solución del sistema queda completamente determinada; cosa que ya habíamos demostrado. Pero si rang A n entonces hay infinitas soluciones del problema de mínimos cuadrados. Entre ellas, se suele escoger la solución de norma mínima. Y ésta es la que se consigue haciendo y r 1 y n 0. Finalmente, como y V x, tenemos que x V y.

11 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 169 Además, }x} 2 }V y} 2 }y} 2. En definitiva, el vector x 0 de norma mínima que soluciona el problema de mínimos cuadrados es: x 0 V y 0 V c 1 {σ 1 c 2 {σ 2. c r {σ r 0. 0 V r c 1 {σ 1 c 2 {σ 2., c r {σ r donde V r es la submatriz de V formada por sus r primeras columnas. Ahora vamos a volver hacia atrás a fin de recuperar la solución del problema en términos de los datos originales: A y b. Recordemos, antes de nada, que con las notaciones introducidas A U r Σ r V r es una descomposición reducida de A en valores singulares. En consecuencia A : V r Σ 1 r U r es la inversa generalizada o Moore-Penrose de A. Ahora bien, x 0 V r c 1 {σ 1 c 2 {σ 2. V rσ 1 r c V r Σ 1 r U r b, c r {σ r porque c U r b. Así pues, el vector de norma mínima que soluciona el problema de mínimos cuadrados es tal y como habíamos anunciado. x 0 V r Σ 1 r U r b A : b Este proceso, además, nos proporciona un algoritmo para calcular la solución del problema de mínimos cuadrados en el caso más general.

12 170 El Problema de Mínimos Cuadrados Algoritmo mínimos cuadrados via valores singulares Dada A P F m n y dado b P F m 1. Calcular la descomposición reducida de A en valores singulares: A UΣV, U P F m r, V P F n r y Σ Diagpσ 1,..., σ r q. 2. Calcular c U b. 3. Calcular x V Σ 1 c. Este es el vector de menor norma que soluciona el problema de mínimos cuadrados El condicionamiento del problema de mínimos cuadrados El condicionamiento del problema de mínimos cuadrados es un tema importante porque tiene implicaciones no triviales en el estudio de la estabilidad de los algoritmos para este problema. Como es habitual analizaremos en detalle el condicionamiento del problema y estudiaremos la estabilidad de los algoritmos mediante ejemplos significativos. Recordemos que el problema de mínimos cuadrados consiste en lo siguiente (supondremos en lo sucesivo que la matriz del sistema tiene rango completo): Dada A P F m n de rango completo y m n, y dado b P F m, calcular x P F n para que }Ax b} 2 sea mínima. (8.2) Ya sabemos que, en este caso, la solución del problema es única y viene dada por x A : b donde A : P F n n es la pseudoinversa o inversa generalizada de Moore-Penrose de A (ver 3.6). Además, si y Ax es el vector en Im A más próximo a b entonces y P b,

13 8.4 El condicionamiento del problema de mínimos cuadrados 171 siendo P la proyección ortogonal sobre Im A. Nuestro objetivo es estudiar el condicionamiento del Problema (8.2) respecto a perturbacione en A y en b. Es decir, los datos del problema son la matriz A y el vector b. La solución es el vector de coeficientes x o el correspondiente vector y Ax. Así pues Datos: A, b. Soluciones: x, y. Tenemos así, en realidad, cuatro posibles cuestiones de condicionamiento: Error relativo en x o y respecto a pequeñas perturbaciones en los datos b o A. El objetivo en esta sección es dar un resultado fundamental sobre el condicionamiento del problema de mínimos cuadrados. Para entender el enunciado y como apoyo a la demostración necesitamos introducir algunos conceptos y un par de resultados auxiliares. En primer lugar debemos recordar que para una matriz A P F m n de rango completo n el número de condición es κ 2 paq }A} 2 }A : } 2 σ 1 σ n. b r=ax b θ y=ax=pb Im A Figura 8.4: El problema de mínimos cuadrados. En segundo lugar, necesitamos el conceto de ángulo entre dos vectores de F m. Lo definimos, como es habitual, a partir de la desigualdad de Cauchy-Schwartz: si x, y P F m entonces x y }x} 2 }y} 2,

14 172 El Problema de Mínimos Cuadrados de modo que 1 x y }x} 2 }y} 2 1. Se define, entonces el ángulo, θ, de x, y como Equivalentemente θ arc cos cos θ x y }x} 2 }y} 2. x y }x} 2 }y} 2. En nuestro caso, para calcular el ángulo de b e y debemos hacer el producto escalar b y b P b. Teniendo en cuenta que P es una proyección (P 2 P ) ortogonal pp P ) resulta que Así pues b y b P b b P P b b P P b }P b} 2 2 }y}2 2. cos θ }y} 2 }b} 2. Para el seno usamos la identidad sen 2 θ 1 cos 2 θ: sen 2 θ 1 }y}2 2 }b} 2 2 }b}2 2 }y}2 2. }b} 2 2 Ahora bien, b y b y siendo y y b y ortogonales (y P Im A y b y b P b pi m P qb P pim Aq K ). Por consiguiente, usando el Teorema de Pitágoras, }b} 2 2 }y}2 2 }b y}2 2 y sen θ }b y} 2 }b} 2 Todas estos resultados generalizan los habituales en R 2 (Figura 8.4) En tercer lugar, para cualquier norma inducida }Ax} }A} }x}. Necesitaremos una medidad de lo lejos o cerca que está }y} }Ax} de su máximo valor posible: η }A} 2 }x} 2 }y} 2 }A} 2 }x} 2 }Ax} 2. Estos parámetros tienen el siguiente rango de variación: 1 κpaq 8 0 θ π{2 1 η κpaq

15 8.4 El condicionamiento del problema de mínimos cuadrados 173 Todas estas acotaciones son claras excepto, quizá, la última que viene de la siguiente observación: }x} 2 }A 1 Ax} 2 }A 1 } 2 }Ax} 2, de modo que η }A} 2}A 1 } 2 }Ax} 2 }Ax} 2 κ 2 paq. El resultado previo que necesitamos es el siguiente Lema 8.4 Para A P F m n de rango completo n se tiene: }pa Aq 1 A } 2 1 σ n. (8.3) }pa Aq 1 } 2 1 σ 2 n (8.4) siendo σ 1 σ n los valores singulares de A. Demostración.- La propiedad (8.4) es una consecuencia inmediata de que los valores singulares de A son las raíces cuadradas positivas de los valores propios de A A, y de que 1{σ 2 n es el mayor valor singular de pa Aq 1 (ver Porposiciones 3.12 y 3.16). Para probar la propiedad (8.3) se usa el Teorema SVD para ver que los valores singulares de pa Aq 1 A y los de A : coinciden. Podemos ahora plantear y demostrar el resultado principal Teorema 8.5 Sean b P F m y A P F m n con b 0 y rang A n m. Para el problema de mínimos cuadrados (8.2) se cumplen las siguientes propiedades, todo respecto de la norma l 2 : (i) El número de condición del problema de calcular y Ax P F n respecto de b es 1 cos θ. (8.5)

16 174 El Problema de Mínimos Cuadrados (ii) El número de condición del problema de calcular x P F n respecto de b es κ 2 paq η cos θ. (8.6) (iii) Sea x la solución del problema de mínimos cuadrados relativo a minimizar }pa δaq x b} 2. Si ỹ pa δaq x y ɛ }δa} 2 σ n entonces }A} 2 σ 1 }ỹ y} 2 }y} 2 ɛ κ 2pAq cos θ Opɛ 2 q. (8.7) (iv) En las mismas condiciones del apartado anterior ɛ κ 2 paq } x x} 2 }x} 2 κ 2 paq 2 tan θ η Opɛ 2 q. (8.8) (v) Sea x es la solución del problema de mínimos cuadrados relativo a minimizar }pa δaq x pb δbq} 2. Si sen θ 1 y ɛ máx " * }δa}2, }δb} 2 }A} 2 }b} 2 siendo σ 1 σ n los valores singulares de A, entonces " * } x x} 2 1 κ2 paq 2 tan θ ɛ κ 2 paq 1 }x} 2 η cos θ η σ n σ 1 Opɛ 2 q. (8.9) En el caso especial en que m n, el problema de mínimos cuadrados se reduce al de la resolución de un sistema de ecuaciones lineales. En tal caso θ 0 y las cotas de (8.6) y (8.8) se reducen a κ 2 paq{η y κ 2 paq recuperando los resultados vistos en la Lección 4. Demostración.- Demostraremos las propiedades (i) y (v). La propiedad (ii) se demuestra de manera muy similar a la propirdad (i), la propiedad (iv) es una caso particular de la (v) y la propiedad (iii) requiere una demostración independiente pero parecida a la (iv). (i) La relación entre b e y es y P b

17 8.4 El condicionamiento del problema de mínimos cuadrados 175 siendo P la proyeccción ortogonal sobre Im A. Vimos en la Sección 4.3 del Capítulo 4 que el número de condición del problema de multiplicar Ax para A dada y x variable: f : F n Ñ F m x b Ax es κ }f 1 pxq} }fpxq}{}x} }A} }x} }Ax}, (8.10) En nuestro caso se trata del número de condición del problema y P b respecto de b para P dado. Entonces κpbq }P } 2}b} 2 }y} 2 Como P es una proyección ortogonal P QQ para alguna matriz Q P F n m con columnas ortonormales. Sea U una matriz unitaria. Entonces Q U P U rq Q r Q QQ Q r Q In Por lo tanto, los valores singulares de P son todos iguales a 1 y en particular }P } 2 σ 1 pp q 1 Finalmente, recordemos que cos θ }y} 2 }b} 2. En conclusión: tal y como se deseaba demostrar. κpbq }P } 2}b} 2 }y} 2 1 cos θ, (v) En primer lugar definimos E 1 ɛ δa y f 1 ɛ δb. Por hipótesis, }δa} 2 σ n }A} 2 σ 1 y como }A} 2 σ 1, tenemos que }δa} 2 σ n. Por el Teorema 3.18 resulta que rangpa δaq n y consecuentemente rangpa teq n para todo t P r0, ɛs. Se sigue entonces que el sistema pa teq pa teqxptq pa teq pb tfq (8.11)

18 176 El Problema de Mínimos Cuadrados tiene una única solución para cada t P r0, ɛs. Invertir una matriz es una función diferenciable en los elementos de la matriz. Por lo tanto x es una función diferenciable de t en r0, ɛs. Por la definición de diferencial xpɛq xp0q ɛx 1 p0q Opɛ 2 q. Como xpɛq x, xp0q x, b 0 y sen θ 1, tenemos que x 0 y } x x} 2 }x} 2 ɛ }x1 p0q} 2 }x} 2 Opɛ 2 q. (8.12) Necesitamos una estimación de }x 1 p0q} 2. Para ello calculamos x 1 p0q en (8.11). Primero derivamos E pa teqxptq pa teq Exptq pa teq pa teqx 1 ptq E ppb tfq pa teq f, y sustituímos t 0 recordando que xp0q x: E Ax A Ex A Ax 1 p0q A f E b. Así x 1 p0q pa Aq 1 A pf Exq pa Aq 1 E pb Axq. Tomando normas: }x 1 p0q} 2 }pa Aq 1 A } 2 p}f} 2 }E} 2 }x} 2 q }pa Aq 1 } 2 }E } 2 }b Ax} 2. Por una parte, }E} 2 1 ɛ }δa} 2 }A} 2. Y de la misma forma }f} 2 }b} 2. También }A } 2 }A} 2, así que }x 1 p0q} 2 }pa Aq 1 A } 2 p}a} 2 }x} 2 }b} 2 q }pa Aq 1 } 2 }A} 2 }b Ax} 2 }pa Aq 1 A }b}2 } 2 }A} 2 }x} 2 }pa Aq 1 } 2 }A} 2 }b Ax} 2 2. }A} 2 }A} 2 Por otra parte, por el Lema 8.4, }pa Aq 1 A } 2 }A} 2 κ 2 paq y }pa Aq 1 } 2 }A} 2 2 κ 2 paq 2. Entonces }x 1 p0q} 2 }x} 2 κ 2 paq }b}2 {}Ax} 2 1 }A} 2 }x} 2 {}Ax} 2 κ 2 paq 2 }b Ax} 2{}Ax} 2 }A} 2 }x} 2 {}Ax} 2.

19 8.5 Estabilidad de los algoritmos para el problema de mínimos cuadrados 177 Ahora bien, η }A} 2}x} 2, cos θ }Ax} 2 y tan θ }b Ax} 2 }Ax} 2 }b} 2 }x 1 p0q} 2 }x} 2 1 κ 2 paq η cos θ 1 }Ax} 2 κ 2 paq 2 tan θ η. En consecuencia sustituyendo en (8.12) } x x} 2 }x} 2 ɛ " 1 κ 2 paq η cos θ 1 * κ2 paq 2 tan θ η Opɛ 2 q, tal y como se quería demostrar Estabilidad de los algoritmos para el problema de mínimos cuadrados Un estudio experimental de la estabilidad de los algoritmos para la resolución del problema de mínimos cuadrados lineal es el objetivo de una de las prácticas obligatorias con MATLAB que habrá de realizarse en este curso. En ella se plantea un problema de mínimos cuadrados cuya solución debe ser calculada con los tres algoritmos vistos en la Sección 8.3. A su vez, para los algoritmos basados en la factorización QR, se utilizarán los tres algoritmos vistos en las Lecciones 6 y 7; es decir, los algoritmos clásico y modificado de Gram-Schmidt y el algoritmo de Householder. A través de dicho experimento se comprobará que los algoritmos basados en la resolución de las ecuaciones normales y el factorización de Cholesky así como los basados en la factorización QR obtenida con los algoritmos de Gram-Schmidt pueden dar resultados con mucho error si la matriz del sistema está mal condicionada. Por lo tanto, estos algoritmos son inestables. No obstante, hay resultados (ver [11, Sec 20.4]) que muestran que para matrices bien condicionadas el algoritmo basado en la resolución de las ecuaciones normales es estable hacia atrás y para valores de m mucho mayores que n, el coste operacional sensiblemente menor que el método basado en la factorización QR mediante reflexiones de Householder. En tale situaciones, el método basado en la resolución de las ecuaciones normales sería el preferido. Por otra parte, a pesar de que el método basado en la factorización QR mediante el algoritmo modificado de Gram-Schmidt es inestable cuando se implementa de la manera indicada en la Sección 8.3, hay una forma de hacerlo que lo hace estable

20 178 El Problema de Mínimos Cuadrados hacia atrás (ver [11, Sec 20.3]). Finalmente, los algoritmos basados en la factorización QR mediante reflexiones de Householder y valores singulares son estables hacia atrás para sistemas en los que A es una matriz de rango completo. A continuación se enuncian los teoremas que lo hace explíto. Teorema 8.6 Supongamos que el problema de mínimos cuadrados con una matriz A de rango completo se resuelve mediante el algoritmo QR por reflexiones de Householder o mediante la descomposición en valores singulares en un ordenador que cumple los axiomas (5.2) y (5.4) de la Lección 5. Este algoritmo es estable hacia atrás: para cada A P F m n (m n y rang A n) existe una perturbación δa tal que }δa} }A} Opɛ Mq y la solución px producida por el algoritmo satisface }pa δaqpx b} 2 mín xpf n }pa δaqx b} 2. Para terminar, conviene mencionar que si la matriz A no es de rango completo, sabemos que la solución no está determinada de forma única y el único algoritmo completamente estable es el basado en la descomposición de A en valores singulares.

Ejercicio 1 Explica por qué el coste de invertir una matriz utilizando el algoritmo LU es de orden

Ejercicio 1 Explica por qué el coste de invertir una matriz utilizando el algoritmo LU es de orden CUESTIONES Ejercicio 1 Explica por qué el coste de invertir una matriz utilizando el algoritmo LU es de orden cúbico Ejercicio 2 Explica por qué si λ 1 ě λ 2 ě ě λ n son los valores propios de la matrix

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Clase 7 Herramientas de Álgebra Lineal

Clase 7 Herramientas de Álgebra Lineal Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es

Más detalles

2. Sistemas de ecuaciones lineales

2. Sistemas de ecuaciones lineales 2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y

Más detalles

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES SOBREDETERMINADOS La discusión de los problemas algebráicos de la parte anterior se había centrado exclusivamente

Más detalles

Álgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Tema 3. Mínimos cuadrados Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Índice

Más detalles

3. Sistemas inconsistentes y sistemas indeterminados

3. Sistemas inconsistentes y sistemas indeterminados . Sistemas inconsistentes sistemas indeterminados. Ejercicios resueltos Ejercicio. Dado el sistema: 4x + 5 x + 5 a Realizar la factorización QR de la matriz, resolverlo basándose en ella a. Mediante el

Más detalles

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012 Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema

Más detalles

Valores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1

Valores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1 Valores singulares Curso 2017-18 1 Producto escalar y ortogonalidad < x, y >= n y i x i = y T x si F = R, n y i x i = y x Si x C n x x = n x i 2 = x 2 2. si F = C Si x, y C n x y = y x, pero si x, y R

Más detalles

Factorización de matrices

Factorización de matrices CAPÍTULO Factorización de matrices En este capítulo se estudian algunas de las técnicas más utilizadas para factorizar matrices, es decir, técnicas que permiten escribir una matriz como producto de dos

Más detalles

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo. Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)

Más detalles

Matrices. Operaciones con matrices.

Matrices. Operaciones con matrices. Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =

Más detalles

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a

Más detalles

Condicionamiento. Capítulo Introducción

Condicionamiento. Capítulo Introducción Capítulo 4 Condicionamiento 4.1. Introducción El hecho de que los ordenadores pueden representar sólo un número finito de números reales y de forma aproximada tiene una consecuencia inmediata en el cálculo

Más detalles

1. Producto escalar. Propiedades Norma de un vector. Espacio normado. 1.2.Ortogonalidad. Ángulos. 1.4.Producto escalar en V 3.

1. Producto escalar. Propiedades Norma de un vector. Espacio normado. 1.2.Ortogonalidad. Ángulos. 1.4.Producto escalar en V 3. . Producto escalar. Propiedades... Norma de un vector. Espacio normado...ortogonalidad. Ángulos..3.Producto escalar en V..4.Producto escalar en V 3.. Producto vectorial de dos vectores de V 3...Expresión

Más detalles

Propiedades de matrices simétricas definidas positivas:

Propiedades de matrices simétricas definidas positivas: Propiedades de matrices simétricas definidas positivas: Propiedades de matrices simétricas definidas positivas: Sea A =[a ij ] 2 R n n. La matriz A es simétrica si A = A >. La matriz A es definida positiva

Más detalles

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

Matrices ortogonales y descomposición QR

Matrices ortogonales y descomposición QR Matrices ortogonales y descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Invertibilidad por la izquierda y por la derecha (repaso) 1. Conceptos

Más detalles

Espacios vectoriales con producto escalar

Espacios vectoriales con producto escalar 147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en

Más detalles

Factorización QR Método iterativo de Jacobi

Factorización QR Método iterativo de Jacobi Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores).

C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores). UNIVERSIDAD REY JUAN CARLOS, MADRID PRUEBA DE ACCESO PARA MAYORES DE 25 AÑOS MATEMÁTICAS II AÑO 2010 OPCIÓN A Ejercicio 1 a) (1 punto) Hallar los valores del parámetro para los que la siguiente matriz

Más detalles

Descomposición QR. Problemas para examen. Agradezco a Aldo Iván Leal García por varias correcciones importantes.

Descomposición QR. Problemas para examen. Agradezco a Aldo Iván Leal García por varias correcciones importantes. Descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Reflexión de Householder (repaso) 1. Reflexión ortogonal respecto a un hipersubespacio (repaso).

Más detalles

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f 1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x

Más detalles

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar) Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos

Más detalles

6.8. Descomposición mediante valores singulares. v 2 =

6.8. Descomposición mediante valores singulares. v 2 = 68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx

Más detalles

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan). Ejemplo 19: Demuestre que la matriz A es invertible y escríbala como un producto de matrices elementales. Solución: Para resolver el problema, se reduce A a I y se registran las operaciones elementales

Más detalles

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica 6.6 Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas

Más detalles

a de un conjunto S de R n si

a de un conjunto S de R n si 1 235 Máximos, mínimos y puntos de ensilladura Definición.- Se dice que una función real f( x) tiene un máximo absoluto en un punto a de un conjunto S de R n si f( x) f( a) (2) para todo x S. El número

Más detalles

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar Mínimos cuadrados Mayo de 2015. Ejemplos de introducción Observación preliminar Sean dos matrices A y B, por ejemplo a b A =, B = c d x z y t Las columnas de A representan los vectores u = (a; c) y v =

Más detalles

Matrices de Proyección

Matrices de Proyección Matrices de Proyección Departamento de Matemáticas, CSI/ITESM 4 de abril de 8 Índice.. Proyección ortogonal............................................ Proyección de un vector en R m....................................

Más detalles

Descomposición en valores singulares de una matriz

Descomposición en valores singulares de una matriz Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran

Más detalles

Inversa de una matriz

Inversa de una matriz Capítulo 2 Álgebra matricial 2.1. Inversa de una matriz Inversa de una matriz Para una matriz cuadrada A n n, la matriz B n n que verifica las condiciones AB = I n y B A=I n se denomina inversa de A, y

Más detalles

VECTORES : Las Cantidades Vectoriales cantidades escalares

VECTORES : Las Cantidades Vectoriales cantidades escalares VECTORES En física hay dos tipos de cantidades: Las Cantidades Vectoriales son aquellas que tiene tanto magnitud como dirección y sentido sobre la dirección), mientras que las cantidades escalares son

Más detalles

Espacios Euclídeos. Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza

Espacios Euclídeos. Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza Espacios Euclídeos Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza A lo largo de todo el capítulo consideraremos que V un espacio vectorial real de dimensión finita. 1 Producto escalar Definición.

Más detalles

Una ecuación lineal de n-incógnitas es una igualdad de la forma:

Una ecuación lineal de n-incógnitas es una igualdad de la forma: página 1/39 Teoría Tema 6 Ecuación lineal Una ecuación lineal de n-incógnitas es una igualdad de la forma: a 1 x 1 +a 2 x 2 +a 3 x 3 +...+a n x n =c Donde a 1,a 2, a 3,..., a n,c son números reales. En

Más detalles

dia G o n a l i z a c i ó n

dia G o n a l i z a c i ó n Unidad elementos característicos dia G o n a l i z a c i ó n Objetivos: Al inalizar la unidad, el alumno: Encontrará los valores y los vectores característicos de una matriz. Utilizará los elementos característicos

Más detalles

Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás

Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás de mayo de 013 Capítulo 10 Año 009 10.1. Modelo 009 - Opción A Problema 10.1.1 (3 puntos) Dados el plano π

Más detalles

Departamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2)

Departamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2) CÁLCULO NUMÉRICO I (Tema - Relación 2) 5 Resolver mediante el método de Gauss los siguientes sistemas de ecuaciones. 2x 2 + x = 0 2x + 2x 2 + x + 2x = 2 x x 2 + x = 7 6x + x 2 6x 5x = 6. x + x 2 x = x

Más detalles

Matemáticas II Bachillerato Ciencias y Tecnología 2º Curso ESPACIO AFÍN Introducción Ecuaciones de la recta...

Matemáticas II Bachillerato Ciencias y Tecnología 2º Curso ESPACIO AFÍN Introducción Ecuaciones de la recta... Unidad 5 ESPACIO AFÍN 5.. Introducción.... - - 5.. Ecuaciones de la recta.... - - 5.3. Ecuaciones del plano.... - 4-5.4. Posiciones relativas (Incidencia y paralelismo).... - 6 - Anexo I.- EJERCICIOS...

Más detalles

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 I. Sistemas homogéneos, subespacios, dependencia e independencia lineal 1. En cada caso

Más detalles

Reflexiones de Householder y el Algoritmo QR

Reflexiones de Householder y el Algoritmo QR Capítulo 7 Reflexiones de Householder y el Algoritmo QR 7.1. Introducción Hay otros dos métodos importantes para calcular la descomposición QR de una matriz: las reflexiones de Householder y las rotaciones

Más detalles

Cálculo Numérico III Curso 2010/11

Cálculo Numérico III Curso 2010/11 Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los

Más detalles

4.1 Anillo de polinomios con coeficientes en un cuerpo

4.1 Anillo de polinomios con coeficientes en un cuerpo Tema 4 Polinomios 4.1 Anillo de polinomios con coeficientes en un cuerpo Aunque se puede definir el conjunto de los polinomios con coeficientes en un anillo, nuestro estudio se va a centrar en el conjunto

Más detalles

Derivadas Parciales (parte 2)

Derivadas Parciales (parte 2) 40 Derivadas Parciales (parte 2) Ejercicio: Si donde y. Determinar Solución: Consideraremos ahora la situación en la que, pero cada una de las variables e es función de dos variables y. En este caso tiene

Más detalles

0 a b X = b c 0. f X (A) = AX XA.

0 a b X = b c 0. f X (A) = AX XA. Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Industriales Álgebra Lineal Convocatoria de Junio 8 de Junio de 2007 (3 ptos.). Sea V = {A M 3 3 (R) / A t = A}. (a) Demostrar que toda

Más detalles

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE: Álgebra Lineal - Grado de Estadística Examen final de junio de APELLIDOS, NOMBRE: DNI: Firma Primer parcial Ejercicio ( Sea A una matriz simétrica definida positiva de orden n y v R n Pruebe que la matriz

Más detalles

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE:

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE: Álgebra Lineal - Grado de Estadística Examen final 7 de junio de 4 APELLIDOS, NOMBRE: DNI: irma Primer parcial Ejercicio Consideremos matrices A m m, B, C n n, Pruebe que bajo la hipótesis de que las inversas

Más detalles

Factorización de rango completo y aplicaciones

Factorización de rango completo y aplicaciones XXI Congreso de Ecuaciones Diferenciales y Aplicaciones XI Congreso de Matemática Aplicada Ciudad Real, 21-25 septiembre 2009 (pp. 1 8) Factorización de rango completo y aplicaciones R. Cantó 1, B. Ricarte

Más detalles

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f 1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x

Más detalles

E.D.L. de 2 o orden II. Variación de parámetros. Coeficientes Indeterminados.

E.D.L. de 2 o orden II. Variación de parámetros. Coeficientes Indeterminados. E.E.I. CÁLCULO II Y ECUACIONES DIFERENCIALES Curso 06-7 Lección 0 Lunes 7 abr 07) E.D.L. de o orden II. Variación de parámetros. Coeficientes Indeterminados.. El método de variación de parámetros para

Más detalles

2) Halla a y b para que la siguiente función sea continua y derivable en x=1. Calcula la ecuación de la recta tangente en dicho punto:

2) Halla a y b para que la siguiente función sea continua y derivable en x=1. Calcula la ecuación de la recta tangente en dicho punto: CURSO 2-22. 24 de mayo de 2. ) Calcula: sen lím cos - 2) Halla a y b para que la siguiente función sea continua y derivable en =. Calcula la ecuación de la recta tangente en dicho punto: f()= a 2 +b+b

Más detalles

Ba s e, d i M e n s i ó n y Mat r i z

Ba s e, d i M e n s i ó n y Mat r i z Unidad 4 Ba s e, d i M e n s i ó n y Mat r i z de transición Objetivos: Al inalizar la unidad, el alumno: Conocerá la deinición de base de un espacio vectorial Identiicará bases canónicas para algunos

Más detalles

UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID. PRUEBAS DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) MODELO DE EXAMEN (Curso )

UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID. PRUEBAS DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) MODELO DE EXAMEN (Curso ) UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID PRUEBAS DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) MODELO DE EXAMEN (Curso 00-003) MATERIA: MATEMÁTICAS II INSTRUCCIONES GENERALES Y VALORACIÓN INSTRUCCIONES:

Más detalles

UNIVERSIDAD COMPLUTENSE DE MADRID

UNIVERSIDAD COMPLUTENSE DE MADRID Principales conceptos que se tendrán en cuenta en la elaboración de las pruebas de Acceso a la Universidad para los estudiantes provenientes del Bachillerato LOGSE de la materia "Matemáticas II" ÁLGEBRA

Más detalles

RESOLUCIÓN DE SISTEMAS LINEALES

RESOLUCIÓN DE SISTEMAS LINEALES Contenido 1 Métodos de Solución Contenido Métodos de Solución 1 Métodos de Solución Desarrollamos el algoritmo de sustitución regresiva, con el que podremos resolver un sistema de ecuaciones lineales cuya

Más detalles

Tema 3: Espacios eucĺıdeos

Tema 3: Espacios eucĺıdeos Marisa Serrano, Zulima Fernández Universidad de Oviedo 25 de noviembre de 2009 email: mlserrano@uniovi.es Índice 1 2 3.1 V, R espacio vectorial, la aplicación : V V R ( v, u) v u a) v 1, v 2, u V α, β

Más detalles

Últimas notas de SVD

Últimas notas de SVD Últimas notas de SVD MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Salvador Botello CIMAT A.C. e-mail: botello@cimat.mx Relación entre los valores singulares

Más detalles

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso Depto de Álgebra, curso 2017-2018 2 Álgebra matricial Inversa de una matriz Ejercicio 21 Calcule la matriz inversa de cada una de las matrices siguientes: a 2 1 1 3 2 1 h e, b 2 1 1 5 2 3 2 0 1 1 2 1 1

Más detalles

, donde denota la matriz traspuesta de B.

, donde denota la matriz traspuesta de B. Pruebas de acceso a enseñanzas universitarias oficiales de grado Castilla y León MATEMÁTICAS II EJERCICIO Nº Páginas: INDICACIONES:.- OPTATIVIDAD: El alumno deberá escoger una de las dos opciones, pudiendo

Más detalles

Materia: Matemática de 5to Tema: Producto Punto. Marco Teórico

Materia: Matemática de 5to Tema: Producto Punto. Marco Teórico Materia: Matemática de 5to Tema: Producto Punto Marco Teórico En términos comunes, el producto punto de dos vectores es un número que describe la cantidad de fuerza que dos vectores diferentes contribuyen

Más detalles

Teoría de la aproximación Métodos de Mínimos cuadrados

Teoría de la aproximación Métodos de Mínimos cuadrados Teoría de la aproximación Métodos de Mínimos cuadrados MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT A.C. e-mail: joaquin@cimat.mx

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Optimización. Matrices de Proyección ITESM. Matrices de Proyección Profr. E. Uresti - p. 1/21. Dr. E Uresti

Optimización. Matrices de Proyección ITESM. Matrices de Proyección Profr. E. Uresti - p. 1/21. Dr. E Uresti Optimización Matrices de Dr. E Uresti ITESM Matrices de Profr. E. Uresti - p. 1/21 ortogonal Teorema Sea Y una matriz m n y un espacio lineal V de dimensión r, ambos dentro de un espacio lineal U. de un

Más detalles

José Humberto Serrano Devia Página 1

José Humberto Serrano Devia Página 1 Similitudes entre el espacio y las series de Fourier Funciones Ortogonales En esta sección se muestra la forma en que los conceptos vectoriales de producto interno, o producto escalar, y el de ortogonalidad

Más detalles

Teoría de la aproximación Métodos de Mínimos cuadrados

Teoría de la aproximación Métodos de Mínimos cuadrados Teoría de la aproximación Métodos de Mínimos cuadrados MAT-251 Dr. Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4. 1 Tema 2. Sección 1. Espacio vectorial de Minkowski. Manuel Gutiérrez. Departamento de Álgebra, Geometría y Topología. Universidad de Málaga. 29071-Málaga. Spain. Abril de 2010. En este capítulo se recordará

Más detalles

3. ÁLGEBRA LINEAL // 3.2. GEOMETRÍA

3. ÁLGEBRA LINEAL // 3.2. GEOMETRÍA 3. ÁLGEBRA LINEAL // 3.2. GEOMETRÍA ANALÍTICA EN EL PLANO Y EN EL ESPACIO. COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS 3.2.1. Rectas en el plano y en el espacio La recta que pasa por el punto

Más detalles

M a t e m á t i c a s I I 1

M a t e m á t i c a s I I 1 Matemáticas II Matemáticas II CANTABRIA CONVOCATORIA JUNIO 009 SOLUCIÓN DE LA PRUEBA DE ACCESO AUTOR: José Luis Pérez Sanz Bloque I A a) No es cierto que el producto de matrices sea conmutativo. Por ejemplo,

Más detalles

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes. Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES

Más detalles

MATEMÁTICA AGRONOMÍA RESPUESTAS AL SEGUNDO PARCIAL Primer Cuatrimestre Tema 1

MATEMÁTICA AGRONOMÍA RESPUESTAS AL SEGUNDO PARCIAL Primer Cuatrimestre Tema 1 Ejercicio Considerando la recta R que pasa por los puntos A = (; 0; ) y B = (2; ; 5) y el punto P = (2; ; ), hallar la ecuación implícita del plano π que es perpendicular a la recta R y contiene al punto

Más detalles

Cap 3: Álgebra lineal

Cap 3: Álgebra lineal Universidad Nacional de Ingeniería Facultad de Ciencias Cálculo Numérico 1 IF321 Cap 3: Álgebra lineal Prof: J. Solano 2018-I INTRODUCCION Aqui trabjaremos con operaciones basicas con matrices, tales como

Más detalles

Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior

Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior Cálculo infinitesimal Grado en Matemáticas Curso 2004/5 Clave de soluciones n o 6 Derivadas de orden superior 70. Hallar los polinomios de Taylor del grado indicado y en el punto indicado para las siguientes

Más detalles

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL 1. Definiciones básicas. UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL I. Sistemas homogéneos y subespacios de R n. (a) Para el sistema

Más detalles

AUTOVALORES Y AUTOVECTORES

AUTOVALORES Y AUTOVECTORES 12 de Julio de 2011 AUTOVALORES Y AUTOVECTORES (Clase 01) Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela 1 Puntos a tratar 1. Valores y vectores propios 2.

Más detalles

Ejercicios Resueltos Tema 5

Ejercicios Resueltos Tema 5 Ejercicios Resueltos Tema 5 Ejercicio 1 Estudiar si la forma bilineal f : R n R n R definida por k f ((x 1,..., x n ), (y 1,..., y n )) = x i y i, siendo 1 k < n, es un producto escalar de R n i=1 Solución.

Más detalles

Elementos de Cálculo Numérico (M) - Cálculo Numérico

Elementos de Cálculo Numérico (M) - Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.

Más detalles

Opción de examen n o 1

Opción de examen n o 1 Septiembre-206 PAU Cantabria-Matemáticas II Opción de examen n o. a) Según el enunciado, se tiene: A B = C Ö è Ö è a b 2 c b c a = Ö è 0 Al igualar las matrices obtenidas se llega a: 2 + a + b = 2c + +

Más detalles

Curso Hoja 1. Análisis de errores

Curso Hoja 1. Análisis de errores Hoja 1. Análisis de errores 1 Teniendo en cuenta que MATLAB trabaja en doble precisión, calcular el número máquina inmediatamente anterior a 1 y comprobar que dista 2 53 de 1. 2 Calcular 1 2 52, 1 2 53,

Más detalles

MATEMÁTICAS: EBAU 2017 MODELO CASTILLA Y LEÓN

MATEMÁTICAS: EBAU 2017 MODELO CASTILLA Y LEÓN MATEMÁTICAS: EBAU 207 MODELO CASTILLA Y LEÓN Opción A Ejercicio A x y + z = Dado el sistema de ecuaciones lineales { 3x + λy =, se pide: 4x + λz = 2 a) Discutir el sistema (existencia y número de soluciones)

Más detalles

Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5

Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5 Matemáticas II Prácticas: Matrices y Determinantes. Sean las matrices cuadradas siguientes: 4 5 6 B = 9 8 7 6 5 4 C = 5 7 9 0 7 8 9 Se pide calcular: a A B + C. b A AB + AC. c A B AB + ACB.. Sean las matrices:

Más detalles

MATEMÁTICASII Curso académico BLOQUE GEOMETRÍA TEMA 2: Puntos, rectas y planos del espacio.

MATEMÁTICASII Curso académico BLOQUE GEOMETRÍA TEMA 2: Puntos, rectas y planos del espacio. MATEMÁTICASII Curso académico 2015-2016 BLOQUE GEOMETRÍA TEMA 2: Puntos, rectas y planos del espacio. 2.1 SISTEMA DE REFERENCIA. COORDENADAS DE UN PUNTO Elegimos un punto del espacio que llamamos origen

Más detalles

1 Con juntos de Números: Axiomas 1

1 Con juntos de Números: Axiomas 1 ÍNDICE 1 Con juntos de Números: Axiomas 1 LOS CONJUNTOS EN EL ALGEBRA. 1-1 Los conjuntos y sus relaciones, 1.1-2 Conjuntos y variables, 6. AXIOMAS DE LOS NUMEROS REALES. 1-3 Orden en el conjunto de los

Más detalles

MATEMÁTICAS: PAU 2016 JUNIO CASTILLA Y LEÓN

MATEMÁTICAS: PAU 2016 JUNIO CASTILLA Y LEÓN MATEMÁTICAS: PAU 26 JUNIO CASTILLA Y LEÓN Opción A Ejercicio A 5 a a) Discutir para qué valores de a R la matriz M = ( ) tiene inversa. Calcular M a para a =. ( 5 puntos) Para que exista inversa de una

Más detalles

Para localizar un punto o un objeto en el espacio necesitamos un sistema de referencia. R es una cuaterna { O,i, j, k}

Para localizar un punto o un objeto en el espacio necesitamos un sistema de referencia. R es una cuaterna { O,i, j, k} Geometría afín del espacio MATEMÁTICAS II 1 1 SISTEMA DE REFERENCIA. ESPACIO AFÍN Para localizar un punto o un objeto en el espacio necesitamos un sistema de referencia. Definición: Un sistema de referencia

Más detalles

C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores).

C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores). UNIVERSIDAD REY JUAN CARLOS, MADRID PRUEBA DE ACCESO PARA MAYORES DE 25 AÑOS MATEMÁTICAS II AÑO 2013 OPCIÓN A Ejercicio 1 a) (1 punto) Hallar los valores del parámetro para los que la siguiente matriz

Más detalles

Transformaciones Lineales

Transformaciones Lineales Transformaciones Lineales En lo que sigue denotaremos por K al conjunto R ó C Definición Sean V y W dos K-ev (espacios vectoriales sobre K Se llama transformación lineal de V en W a toda función T : V

Más detalles

Unidad 6 Geometría euclídea. Producto escalar

Unidad 6 Geometría euclídea. Producto escalar Unidad 6 Geometría euclídea Producto escalar PÁGINA 131 SOLUCIONES 1 La recta 4 x 3y + 6 = 0 tiene de pendiente 4 m = 3 4 Paralela: y 1 = ( x ) 4x 3y 5 = 0 3 4 Perpendicular: y 1 = ( x ) 3x + 4y 10 = 0

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16 Clase No 13: Factorización QR MAT 251 Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) 03102011 1 / 16 Factorización QR Sea A R m n con m n La factorización QR de A es A = QR = [Q 1 Q 2 ] R1 = Q 0 1 R

Más detalles

ÁLGEBRA SELECTIVIDAD C y L

ÁLGEBRA SELECTIVIDAD C y L ÁLGEBRA SELECTIVIDAD C y L JUNIO 2004 1. Se tiene una matriz M cuadrada de orden 3 cuyas columnas son respectivamente C1, C2 y C3 y cuyo determinante vale 2. Se considera la matriz A cuyas columnas son

Más detalles

UNIVERSIDAD CARLOS III DE MADRID MATEMÁTICAS PARA LA ECONOMÍA II PROBLEMAS (SOLUCIONES ) 2a 2c 2b 2u 2w 2v. a b c. u v w. p q r. a b c.

UNIVERSIDAD CARLOS III DE MADRID MATEMÁTICAS PARA LA ECONOMÍA II PROBLEMAS (SOLUCIONES ) 2a 2c 2b 2u 2w 2v. a b c. u v w. p q r. a b c. UNIVERSIDAD CARLOS III DE MADRID MATEMÁTICAS PARA LA ECONOMÍA II PROBLEMAS (SOLUCIONES ) - Calcular los siguientes determinantes: 3 3 a) b) 3 5 5 3 4 5 Hoja : Matrices y sistemas de ecuaciones lineales

Más detalles

Instituto Tecnológico Autónomo de México. 1. At =..

Instituto Tecnológico Autónomo de México. 1. At =.. Instituto Tecnológico Autónomo de México TRANSPUESTA DE UNA MATRIZ DEFINICION : Transpuesta Sea A = (a ij ) una matriz de mxn Entonces la transpuesta de A, que se escribe A t, es la matriz de nxm obtenida

Más detalles

c-inversa o inversa generalizada de Rao

c-inversa o inversa generalizada de Rao c-inversa o inversa generalizada de Rao Definición.- Sea A m n. Se dice que una matriz A c de orden n m es una c-inversa o inversa generalizada en el sentido de Rao si y sólo si se verifica AA c A = A.

Más detalles

Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 12 de marzo de (

Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 12 de marzo de ( Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 2 de marzo de 208. Apellidos: Nombre: DNI: Ejercicio.-(4 puntos) Se considera la matriz siguiente: A = 2 0 3 0 2. Calcule W = null(a 2I), W 2 = null(a 4I)

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

Relación de problemas. Álgebra lineal.

Relación de problemas. Álgebra lineal. Relación de problemas Álgebra lineal Tema 1 Sección 1 Matrices Determinantes Sistemas lineales Matrices Ejercicio 11 Consideremos las siguientes matrices: ( 1 2 A = 1 1 ) ( 1 1 B = 0 1 ) C = 1 0 0 0 1

Más detalles

Transformaciones Lineales y Espacio Dual

Transformaciones Lineales y Espacio Dual Transformaciones Lineales y Espacio Dual Juan Pablo De Rasis 22 de abril de 2018 El presente artículo tiene como objetivo la exposición de soluciones a problemas de Álgebra Lineal concernientes a transformaciones

Más detalles