El Problema de Mínimos Cuadrados
|
|
- Gabriel Blanco Ramos
- hace 7 años
- Vistas:
Transcripción
1 Capítulo 8 El Problema de Mínimos Cuadrados 8.1. El problema de mínimos cuadrados El problema del ajuste de datos; es decir, descubrir una función matemática que pueda explicar de la mejor forma posible el comportamiento de algún mecanismo o grupo de seres u objetos que puede ser medido, y del cual conocemos algunos datos (con sus posibles errores de medición), es un problema clásico y ha supuesto un reto para la comunidad matemática desde su planteamiento por Gauss y Legendre hacia En lenguaje de álgebra lineal consiste en encontrar la solución de un sistema lineal Ax b siendo A P C m n con m n. En A y b se recogen todos los datos del experimento que se quieren ajustar. Enseguida veremos algunos ejemplos. Sabemos que el sistema tiene solución si y sólo si b P Im A, condición que difícilmente se cumple si m es mucho mayor que n. Si m n diremos que el sistema Ax b está sobredeterminado; y si no existe ningún x P C n 1 tal que Ax b lo que se 159
2 160 El Problema de Mínimos Cuadrados puede intentar es buscar un x de forma que el vector r Ax b P C m, que se llama residuo o vector residual, sea lo más pequeño posible. Lo grande o pequeño que sea r lo mediremos mediante una norma. El problema de mínimos cuadrados consiste en encontrar x P C n 1 para que el vector residuo tenga la menor norma euclídea posible. Su formulación precisa sería la siguiente: Problema de mínimos cuadrados: Sea F R o C. Dada una matriz A P F m n y un vector b P F m,(m n) encontrar x P C n 1 para que }Ax b} 2 sea mínimo. La elección de la norma euclídea se puede justificar desde varios puntos de vista: histórico, geométrico, estadístico,... ; pero sobre todo porque es la norma habitual, conduce a los algoritmos más sencillos y así como todas las normas son funciones continuas de los vectores, la norma euclídea es, además, diferenciable. Como, por añadidura, la función }Ax b} 2 alcanza su máximo absoluto en un máximo local, este máximo puede calcularse igualando a cero las derivadas parciales de dicha función. Este proceso conduce a lo que se llaman las ecuaciones normales del problema de mínimos cuadrados. Estas ecuaciones nos las encontraremos más adelante procedentes de un contexto completamente diferente. Ejemplo 8.1 El ejemplo más típico de ajuste de datos por mínimos cuadrados es el cálculo del polinomio de interpolación: dados m puntos del plano px i, y i q, i 1,..., m, de forma que x i x j para i j, se trata de encontrar un polinomio de grado a lo más m 1, ppxq a 0 a 1 x a m 1 x m 1, que pase por los n puntos. Se trata, entonces, de encontrar los coeficientes a 0, a 1,..., a m 1, para que Esto equivale a resolver el sistema lineal ppx i q y i, i 1,..., m. a 0 a 1 x i a m 1 x m 1 i y i, i 1,..., m (8.1)
3 8.1 El problema de mínimos cuadrados 161 cuya matriz de coeficientes es A x j 1 i 1 x 1 x 2 1 x m x 2 x 2 2 x m x m x 2 m xm 1 m Esta es una matriz de Vandermonde cuyo determinante es det A ¹ i jpx i x j q. Por consiguiente A es invertible y el sistema (8.1) tiene una única solución. En la Figura 8.1 se muestra la gráfica del polinomio de interpolación que pasa por los 11 puntos pi, 0q con i 5, 4,..., 1, 0, 1,..., 4, 5. Se trata de un polinomio de grado 10. A su derecha se ha escrito el código de MATLAB que obtiene los coeficientes del polinomio de interpolación: c Azb y que da la gráfica: plot(t, polyval(p,t),a,b, r*, markersize,10);. El comando polyval(p,t) devuelve un vector: el valor del polinomio p en las componentes del vector t. Nótese el uso de las sentencias fliplr y flipud para obtener la matriz de los coeficientes del sistema y los coeficientes del polinomio de interpolación en la forma apropiada. La sentencia zeroaxes hace que los ejes cartesianos se dibujen en la forma que se acostumbra a utilizar en la pizarra: dos líneas perpendiculares que se cortan en p0, 0q. 5 Figura 8.1: a=-5:5; 4 A=fliplr(vander(a)); 3 b=[ ] ; 2 c=azb; 1 p=flipud(c); t=linspace(-5.05,5.05); plot(t, polyval(p,t),a,b, r*,...; markersize,10); zeroaxes Indudablemente el polinomio de interpolación se ajusta perfectamente a los datos, pero a menudo éstos proceden de experimentos y lo que se pretende es buscar una
4 162 El Problema de Mínimos Cuadrados curva que interprete los datos obtenidos. Como las mediciones se realizan en momentos puntuales, tal gráfica debería reflejar, salvo que se tengan motivos para pensar lo contrario, una comportamiento suave entre dos datos consecutivos, y no la fluctuación que muestra el polinomio de interpolación de nuestro ejemplo. Quizá un polinomio de menor grado pueda mostrar un mejor comportamiento. Tal polinomio no pasará por algunos de los puntos. Pero la medición de todo proceso real conlleva errores que podrían explicar tal fenómeno. Ejemplo 8.2 (Ajuste por mínimos cuadrados) Con los mismos datos del ejemplo anterior calcular el polinomio de grado 7 que mejor se ajusta a los datos en el sentido de los mínimos cuadrados. Siguiendo los mismos pasos que en el ejemplo anterior lo que buscamos es un polinomio de grado a lo más n 1 m 1 ppxq a 0 a 1 x a n 1 x n 1 tal que }ppxq y} 2 sea mínimo. Aquí, ppxq es el vector cuya i-ésima componente es ppx i q y el vector y es el que tiene por i-ésima componente y i. Ahora bien, si A 1 x 1 x 2 1 x1 n 1 1 x 2 x 2 2 x2 n x m x 2 m xn 1 m es la matriz de Vandermonde truncada y c pa 0, a 1,..., a n 1 q es el vector de los coeficientes de p tenemos que ppxq Ac. Así que se trata de hallar un vector c en el que se alcance mín xpc n }Ax y} 2. En la Figura 8.2 se presenta la gráfica producida por MATLAB del polinomio de grado 7 que mejor se ajusta a los datos pa i, b i q en el sentido de los mínimos cuadrados. El problema de mínimos cuadrados correspondiente se calcula en el interior de la sentencia ployfit. El resto del código de MATLAB que se muestra es el mismo que en el apartado anterior. Una observación final antes de abordar la solución del problema de mínimos cuadrados y los algoritmos correspondientes. Una variante del problema de encontrar
5 8.2 La solución del problema de mínimos cuadrados Figura 8.2: 4 a=-5:5 A=fliplr(vander(a)) 3 b=[ ] ; 2 p=polyfit(a,b,7); 1 t=linspace(-5.3,5.3); plot(t, polyval(p,t),a,b, r*,... markersize,10); axis([ ]); zeroaxes el polinomio de grado a lo más n 1 que mejor se ajusta a una nube de m puntos, px i, y i q, distribuídos en el plano es el de encontrar la función φpxq c 1 φ 1 pxq c 2 φ 2 pxq c n φ n pxq, que mejor se ajusta a una de tales nubes de puntos. Aquí φ 1, φ 2,..., φ n son funciones dadas, o de las que uno sospecha que una combinación lineal de ellas puede ajustarse bien a los datos. En este caso el problema se reduce a calcular el vector c donde se alcanza el mínimo: mín xpc }Ax y} 2, siendo A P F m n la matriz cuyo elemento en la posición pi, jq es φ j px i q y siendo y el vector cuyas componetes son y 1,..., y m La solución del problema de mínimos cuadrados En esta sección demostramos el resultado que nos da la solución del problema de mínimos cuadrados. Geométricamente la situación es muy simple (véase la Figura 8.3): el vector de Im A cuya distancia a b es mínima es la proyección ortogonal de b sobre Im A. Y la distancia mínima es la norma del residuo. Esto es lo que nos dice el siguiente Teorema.
6 164 El Problema de Mínimos Cuadrados b r=ax 0 b Im A Ax 0 Figura 8.3: La solución del problema de mínimos cuadrados Teorema 8.3 Sean A P F m n, F R o C, y b P F m 1, m n. Sea P A la proyección ortogonal sobre Im A. Entonces, Ax 0 cumple }Ax 0 b} 2 mín xpf n }Ax b} 2 si y sólo si se cumple cualquiera de las siguientes condiciones que son equivalentes: (i) Ax 0 P A b. (ii) b Ax 0 P pim Aq K. (iii) A Ax 0 A b. Además, la solución x 0 es única si y sólo si rang A n. En la demostración se usa el teorema de Pitágoras: Si x, y P C n son ortogonales entonces }x y} 2 2 }x}2 2 }y}2 2. En efecto, }x y} 2 2 px yq px yq x x y x y y x x x y y }x} 2 2 }y}2 2, donde hemos usado que x y y x 0 porque x e y son ortogonales. Demostración.- Todo se basa en la demostración de la idea geométrica expuesta más arriba: mín xpc n }Ax b} 2 }P A b b} 2. Vemaos que esto es así. En efecto }Ax b} 2 2 }Ax P Ab P A b b} 2 2 }Ax P Ab} 2 2 }P Ab b} 2 2
7 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 165 porque Ax P A b P Im A y P A b b pi P A qb P pimaq K y aplicando el Teorema de Pitágoras. Por lo tanto, para todo x P C n }Ax b} 2 }P A b b} 2. Pero como P A b P Im A, existe x 1 P C n tal que Ax 1 P A b; i.e., }Ax 1 b} 2 }P A b b} 2. Por lo tanto mín xpc n }Ax b} 2 }P A b b} 2, tal y como deseábamos mostrar. Ahora, si Ax 0 es el vector que hace mínima la distancia de Ax a b entonces }P A b b} 2 2 mín xpc n }Ax b}2 2 }Ax 0 b} 2 2 }Ax 0 P A b} 2 2 }P Ab b} 2 2. De aquí deducimos que }Ax 0 P A b} 2 0; es decir, Ax 0 P A b. Sólo queda demostrar la equivalencia entre las tres condiciones. Por una parte P A b Ax 0 ñ b Ax 0 b P A b pi P A qb P pim Aq K. Y si b Ax 0 P pim Aq K entonces P A pb Ax 0 q 0 de modo que P A b P A Ax 0. Pero como Ax 0 P Im A tenemos que P A Ax 0 Ax 0. Esto demuestra la equivalencia entre las condiciones (i) y (ii). Finalmente, como pim Aq K Ker A tenemos que b Ax 0 P pim Aq K si y sólo si A pb Ax 0 q 0; i. e., A Ax 0 A b. Falta demostrar que la solución del problema de mínimos cuadrados es única si y sólo si rang A n. Ahora bien, rang A n si y sólo si A A es invertible. Una forma de ver esto es, por ejemplo, la siguiente: rang A n si y sólo si σ n paq 0. Como los valores singulares de A son las raíces cuadradas positivas de los valores propios de A A, σ n 0 si y sólo si todos los valores propios de A A son distintos de cero; i.e. detpa Aq 0. Pero A A es invertible si y sólo si el sistema A Ax A b tiene solución única Algoritmos para calcular la solución del problema de mínimos cuadrados El Teorema 8.3 nos da las claves para calcular un vector x 0 que solucione el problema de mínimos cuadrados. En primer lugar, el sistema A Ax A b recibe el nombre de
8 166 El Problema de Mínimos Cuadrados ecuaciones normales del problema de mínimos cuadrados. Es el sistema que aparece al calcular el mínimo local de la función fpxq }Ax b} 2. Es decir, el sistema Bf pxq 0, i 1,..., n Bx i da lugar al sistema A Ax A b. Como la función f es convexa, alcanza su mínimo absoluto en un mínimo local. Para resolver el sistema A Ax A b numéricamente, tendremos en cuenta la estructura especial de la matriz A A: es hermítica (simétrica en el caso real). Además es definida positiva porque x A Ax }Ax} 2 0 para x 0. Ahora bien toda matriz hermítica definida positiva admite una factorización de Cholesky (variante de la factorización LU cuando la matriz es simétrica o hermítica). En MATLAB el comando chol(a) devuelve la factorización de Cholesky de A si ésta es hermítica definida positiva. Recordemos que una factorización de Cholesky de una matriz hermítica definida positiva, A, es una factorización de la forma A LL siendo L una matriz triangular superior. Esta factorización es especialmente apropiada para resolver sistemas lineales mediante sustitución hacia adelante y hacia atrás. Teniendo en cuenta todo esto podemos dar un primer algoritmo para la resolución del problema de mínimos cuadrados. Algoritmo mínimos cuadrados via ecuaciones normales Dada A P F m n y dado b P F m 1. Fórmense las matrices A A y A b. 2. Calcúlese la factorización de Cholesky de A A LL, (chol(a)) 3. Resuélvase Ly A b (z o sustitución hacia adelante) 4. Resuélvase L x y.(z o sustitución hacia atrás)
9 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 167 Cuando A es hermítica definida positiva pero mal condicionada, el algoritmo de Cholesky puede dar resultados muy inexactos. Por lo tanto, el algoritmo anterior no es adecuado para resolver el problema de mínimos cuadrados. Una posibilidad sería usar la factorización QR de A A para conseguir la factorización de Cholesky de A A en vez del algoritmo de Cholesky. En efecto, si A QR es la factorización QR reducida de A, entonces A A R Q QR R R LL, donde hemos utilizado que Q Q I n, por tener Q columnas ortonormales, y hemos puesto L R. Esto nos muestra que si A es de rango completo, la factorización de Cholesky de A A es única. Esta alternativa, sin embargo, carece de sentido porque la ventaja del algoritmo de Choleski es que su coste es n 2 (mientras que el de la factorización QR sería de orden cúbico) y hay otros algoritmos que, cuando el de Choleski no es aconsejable, usan la factorización QR y sólo precisan resolver un sistema triangular. Presentamos a continuación uno de tales algoritmos. En el segundo algoritmo se trata de conseguir la solución, x 0, como solución del sistema Ax 0 P A b. Para ello, debemos conseguir P A, que es la proyección ortogonal sobre Im A. Recordemos que P A QQ, donde Q es una matriz cuyas columnas son una base ortonormal de Im A. Recordemos que si A QR es una factorización QR de A entonces las columnas de Q son una base ortonormal de Im A y, por consiguiente, QQ es la proyección ortogonal sobre Im A. Algoritmo mínimos cuadrados via factorización QR Dada A P F m n y dado b P F m 1. Hállese la factorización QR, reducida, de A 2. Calcúlese Q b. 3. Resuélvase Rx Q b (z o sustitución hacia atrás) Estos dos algoritmos pueden presentar problemas si la matriz A es singular o muy próxima a serlo; i.e., κpaq es muy grande. Si la situación es ésta, tenemos una alternativa: los valores singulares.
10 168 El Problema de Mínimos Cuadrados El problema de mínimos cuadrados y la inversa Moore- Penrose La inversa generalizada de Moore-Penrose se puede definir como la matriz que soluciona el problema de mínimos cuadrados. Es decir, de la misma que la solución del sistema Ax b es x A 1 b siempre que A sea invertible, la solución del problema de mínimos cuadrados es x 0 A : b. Veremos que esto es, en efecto así, y que este hecho nos proporciona un algoritmo alternativo para resolver el problema de mínimos cuadrados. Recordemos que x 0 es solución del problema se mínimos cuadrados si y sólo si es solución del sistema Ax P A b, siendo P A la proyección ortogonal sobre Im A. Recordemos también que si r rang A y A UΣV es una descomposición completa de A en valores singulares, entonces las r primeras columnas de U son una base ortonormal de Im A. (Proposición 3.10). Sea U r la submatriz de U formada por sus r primeras columnas. Como son una base ortonormal de Im A, la matriz U r U r es la proyección ortogonal sobre Im A. Es decir, P A U r U r. Así pues, si ponemos Σr 0 Σ 0 0 entonces el sistema Ax P A b es equivalente a U r Σr 0 V x U r U r b. Y este sistema es equivalente a Σ r c U r b y y V x. Entonces, 0 V x U r b dado que U r U r I r. Pongamos Ax P A b ô Σ r 0 y c. Si Σ r Diagpσ 1,..., σ r q, la solución general de este sistema es y c 1 {σ 1 c 2 {σ 2 c r {σ r y r 1 y n T con y r 1,..., y n, números arbitrarios. Si el rango de A es completo, n, la solución del sistema queda completamente determinada; cosa que ya habíamos demostrado. Pero si rang A n entonces hay infinitas soluciones del problema de mínimos cuadrados. Entre ellas, se suele escoger la solución de norma mínima. Y ésta es la que se consigue haciendo y r 1 y n 0. Finalmente, como y V x, tenemos que x V y.
11 8.3 Algoritmos para calcular la solución del problema de mínimos cuadrados 169 Además, }x} 2 }V y} 2 }y} 2. En definitiva, el vector x 0 de norma mínima que soluciona el problema de mínimos cuadrados es: x 0 V y 0 V c 1 {σ 1 c 2 {σ 2. c r {σ r 0. 0 V r c 1 {σ 1 c 2 {σ 2., c r {σ r donde V r es la submatriz de V formada por sus r primeras columnas. Ahora vamos a volver hacia atrás a fin de recuperar la solución del problema en términos de los datos originales: A y b. Recordemos, antes de nada, que con las notaciones introducidas A U r Σ r V r es una descomposición reducida de A en valores singulares. En consecuencia A : V r Σ 1 r U r es la inversa generalizada o Moore-Penrose de A. Ahora bien, x 0 V r c 1 {σ 1 c 2 {σ 2. V rσ 1 r c V r Σ 1 r U r b, c r {σ r porque c U r b. Así pues, el vector de norma mínima que soluciona el problema de mínimos cuadrados es tal y como habíamos anunciado. x 0 V r Σ 1 r U r b A : b Este proceso, además, nos proporciona un algoritmo para calcular la solución del problema de mínimos cuadrados en el caso más general.
12 170 El Problema de Mínimos Cuadrados Algoritmo mínimos cuadrados via valores singulares Dada A P F m n y dado b P F m 1. Calcular la descomposición reducida de A en valores singulares: A UΣV, U P F m r, V P F n r y Σ Diagpσ 1,..., σ r q. 2. Calcular c U b. 3. Calcular x V Σ 1 c. Este es el vector de menor norma que soluciona el problema de mínimos cuadrados El condicionamiento del problema de mínimos cuadrados El condicionamiento del problema de mínimos cuadrados es un tema importante porque tiene implicaciones no triviales en el estudio de la estabilidad de los algoritmos para este problema. Como es habitual analizaremos en detalle el condicionamiento del problema y estudiaremos la estabilidad de los algoritmos mediante ejemplos significativos. Recordemos que el problema de mínimos cuadrados consiste en lo siguiente (supondremos en lo sucesivo que la matriz del sistema tiene rango completo): Dada A P F m n de rango completo y m n, y dado b P F m, calcular x P F n para que }Ax b} 2 sea mínima. (8.2) Ya sabemos que, en este caso, la solución del problema es única y viene dada por x A : b donde A : P F n n es la pseudoinversa o inversa generalizada de Moore-Penrose de A (ver 3.6). Además, si y Ax es el vector en Im A más próximo a b entonces y P b,
13 8.4 El condicionamiento del problema de mínimos cuadrados 171 siendo P la proyección ortogonal sobre Im A. Nuestro objetivo es estudiar el condicionamiento del Problema (8.2) respecto a perturbacione en A y en b. Es decir, los datos del problema son la matriz A y el vector b. La solución es el vector de coeficientes x o el correspondiente vector y Ax. Así pues Datos: A, b. Soluciones: x, y. Tenemos así, en realidad, cuatro posibles cuestiones de condicionamiento: Error relativo en x o y respecto a pequeñas perturbaciones en los datos b o A. El objetivo en esta sección es dar un resultado fundamental sobre el condicionamiento del problema de mínimos cuadrados. Para entender el enunciado y como apoyo a la demostración necesitamos introducir algunos conceptos y un par de resultados auxiliares. En primer lugar debemos recordar que para una matriz A P F m n de rango completo n el número de condición es κ 2 paq }A} 2 }A : } 2 σ 1 σ n. b r=ax b θ y=ax=pb Im A Figura 8.4: El problema de mínimos cuadrados. En segundo lugar, necesitamos el conceto de ángulo entre dos vectores de F m. Lo definimos, como es habitual, a partir de la desigualdad de Cauchy-Schwartz: si x, y P F m entonces x y }x} 2 }y} 2,
14 172 El Problema de Mínimos Cuadrados de modo que 1 x y }x} 2 }y} 2 1. Se define, entonces el ángulo, θ, de x, y como Equivalentemente θ arc cos cos θ x y }x} 2 }y} 2. x y }x} 2 }y} 2. En nuestro caso, para calcular el ángulo de b e y debemos hacer el producto escalar b y b P b. Teniendo en cuenta que P es una proyección (P 2 P ) ortogonal pp P ) resulta que Así pues b y b P b b P P b b P P b }P b} 2 2 }y}2 2. cos θ }y} 2 }b} 2. Para el seno usamos la identidad sen 2 θ 1 cos 2 θ: sen 2 θ 1 }y}2 2 }b} 2 2 }b}2 2 }y}2 2. }b} 2 2 Ahora bien, b y b y siendo y y b y ortogonales (y P Im A y b y b P b pi m P qb P pim Aq K ). Por consiguiente, usando el Teorema de Pitágoras, }b} 2 2 }y}2 2 }b y}2 2 y sen θ }b y} 2 }b} 2 Todas estos resultados generalizan los habituales en R 2 (Figura 8.4) En tercer lugar, para cualquier norma inducida }Ax} }A} }x}. Necesitaremos una medidad de lo lejos o cerca que está }y} }Ax} de su máximo valor posible: η }A} 2 }x} 2 }y} 2 }A} 2 }x} 2 }Ax} 2. Estos parámetros tienen el siguiente rango de variación: 1 κpaq 8 0 θ π{2 1 η κpaq
15 8.4 El condicionamiento del problema de mínimos cuadrados 173 Todas estas acotaciones son claras excepto, quizá, la última que viene de la siguiente observación: }x} 2 }A 1 Ax} 2 }A 1 } 2 }Ax} 2, de modo que η }A} 2}A 1 } 2 }Ax} 2 }Ax} 2 κ 2 paq. El resultado previo que necesitamos es el siguiente Lema 8.4 Para A P F m n de rango completo n se tiene: }pa Aq 1 A } 2 1 σ n. (8.3) }pa Aq 1 } 2 1 σ 2 n (8.4) siendo σ 1 σ n los valores singulares de A. Demostración.- La propiedad (8.4) es una consecuencia inmediata de que los valores singulares de A son las raíces cuadradas positivas de los valores propios de A A, y de que 1{σ 2 n es el mayor valor singular de pa Aq 1 (ver Porposiciones 3.12 y 3.16). Para probar la propiedad (8.3) se usa el Teorema SVD para ver que los valores singulares de pa Aq 1 A y los de A : coinciden. Podemos ahora plantear y demostrar el resultado principal Teorema 8.5 Sean b P F m y A P F m n con b 0 y rang A n m. Para el problema de mínimos cuadrados (8.2) se cumplen las siguientes propiedades, todo respecto de la norma l 2 : (i) El número de condición del problema de calcular y Ax P F n respecto de b es 1 cos θ. (8.5)
16 174 El Problema de Mínimos Cuadrados (ii) El número de condición del problema de calcular x P F n respecto de b es κ 2 paq η cos θ. (8.6) (iii) Sea x la solución del problema de mínimos cuadrados relativo a minimizar }pa δaq x b} 2. Si ỹ pa δaq x y ɛ }δa} 2 σ n entonces }A} 2 σ 1 }ỹ y} 2 }y} 2 ɛ κ 2pAq cos θ Opɛ 2 q. (8.7) (iv) En las mismas condiciones del apartado anterior ɛ κ 2 paq } x x} 2 }x} 2 κ 2 paq 2 tan θ η Opɛ 2 q. (8.8) (v) Sea x es la solución del problema de mínimos cuadrados relativo a minimizar }pa δaq x pb δbq} 2. Si sen θ 1 y ɛ máx " * }δa}2, }δb} 2 }A} 2 }b} 2 siendo σ 1 σ n los valores singulares de A, entonces " * } x x} 2 1 κ2 paq 2 tan θ ɛ κ 2 paq 1 }x} 2 η cos θ η σ n σ 1 Opɛ 2 q. (8.9) En el caso especial en que m n, el problema de mínimos cuadrados se reduce al de la resolución de un sistema de ecuaciones lineales. En tal caso θ 0 y las cotas de (8.6) y (8.8) se reducen a κ 2 paq{η y κ 2 paq recuperando los resultados vistos en la Lección 4. Demostración.- Demostraremos las propiedades (i) y (v). La propiedad (ii) se demuestra de manera muy similar a la propirdad (i), la propiedad (iv) es una caso particular de la (v) y la propiedad (iii) requiere una demostración independiente pero parecida a la (iv). (i) La relación entre b e y es y P b
17 8.4 El condicionamiento del problema de mínimos cuadrados 175 siendo P la proyeccción ortogonal sobre Im A. Vimos en la Sección 4.3 del Capítulo 4 que el número de condición del problema de multiplicar Ax para A dada y x variable: f : F n Ñ F m x b Ax es κ }f 1 pxq} }fpxq}{}x} }A} }x} }Ax}, (8.10) En nuestro caso se trata del número de condición del problema y P b respecto de b para P dado. Entonces κpbq }P } 2}b} 2 }y} 2 Como P es una proyección ortogonal P QQ para alguna matriz Q P F n m con columnas ortonormales. Sea U una matriz unitaria. Entonces Q U P U rq Q r Q QQ Q r Q In Por lo tanto, los valores singulares de P son todos iguales a 1 y en particular }P } 2 σ 1 pp q 1 Finalmente, recordemos que cos θ }y} 2 }b} 2. En conclusión: tal y como se deseaba demostrar. κpbq }P } 2}b} 2 }y} 2 1 cos θ, (v) En primer lugar definimos E 1 ɛ δa y f 1 ɛ δb. Por hipótesis, }δa} 2 σ n }A} 2 σ 1 y como }A} 2 σ 1, tenemos que }δa} 2 σ n. Por el Teorema 3.18 resulta que rangpa δaq n y consecuentemente rangpa teq n para todo t P r0, ɛs. Se sigue entonces que el sistema pa teq pa teqxptq pa teq pb tfq (8.11)
18 176 El Problema de Mínimos Cuadrados tiene una única solución para cada t P r0, ɛs. Invertir una matriz es una función diferenciable en los elementos de la matriz. Por lo tanto x es una función diferenciable de t en r0, ɛs. Por la definición de diferencial xpɛq xp0q ɛx 1 p0q Opɛ 2 q. Como xpɛq x, xp0q x, b 0 y sen θ 1, tenemos que x 0 y } x x} 2 }x} 2 ɛ }x1 p0q} 2 }x} 2 Opɛ 2 q. (8.12) Necesitamos una estimación de }x 1 p0q} 2. Para ello calculamos x 1 p0q en (8.11). Primero derivamos E pa teqxptq pa teq Exptq pa teq pa teqx 1 ptq E ppb tfq pa teq f, y sustituímos t 0 recordando que xp0q x: E Ax A Ex A Ax 1 p0q A f E b. Así x 1 p0q pa Aq 1 A pf Exq pa Aq 1 E pb Axq. Tomando normas: }x 1 p0q} 2 }pa Aq 1 A } 2 p}f} 2 }E} 2 }x} 2 q }pa Aq 1 } 2 }E } 2 }b Ax} 2. Por una parte, }E} 2 1 ɛ }δa} 2 }A} 2. Y de la misma forma }f} 2 }b} 2. También }A } 2 }A} 2, así que }x 1 p0q} 2 }pa Aq 1 A } 2 p}a} 2 }x} 2 }b} 2 q }pa Aq 1 } 2 }A} 2 }b Ax} 2 }pa Aq 1 A }b}2 } 2 }A} 2 }x} 2 }pa Aq 1 } 2 }A} 2 }b Ax} 2 2. }A} 2 }A} 2 Por otra parte, por el Lema 8.4, }pa Aq 1 A } 2 }A} 2 κ 2 paq y }pa Aq 1 } 2 }A} 2 2 κ 2 paq 2. Entonces }x 1 p0q} 2 }x} 2 κ 2 paq }b}2 {}Ax} 2 1 }A} 2 }x} 2 {}Ax} 2 κ 2 paq 2 }b Ax} 2{}Ax} 2 }A} 2 }x} 2 {}Ax} 2.
19 8.5 Estabilidad de los algoritmos para el problema de mínimos cuadrados 177 Ahora bien, η }A} 2}x} 2, cos θ }Ax} 2 y tan θ }b Ax} 2 }Ax} 2 }b} 2 }x 1 p0q} 2 }x} 2 1 κ 2 paq η cos θ 1 }Ax} 2 κ 2 paq 2 tan θ η. En consecuencia sustituyendo en (8.12) } x x} 2 }x} 2 ɛ " 1 κ 2 paq η cos θ 1 * κ2 paq 2 tan θ η Opɛ 2 q, tal y como se quería demostrar Estabilidad de los algoritmos para el problema de mínimos cuadrados Un estudio experimental de la estabilidad de los algoritmos para la resolución del problema de mínimos cuadrados lineal es el objetivo de una de las prácticas obligatorias con MATLAB que habrá de realizarse en este curso. En ella se plantea un problema de mínimos cuadrados cuya solución debe ser calculada con los tres algoritmos vistos en la Sección 8.3. A su vez, para los algoritmos basados en la factorización QR, se utilizarán los tres algoritmos vistos en las Lecciones 6 y 7; es decir, los algoritmos clásico y modificado de Gram-Schmidt y el algoritmo de Householder. A través de dicho experimento se comprobará que los algoritmos basados en la resolución de las ecuaciones normales y el factorización de Cholesky así como los basados en la factorización QR obtenida con los algoritmos de Gram-Schmidt pueden dar resultados con mucho error si la matriz del sistema está mal condicionada. Por lo tanto, estos algoritmos son inestables. No obstante, hay resultados (ver [11, Sec 20.4]) que muestran que para matrices bien condicionadas el algoritmo basado en la resolución de las ecuaciones normales es estable hacia atrás y para valores de m mucho mayores que n, el coste operacional sensiblemente menor que el método basado en la factorización QR mediante reflexiones de Householder. En tale situaciones, el método basado en la resolución de las ecuaciones normales sería el preferido. Por otra parte, a pesar de que el método basado en la factorización QR mediante el algoritmo modificado de Gram-Schmidt es inestable cuando se implementa de la manera indicada en la Sección 8.3, hay una forma de hacerlo que lo hace estable
20 178 El Problema de Mínimos Cuadrados hacia atrás (ver [11, Sec 20.3]). Finalmente, los algoritmos basados en la factorización QR mediante reflexiones de Householder y valores singulares son estables hacia atrás para sistemas en los que A es una matriz de rango completo. A continuación se enuncian los teoremas que lo hace explíto. Teorema 8.6 Supongamos que el problema de mínimos cuadrados con una matriz A de rango completo se resuelve mediante el algoritmo QR por reflexiones de Householder o mediante la descomposición en valores singulares en un ordenador que cumple los axiomas (5.2) y (5.4) de la Lección 5. Este algoritmo es estable hacia atrás: para cada A P F m n (m n y rang A n) existe una perturbación δa tal que }δa} }A} Opɛ Mq y la solución px producida por el algoritmo satisface }pa δaqpx b} 2 mín xpf n }pa δaqx b} 2. Para terminar, conviene mencionar que si la matriz A no es de rango completo, sabemos que la solución no está determinada de forma única y el único algoritmo completamente estable es el basado en la descomposición de A en valores singulares.
Ejercicio 1 Explica por qué el coste de invertir una matriz utilizando el algoritmo LU es de orden
CUESTIONES Ejercicio 1 Explica por qué el coste de invertir una matriz utilizando el algoritmo LU es de orden cúbico Ejercicio 2 Explica por qué si λ 1 ě λ 2 ě ě λ n son los valores propios de la matrix
Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados
Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones
Clase 7 Herramientas de Álgebra Lineal
Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es
2. Sistemas de ecuaciones lineales
2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y
OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES
CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES SOBREDETERMINADOS La discusión de los problemas algebráicos de la parte anterior se había centrado exclusivamente
Álgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 3. Mínimos cuadrados Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Índice
3. Sistemas inconsistentes y sistemas indeterminados
. Sistemas inconsistentes sistemas indeterminados. Ejercicios resueltos Ejercicio. Dado el sistema: 4x + 5 x + 5 a Realizar la factorización QR de la matriz, resolverlo basándose en ella a. Mediante el
Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012
Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema
Valores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1
Valores singulares Curso 2017-18 1 Producto escalar y ortogonalidad < x, y >= n y i x i = y T x si F = R, n y i x i = y x Si x C n x x = n x i 2 = x 2 2. si F = C Si x, y C n x y = y x, pero si x, y R
Factorización de matrices
CAPÍTULO Factorización de matrices En este capítulo se estudian algunas de las técnicas más utilizadas para factorizar matrices, es decir, técnicas que permiten escribir una matriz como producto de dos
Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.
Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)
Matrices. Operaciones con matrices.
Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =
Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si
Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a
Condicionamiento. Capítulo Introducción
Capítulo 4 Condicionamiento 4.1. Introducción El hecho de que los ordenadores pueden representar sólo un número finito de números reales y de forma aproximada tiene una consecuencia inmediata en el cálculo
1. Producto escalar. Propiedades Norma de un vector. Espacio normado. 1.2.Ortogonalidad. Ángulos. 1.4.Producto escalar en V 3.
. Producto escalar. Propiedades... Norma de un vector. Espacio normado...ortogonalidad. Ángulos..3.Producto escalar en V..4.Producto escalar en V 3.. Producto vectorial de dos vectores de V 3...Expresión
Propiedades de matrices simétricas definidas positivas:
Propiedades de matrices simétricas definidas positivas: Propiedades de matrices simétricas definidas positivas: Sea A =[a ij ] 2 R n n. La matriz A es simétrica si A = A >. La matriz A es definida positiva
Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales
Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007
Matrices ortogonales y descomposición QR
Matrices ortogonales y descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Invertibilidad por la izquierda y por la derecha (repaso) 1. Conceptos
Espacios vectoriales con producto escalar
147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en
Factorización QR Método iterativo de Jacobi
Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema
Espacios vectoriales reales.
Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre
C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores).
UNIVERSIDAD REY JUAN CARLOS, MADRID PRUEBA DE ACCESO PARA MAYORES DE 25 AÑOS MATEMÁTICAS II AÑO 2010 OPCIÓN A Ejercicio 1 a) (1 punto) Hallar los valores del parámetro para los que la siguiente matriz
Descomposición QR. Problemas para examen. Agradezco a Aldo Iván Leal García por varias correcciones importantes.
Descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Reflexión de Householder (repaso) 1. Reflexión ortogonal respecto a un hipersubespacio (repaso).
Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f
1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x
Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)
Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos
6.8. Descomposición mediante valores singulares. v 2 =
68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx
Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).
Ejemplo 19: Demuestre que la matriz A es invertible y escríbala como un producto de matrices elementales. Solución: Para resolver el problema, se reduce A a I y se registran las operaciones elementales
6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica
6.6 Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas
a de un conjunto S de R n si
1 235 Máximos, mínimos y puntos de ensilladura Definición.- Se dice que una función real f( x) tiene un máximo absoluto en un punto a de un conjunto S de R n si f( x) f( a) (2) para todo x S. El número
Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar
Mínimos cuadrados Mayo de 2015. Ejemplos de introducción Observación preliminar Sean dos matrices A y B, por ejemplo a b A =, B = c d x z y t Las columnas de A representan los vectores u = (a; c) y v =
Matrices de Proyección
Matrices de Proyección Departamento de Matemáticas, CSI/ITESM 4 de abril de 8 Índice.. Proyección ortogonal............................................ Proyección de un vector en R m....................................
Descomposición en valores singulares de una matriz
Descomposición en valores singulares de una matriz Estas notas están dedicadas a demostrar una extensión del teorema espectral conocida como descomposición en valores singulares (SVD en inglés) de gran
Inversa de una matriz
Capítulo 2 Álgebra matricial 2.1. Inversa de una matriz Inversa de una matriz Para una matriz cuadrada A n n, la matriz B n n que verifica las condiciones AB = I n y B A=I n se denomina inversa de A, y
VECTORES : Las Cantidades Vectoriales cantidades escalares
VECTORES En física hay dos tipos de cantidades: Las Cantidades Vectoriales son aquellas que tiene tanto magnitud como dirección y sentido sobre la dirección), mientras que las cantidades escalares son
Espacios Euclídeos. Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza
Espacios Euclídeos Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza A lo largo de todo el capítulo consideraremos que V un espacio vectorial real de dimensión finita. 1 Producto escalar Definición.
Una ecuación lineal de n-incógnitas es una igualdad de la forma:
página 1/39 Teoría Tema 6 Ecuación lineal Una ecuación lineal de n-incógnitas es una igualdad de la forma: a 1 x 1 +a 2 x 2 +a 3 x 3 +...+a n x n =c Donde a 1,a 2, a 3,..., a n,c son números reales. En
dia G o n a l i z a c i ó n
Unidad elementos característicos dia G o n a l i z a c i ó n Objetivos: Al inalizar la unidad, el alumno: Encontrará los valores y los vectores característicos de una matriz. Utilizará los elementos característicos
Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás
Problemas de Selectividad de Matemáticas II Comunidad de Madrid (Resueltos) Isaac Musat Hervás de mayo de 013 Capítulo 10 Año 009 10.1. Modelo 009 - Opción A Problema 10.1.1 (3 puntos) Dados el plano π
Departamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2)
CÁLCULO NUMÉRICO I (Tema - Relación 2) 5 Resolver mediante el método de Gauss los siguientes sistemas de ecuaciones. 2x 2 + x = 0 2x + 2x 2 + x + 2x = 2 x x 2 + x = 7 6x + x 2 6x 5x = 6. x + x 2 x = x
Matemáticas II Bachillerato Ciencias y Tecnología 2º Curso ESPACIO AFÍN Introducción Ecuaciones de la recta...
Unidad 5 ESPACIO AFÍN 5.. Introducción.... - - 5.. Ecuaciones de la recta.... - - 5.3. Ecuaciones del plano.... - 4-5.4. Posiciones relativas (Incidencia y paralelismo).... - 6 - Anexo I.- EJERCICIOS...
UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018
UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 I. Sistemas homogéneos, subespacios, dependencia e independencia lineal 1. En cada caso
Reflexiones de Householder y el Algoritmo QR
Capítulo 7 Reflexiones de Householder y el Algoritmo QR 7.1. Introducción Hay otros dos métodos importantes para calcular la descomposición QR de una matriz: las reflexiones de Householder y las rotaciones
Cálculo Numérico III Curso 2010/11
Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los
4.1 Anillo de polinomios con coeficientes en un cuerpo
Tema 4 Polinomios 4.1 Anillo de polinomios con coeficientes en un cuerpo Aunque se puede definir el conjunto de los polinomios con coeficientes en un anillo, nuestro estudio se va a centrar en el conjunto
Derivadas Parciales (parte 2)
40 Derivadas Parciales (parte 2) Ejercicio: Si donde y. Determinar Solución: Consideraremos ahora la situación en la que, pero cada una de las variables e es función de dos variables y. En este caso tiene
0 a b X = b c 0. f X (A) = AX XA.
Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Industriales Álgebra Lineal Convocatoria de Junio 8 de Junio de 2007 (3 ptos.). Sea V = {A M 3 3 (R) / A t = A}. (a) Demostrar que toda
Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:
Álgebra Lineal - Grado de Estadística Examen final de junio de APELLIDOS, NOMBRE: DNI: Firma Primer parcial Ejercicio ( Sea A una matriz simétrica definida positiva de orden n y v R n Pruebe que la matriz
Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE:
Álgebra Lineal - Grado de Estadística Examen final 7 de junio de 4 APELLIDOS, NOMBRE: DNI: irma Primer parcial Ejercicio Consideremos matrices A m m, B, C n n, Pruebe que bajo la hipótesis de que las inversas
Factorización de rango completo y aplicaciones
XXI Congreso de Ecuaciones Diferenciales y Aplicaciones XI Congreso de Matemática Aplicada Ciudad Real, 21-25 septiembre 2009 (pp. 1 8) Factorización de rango completo y aplicaciones R. Cantó 1, B. Ricarte
Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f
1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x
E.D.L. de 2 o orden II. Variación de parámetros. Coeficientes Indeterminados.
E.E.I. CÁLCULO II Y ECUACIONES DIFERENCIALES Curso 06-7 Lección 0 Lunes 7 abr 07) E.D.L. de o orden II. Variación de parámetros. Coeficientes Indeterminados.. El método de variación de parámetros para
2) Halla a y b para que la siguiente función sea continua y derivable en x=1. Calcula la ecuación de la recta tangente en dicho punto:
CURSO 2-22. 24 de mayo de 2. ) Calcula: sen lím cos - 2) Halla a y b para que la siguiente función sea continua y derivable en =. Calcula la ecuación de la recta tangente en dicho punto: f()= a 2 +b+b
Ba s e, d i M e n s i ó n y Mat r i z
Unidad 4 Ba s e, d i M e n s i ó n y Mat r i z de transición Objetivos: Al inalizar la unidad, el alumno: Conocerá la deinición de base de un espacio vectorial Identiicará bases canónicas para algunos
UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID. PRUEBAS DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) MODELO DE EXAMEN (Curso )
UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID PRUEBAS DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) MODELO DE EXAMEN (Curso 00-003) MATERIA: MATEMÁTICAS II INSTRUCCIONES GENERALES Y VALORACIÓN INSTRUCCIONES:
UNIVERSIDAD COMPLUTENSE DE MADRID
Principales conceptos que se tendrán en cuenta en la elaboración de las pruebas de Acceso a la Universidad para los estudiantes provenientes del Bachillerato LOGSE de la materia "Matemáticas II" ÁLGEBRA
RESOLUCIÓN DE SISTEMAS LINEALES
Contenido 1 Métodos de Solución Contenido Métodos de Solución 1 Métodos de Solución Desarrollamos el algoritmo de sustitución regresiva, con el que podremos resolver un sistema de ecuaciones lineales cuya
Tema 3: Espacios eucĺıdeos
Marisa Serrano, Zulima Fernández Universidad de Oviedo 25 de noviembre de 2009 email: mlserrano@uniovi.es Índice 1 2 3.1 V, R espacio vectorial, la aplicación : V V R ( v, u) v u a) v 1, v 2, u V α, β
Últimas notas de SVD
Últimas notas de SVD MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Salvador Botello CIMAT A.C. e-mail: botello@cimat.mx Relación entre los valores singulares
2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso
Depto de Álgebra, curso 2017-2018 2 Álgebra matricial Inversa de una matriz Ejercicio 21 Calcule la matriz inversa de cada una de las matrices siguientes: a 2 1 1 3 2 1 h e, b 2 1 1 5 2 3 2 0 1 1 2 1 1
, donde denota la matriz traspuesta de B.
Pruebas de acceso a enseñanzas universitarias oficiales de grado Castilla y León MATEMÁTICAS II EJERCICIO Nº Páginas: INDICACIONES:.- OPTATIVIDAD: El alumno deberá escoger una de las dos opciones, pudiendo
Materia: Matemática de 5to Tema: Producto Punto. Marco Teórico
Materia: Matemática de 5to Tema: Producto Punto Marco Teórico En términos comunes, el producto punto de dos vectores es un número que describe la cantidad de fuerza que dos vectores diferentes contribuyen
Teoría de la aproximación Métodos de Mínimos cuadrados
Teoría de la aproximación Métodos de Mínimos cuadrados MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT A.C. e-mail: joaquin@cimat.mx
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Optimización. Matrices de Proyección ITESM. Matrices de Proyección Profr. E. Uresti - p. 1/21. Dr. E Uresti
Optimización Matrices de Dr. E Uresti ITESM Matrices de Profr. E. Uresti - p. 1/21 ortogonal Teorema Sea Y una matriz m n y un espacio lineal V de dimensión r, ambos dentro de un espacio lineal U. de un
José Humberto Serrano Devia Página 1
Similitudes entre el espacio y las series de Fourier Funciones Ortogonales En esta sección se muestra la forma en que los conceptos vectoriales de producto interno, o producto escalar, y el de ortogonalidad
Teoría de la aproximación Métodos de Mínimos cuadrados
Teoría de la aproximación Métodos de Mínimos cuadrados MAT-251 Dr. Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.
1 Tema 2. Sección 1. Espacio vectorial de Minkowski. Manuel Gutiérrez. Departamento de Álgebra, Geometría y Topología. Universidad de Málaga. 29071-Málaga. Spain. Abril de 2010. En este capítulo se recordará
3. ÁLGEBRA LINEAL // 3.2. GEOMETRÍA
3. ÁLGEBRA LINEAL // 3.2. GEOMETRÍA ANALÍTICA EN EL PLANO Y EN EL ESPACIO. COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS 3.2.1. Rectas en el plano y en el espacio La recta que pasa por el punto
M a t e m á t i c a s I I 1
Matemáticas II Matemáticas II CANTABRIA CONVOCATORIA JUNIO 009 SOLUCIÓN DE LA PRUEBA DE ACCESO AUTOR: José Luis Pérez Sanz Bloque I A a) No es cierto que el producto de matrices sea conmutativo. Por ejemplo,
Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.
Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES
MATEMÁTICA AGRONOMÍA RESPUESTAS AL SEGUNDO PARCIAL Primer Cuatrimestre Tema 1
Ejercicio Considerando la recta R que pasa por los puntos A = (; 0; ) y B = (2; ; 5) y el punto P = (2; ; ), hallar la ecuación implícita del plano π que es perpendicular a la recta R y contiene al punto
Cap 3: Álgebra lineal
Universidad Nacional de Ingeniería Facultad de Ciencias Cálculo Numérico 1 IF321 Cap 3: Álgebra lineal Prof: J. Solano 2018-I INTRODUCCION Aqui trabjaremos con operaciones basicas con matrices, tales como
Cálculo infinitesimal Grado en Matemáticas Curso 20014/15 Clave de soluciones n o 6. Derivadas de orden superior
Cálculo infinitesimal Grado en Matemáticas Curso 2004/5 Clave de soluciones n o 6 Derivadas de orden superior 70. Hallar los polinomios de Taylor del grado indicado y en el punto indicado para las siguientes
UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL
1. Definiciones básicas. UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL I. Sistemas homogéneos y subespacios de R n. (a) Para el sistema
AUTOVALORES Y AUTOVECTORES
12 de Julio de 2011 AUTOVALORES Y AUTOVECTORES (Clase 01) Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela 1 Puntos a tratar 1. Valores y vectores propios 2.
Ejercicios Resueltos Tema 5
Ejercicios Resueltos Tema 5 Ejercicio 1 Estudiar si la forma bilineal f : R n R n R definida por k f ((x 1,..., x n ), (y 1,..., y n )) = x i y i, siendo 1 k < n, es un producto escalar de R n i=1 Solución.
Elementos de Cálculo Numérico (M) - Cálculo Numérico
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.
Opción de examen n o 1
Septiembre-206 PAU Cantabria-Matemáticas II Opción de examen n o. a) Según el enunciado, se tiene: A B = C Ö è Ö è a b 2 c b c a = Ö è 0 Al igualar las matrices obtenidas se llega a: 2 + a + b = 2c + +
Curso Hoja 1. Análisis de errores
Hoja 1. Análisis de errores 1 Teniendo en cuenta que MATLAB trabaja en doble precisión, calcular el número máquina inmediatamente anterior a 1 y comprobar que dista 2 53 de 1. 2 Calcular 1 2 52, 1 2 53,
MATEMÁTICAS: EBAU 2017 MODELO CASTILLA Y LEÓN
MATEMÁTICAS: EBAU 207 MODELO CASTILLA Y LEÓN Opción A Ejercicio A x y + z = Dado el sistema de ecuaciones lineales { 3x + λy =, se pide: 4x + λz = 2 a) Discutir el sistema (existencia y número de soluciones)
Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5
Matemáticas II Prácticas: Matrices y Determinantes. Sean las matrices cuadradas siguientes: 4 5 6 B = 9 8 7 6 5 4 C = 5 7 9 0 7 8 9 Se pide calcular: a A B + C. b A AB + AC. c A B AB + ACB.. Sean las matrices:
MATEMÁTICASII Curso académico BLOQUE GEOMETRÍA TEMA 2: Puntos, rectas y planos del espacio.
MATEMÁTICASII Curso académico 2015-2016 BLOQUE GEOMETRÍA TEMA 2: Puntos, rectas y planos del espacio. 2.1 SISTEMA DE REFERENCIA. COORDENADAS DE UN PUNTO Elegimos un punto del espacio que llamamos origen
1 Con juntos de Números: Axiomas 1
ÍNDICE 1 Con juntos de Números: Axiomas 1 LOS CONJUNTOS EN EL ALGEBRA. 1-1 Los conjuntos y sus relaciones, 1.1-2 Conjuntos y variables, 6. AXIOMAS DE LOS NUMEROS REALES. 1-3 Orden en el conjunto de los
MATEMÁTICAS: PAU 2016 JUNIO CASTILLA Y LEÓN
MATEMÁTICAS: PAU 26 JUNIO CASTILLA Y LEÓN Opción A Ejercicio A 5 a a) Discutir para qué valores de a R la matriz M = ( ) tiene inversa. Calcular M a para a =. ( 5 puntos) Para que exista inversa de una
Para localizar un punto o un objeto en el espacio necesitamos un sistema de referencia. R es una cuaterna { O,i, j, k}
Geometría afín del espacio MATEMÁTICAS II 1 1 SISTEMA DE REFERENCIA. ESPACIO AFÍN Para localizar un punto o un objeto en el espacio necesitamos un sistema de referencia. Definición: Un sistema de referencia
C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores).
UNIVERSIDAD REY JUAN CARLOS, MADRID PRUEBA DE ACCESO PARA MAYORES DE 25 AÑOS MATEMÁTICAS II AÑO 2013 OPCIÓN A Ejercicio 1 a) (1 punto) Hallar los valores del parámetro para los que la siguiente matriz
Transformaciones Lineales
Transformaciones Lineales En lo que sigue denotaremos por K al conjunto R ó C Definición Sean V y W dos K-ev (espacios vectoriales sobre K Se llama transformación lineal de V en W a toda función T : V
Unidad 6 Geometría euclídea. Producto escalar
Unidad 6 Geometría euclídea Producto escalar PÁGINA 131 SOLUCIONES 1 La recta 4 x 3y + 6 = 0 tiene de pendiente 4 m = 3 4 Paralela: y 1 = ( x ) 4x 3y 5 = 0 3 4 Perpendicular: y 1 = ( x ) 3x + 4y 10 = 0
Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31
Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular
Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16
Clase No 13: Factorización QR MAT 251 Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) 03102011 1 / 16 Factorización QR Sea A R m n con m n La factorización QR de A es A = QR = [Q 1 Q 2 ] R1 = Q 0 1 R
ÁLGEBRA SELECTIVIDAD C y L
ÁLGEBRA SELECTIVIDAD C y L JUNIO 2004 1. Se tiene una matriz M cuadrada de orden 3 cuyas columnas son respectivamente C1, C2 y C3 y cuyo determinante vale 2. Se considera la matriz A cuyas columnas son
UNIVERSIDAD CARLOS III DE MADRID MATEMÁTICAS PARA LA ECONOMÍA II PROBLEMAS (SOLUCIONES ) 2a 2c 2b 2u 2w 2v. a b c. u v w. p q r. a b c.
UNIVERSIDAD CARLOS III DE MADRID MATEMÁTICAS PARA LA ECONOMÍA II PROBLEMAS (SOLUCIONES ) - Calcular los siguientes determinantes: 3 3 a) b) 3 5 5 3 4 5 Hoja : Matrices y sistemas de ecuaciones lineales
Instituto Tecnológico Autónomo de México. 1. At =..
Instituto Tecnológico Autónomo de México TRANSPUESTA DE UNA MATRIZ DEFINICION : Transpuesta Sea A = (a ij ) una matriz de mxn Entonces la transpuesta de A, que se escribe A t, es la matriz de nxm obtenida
c-inversa o inversa generalizada de Rao
c-inversa o inversa generalizada de Rao Definición.- Sea A m n. Se dice que una matriz A c de orden n m es una c-inversa o inversa generalizada en el sentido de Rao si y sólo si se verifica AA c A = A.
Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 12 de marzo de (
Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 2 de marzo de 208. Apellidos: Nombre: DNI: Ejercicio.-(4 puntos) Se considera la matriz siguiente: A = 2 0 3 0 2. Calcule W = null(a 2I), W 2 = null(a 4I)
6 Vectores. Dependencia e independencia lineal.
6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar
Relación de problemas. Álgebra lineal.
Relación de problemas Álgebra lineal Tema 1 Sección 1 Matrices Determinantes Sistemas lineales Matrices Ejercicio 11 Consideremos las siguientes matrices: ( 1 2 A = 1 1 ) ( 1 1 B = 0 1 ) C = 1 0 0 0 1
Transformaciones Lineales y Espacio Dual
Transformaciones Lineales y Espacio Dual Juan Pablo De Rasis 22 de abril de 2018 El presente artículo tiene como objetivo la exposición de soluciones a problemas de Álgebra Lineal concernientes a transformaciones