Ortogonalidad y Valores Singulares

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Ortogonalidad y Valores Singulares"

Transcripción

1 Apuntes de Álgebra Lineal Capítulo 6 Ortogonalidad y Valores Singulares En este último tema de esta asignatura vamos a estudiar aquellas propiedades de los espacios vectoriales y de las matrices que dependen de la posibilidad de calcular las longitudes de los vectores y las distancias entre pares de puntos. Esas propiedades se llaman las propiedades métricas de los espacios vectoriales y son la clave para la introducción de todos los conceptos de la geometría métrica en los espacios vectoriales y también para la aplicación de los espacios vectoriales a la física y a la geometría. En el caso del plano coordenado o R, sabemos que los vectores se pueden identificar con segmentos orientados y por tanto la posibilidad de calcular las longitudes de vectores es una consecuencia de la medida de longitudes de segmentos. además es muy sencillo dar una fórmula que nos da la longitud de un vector conocidas sus coordenadas respecto a un sistema de coordenadas en el plano. Esto se obtiene gracias al teorema de Pitágoras, según el cual la longitud de un vector v = (x, y) es r = x + y. De esta fórmula se deduce también que un vector v = (x, y, z) del espacio R tiene longitud, módulo o norma dado por: ρ = x + y + z. 6.. Norma y producto interior Longitud, norma o módulo de vectores y distancias entre puntos Generalizando la fórmula pitagórica de la longitud de un vector de R o de R, definimos la norma, longitud o módulo de un vector v = (v,..., v n ) en R n mediante la fórmula v = v + + v n. Análogamente, si v es un vector de C n, la norma, módulo o longitud de v se define mediante la fórmula: v = v + + v n. Como vemos, en el caso complejo es necesario asegurarse de calcular previamente el módulo de cada componente del vector antes de elevarla al cuadrado, de lo contrario podría resultar un radicando negativo o incluso no real que nos impidiese demostrar las propiedades deseadas de la norma. Otra forma de escribir la norma de un vector complejo es: v = v v + + v n v n. Versión de de diciembre de 6, :4 h.

2 6.. Norma y producto interior 6. Ortogonalidad y Valores Singulares En cualquiera de los dos casos, la función norma definida en R n o C n tiene todas las propiedades algebraicas del módulo de un vector del plano o del espacio, a saber: (a) v, siendo v = solamente en el caso v =. (b) cv = c v. (c) u + v u + v (desigualdad triangular). Longitudes de vectores y distancias La posibilidad de calcular longitudes de vectores de un espacio vectorial es equivalente a la de calcular distancias entre pares de puntos de ese espacio vectorial ya que, por un lado, la longitud de un vector es la distancia desde el punto representado por ese vector al origen de coordenadas (toda longitud de un vector es una distancia) y, por otro lado, la distancia entre los puntos representados por dos vectores u, v es igual a la longitud del vector diferencia u v (toda distancia es la longitud de un vector). Así, por el mero hecho de poder calcular la norma de cada vector, podemos definir la distancia entre dos vectores cualesquiera: dist(u, v) = u v. Producto escalar y producto hermítico A continuación vamos a ver que la posibilidad de calcular longitudes de vectores de un espacio vectorial real se puede obtener como consecuencia de poder realizar una operación algebraica con vectores llamada producto escalar, la cual es conocida por los estudiantes de Física para los vectores del plano y del espacio. Empezamos observando que el cuadrado de la norma de un vector de R n, v = v + + v n se puede obtener como resultado de una operación que ya conocemos, a saber: la multiplicación de matrices. Efectivamente, v es igual al producto de la matriz n obtenida a hallar la traspuesta de v (considerado como un vector columna) por el propio vector v (como matriz n ): v T v = (v v n ) v. v n = v + + v n = v. Esta propiedad nos lleva definir la operación de producto escalar de dos vectores de R n me- diante producto escalar producto hermítico conjugado traspuesto v u = u T v = (u u n ) v. v n = u v + + u n v n (6.) Análogamente, definimos la operación de producto interior complejo (o producto hermítico) de dos vectores de C n mediante multiplicación, no por el vector traspuesto, sino por el conjugado traspuesto u = (u) T = u T. En este caso complejo se suele preferir denotar el producto interior de x e y mediante x, y en lugar de usar el punto: v v, u = u v = (u) T v = (u u n ). = u v + + u n v n (6.) v n

3 6. Ortogonalidad y Valores Singulares 6.. Norma y producto interior En ambos casos, la norma euclidiana de los vectores se expresa en términos del producto escalar/producto hermítico mediante v = v v o v = v, v. (6.) Propiedades del producto escalar en R n La definición (6.) del producto escalar en R n nos permite demostrar muy fácilmente las siguientes propiedades: (a) (cu) v = c(u v). (b) (u + w) v = u v + w v. (c) u v = v u (conmutatividad o simetría). (d) u u siendo u u = solamente en el caso u = (definida positiva). En vista de la tercera propiedad, las dos primeras son equivalentes a (cada una de) las siguientes: (cu) v = c(u v) y (u + w) v = u v + w v. ( linealidad en la primera variable : la aplicación v definida por x x v es lineal).. u (cv) = c(u v) y u (v + w) = u v + u w. ( linealidad en la segunda variable : la aplicación u definida por x u x es lineal). Al expresar de esta forma las propiedades características del producto escalar en R n, vemos que se puede decir que el producto escalar en R n es una función real de dos variables vectoriales que es bilineal, simétrica y definida positiva. Consecuencia de la propiedad definida positiva : A T A es el mismo que el de A. Si A es una matriz real, el espacio nulo de Por un lado, es evidente que los vectores del espacio nulo de A son también vectores del espacio nulo de A T A ya que si Ax = entonces también A T Ax =. Supongamos ahora que x es un vector del espacio nulo de A T A, es decir, A T Ax =. Entonces x T A T Ax =. Pero esto significa que el vector Ax tiene norma cero porque x T A T Ax = (Ax) T Ax = Ax. Así pues, Ax tiene norma cero y por la propiedad de la norma de ser definida positiva, el propio Ax es el vector cero, lo que significa que x pertenece al espacio nulo de A. Propiedades del producto interior complejo o producto hermítico en C n El producto interior que hemos definido en C n tiene propiedades muy parecidas a las del producto escalar de R n. La diferencia fundamental es que la tercera propiedad toma ahora la forma:. u, v = v, u ( simetría conjugada o simetría hermitiana ). Ésta es justamente la propiedad necesaria para garantizar que la función (6.) definida a partir del producto hermítico tenga todas las propiedades de una norma.

4 6.. Norma y producto interior 6. Ortogonalidad y Valores Singulares Como consecuencia de esta diferencia entre el producto hermítico y el producto escalar, las dos primeras propiedades (que se pueden describir juntas como linealidad en la primera variable ) ya no tienen como consecuencia la linealidad en la segunda variable, sino una especie de linealidad conjugada que se expresa como: u, cv = c u, v y u, v + w = u, v + u, w. Evidentemente las propiedades del producto escalar de R n son un caso particular de las del producto hermítico de C n y, por tanto, todas las consecuencias de la últimas se cumplen también para las primeras. A partir de este momento, todos los razonamientos y cálculos estarán basados en el producto escalar (en R n ) o el producto hermítico (en C n ) por lo que todos los resultados que obtengamos serán consecuencia de las propiedades características del producto hermítico (de las que las propiedades del producto escalar son, como se acaba de decir, un caso particular) y que se pueden enunciar en forma completamente general como los axiomas de un producto interior en un espacio vectorial (real o complejo), a saber: Si V es un espacio real o complejo, se llama producto interior en V a toda función compleja u, v definida para u, v V y tal que: (a) cu, v = c u, v, u + w, v = u, v + w, v. ( lineal en la primera variable : la aplicación, v definida por x x, v es lineal). (b) u, v = v, u (simetría compleja, conjugada o hermitiana). (c) u, u siendo u, u = solamente en el caso u = (definida positiva). Combinando las dos primeras se deduce que todo producto interior complejo es una aplicación sesquilineal (versión compleja de la propiedad de ser bilineal de producto escalar de R n ):. u, cv = c u, v, u, v + w = u, v + u, w. ( conjugada lineal en la segunda variable : la aplicación u, definida por x u, x es conjugada lineal). forma hermitiana Se llama forma hermitiana a toda forma sesquilineal que tiene simetría conjugada (o simetría hermitiana); por tanto: Un producto interior en un espacio real o complejo es una forma hermitiana definida positiva. En el caso real esto es lo mismo que una forma bilineal simétrica definida positiva. Perpendicularidad y ángulo entre dos vectores La posibilidad de calcular la longitud de los vectores nos permite definir el concepto de perpendicularidad y por lo tanto de angulo recto. Además, la posibilidad de calcular el producto escalar o hermítico de dos vectores cualesquiera nos permite definir también el ángulo que forman dos vectores no nulos cualesquiera. En lo que sigue supondremos implícitamente que los vectores pertenecen a un espacio vectorial real y, más concretamente, a R n. Queda como tarea del estudiante el trasladar todas las definiciones y resultados al caso complejo. Vectores perpendiculares Definición de perpendicularidad u ortogonalidad. Definición: Diremos que dos vectores u, v son perpendiculares u ortogonales si las dos diagonales, u + v y u v, del paralelogramo que forman tienen la misma longitud, y escribiremos u v si y sólo si u + v = u v. 4

5 6. Ortogonalidad y Valores Singulares 6.. Norma y producto interior Dado que la norma o longitud de vectores se puede expresar en términos del producto escalar o hermítico, una forma equivalente de expresar la perpendicularidad de vectores es la igualdad de las siguientes dos normas al cuadrado u + v = (u + v) (u + v) = u u + v v + u v (6.4) u v = (u v) (u v) = u u + v v u v (6.5) Por tanto podemos escribir: u v si y sólo si u v =. Así, usando el producto escalar, es muy sencillo saber si dos vectores de R n o de C n son perpendiculares: si su producto escalar es cero lo son, en caso contrario no lo son. El ejemplo fundamental de vectores perpendiculares es el los vectores de la base canónica de R n o de C n, que son las columnas e,..., e n de la matriz identidad n n. Conjuntos ortogonales, vectores unitarios y conjuntos ortonormales Se llama conjunto ortogonal de vectores a todo conjunto de vectores u,..., u k tales que u i u j = siempre que i = j. Una matriz A (que no tiene porqué ser cuadrada) es tal que A T A es una matriz diagonal si y sólo si las columnas de A forman un conjunto ortogonal. Si u,..., u k es un conjunto ortogonal de vectores no nulos y tomamos esos vectores como columnas para definir una matriz A = [u,..., u k ], entonces A tiene la propiedad de que el producto A T A (cuyos elementos son todos los productos escalares u i u j ) es una matriz cuadrada cuyos elementos diagonales son no nulos (es más, son positivos por ser los cuadados de las normas de los vectores no nulos u,..., u k ) y los elementos fuera de la diagonal son cero por ser cada uno un producto escalar de vectores perpendiculares. De lo dicho hasta aquí se deduce la siguiente propiedad: Propiedad: Todo sistema ortogonal de vectores no nulos, u,..., u k, es un conjunto libre. Para comprender el porqué, observamos que, según lo dicho más arriba, si formamos la matriz que tiene esos vectores como columnas, A = [u,..., u k ], entonces A T A = [A T u,..., A T u k ] es una matriz diagonal con elementos diagonales no nulos y por tanto sus columnas son linealmente independientes. Esto implica que los vectores u,..., u k son independientes. De lo contrario, dado que el producto matriz por vector conserva las relaciones de dependencia lineal, cualquier relación de dependencia lineal que hubiera entre los vectores u,..., u k persistiría entre los A T u,..., A T u k. Otra forma de llegar a la misma conclusión es pensar que, al ser A T A una matriz diagonal, su determinante es det(a T A) = Π k i= u i =. Pero también det(a T A) = (det A T )(det A) = (det A) de donde det A = y por tanto las columnas de A son independientes. Vectores unitarios. Un vector de longitud (o norma, o módulo) igual a se llama un vector unitario. Dado que la norma de un vector es un número no negativo, las siguientes ecuaciones son expresiones equivalentes de que u es un vector unitario: u =, u =, u u =. La idea más importante que se debe tener en mente en relación con los vectores unitarios es el hecho de que todo vector no nulo v = se puede reescalar para convertirlo en un vector unitario: 5

6 6.. Norma y producto interior 6. Ortogonalidad y Valores Singulares Proposición. Para todo vector no nulo v, el vector u = v es un vector unitario. v Sistemas ortonormales. Un sistema ortogonal de vectores, los cuales, además, son unitarios se llama un sistema ortonormal. A partir de un sistema ortogonal cualquiera de vectores no nulos se puede obtener un sistema ortonormal sin más que reescalar cada vector apropiadamente. Las columnas de una matriz real U forman un conjunto ortonormal si y sólo si U T U = I. Matrices Ortogonales. Se llama matriz ortogonal a toda matriz cuadrada real cuyas columnas son vectores unitarios ortogonales dos a dos, es decir una matriz cuadrada real cuyas columnas forman un sistema ortonormal. Cuidado! Una matriz ortogonal no es aquella cuya columnas forman un sistema ortogonal. Es requisito de una matriz ortogonal que, además de ser las columnas un sistema ortogonal, sea una matriz cuadrada y que sus columnas sean vectores unitarios. Caracterización: Si A es una matriz ortogonal, A T A es una matriz identidad y por tanto A T es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que A T A = I entonces las columnas de A forman un sistema ortonormal y por tanto A es una matriz ortogonal. Caso complejo: Matrices Unitarias. Se llama matriz unitaria a toda matriz cuadrada compleja cuyas columnas son vectores unitarios ortogonales dos a dos, es decir cuyas columnas forman un sistema ortonormal. Si todos los elementos de una matriz unitaria son números reales (esto es, tienen todos parte imaginaria nula) entonces esa matriz es una matriz ortogonal. Por tanto, el conjunto de las matrices unitarias contie al conjunto de las matrices ortogonales. La caracterización de matrices unitarias se apoya en la operación de traspuesta conjugada o adjunta de una matriz compleja. Si A es una matriz compleja, se llama matriz adjunta de A, y se denota A, a la matriz cuyos elementos son los conjugados de los elementos de la matriz traspuesta de A o, equivalentemente, la traspuesta de aquella cuyos elementos son los conjugados de los elementos de A: Matriz adjunta. A = A T = ( Ā ) T. Propiedades: La operación de calcular la matriz adjunta de una matriz dada tiene las siguientes propiedades: (a) (A ) = A. (b) (A + B) = A + B. (c) (ca) = ca. (d) (AB) = B A. (e) ( A ) = (A ). (f) det A = det A. Caracterización de matrices unitarias: Si A es una matriz unitaria, A A es una matriz identidad y por tanto A es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que A A = I entonces las columnas de A forman un sistema ortonormal para el producto hermítico y por tanto A es una matriz unitaria. No confundir con la matriz de adjuntos. 6

7 6. Ortogonalidad y Valores Singulares 6.. Norma y producto interior El producto escalar asociado con una norma y el teorema de Pitágoras Cualquiera de las fórmulas (6.4) o (6.5) nos permite dar una fórmula para el producto escalar en términos de la función norma: Despejando en dichas fórmulas el producto escalar u v obtenemos las siguientes fórmulas de polarización : u v = ( u + v u v ) (6.6) u v = ( u + v u v ) (6.7) Cualquiera de esas fórmulas es equivalente al teorema de Pitágoras. Por ejemplo, la primera de ellas, (6.6), implica que si u y v son perpendiculares entonces u v = y por tanto: u + v = u + v Teorema de Pitágoras Componentes longitudinal y transversal de un vector respecto a una dirección dada Se llama proyección ortogonal de un vector v sobre (la recta definida por) un vector no nulo u, proyección ortogonal y se denota por proy u (v), a aquél múltiplo de u que restado de v da como resultado un vector perpendicular a u. Es decir: un múltiplo de u, cu, es la proyección ortogonal de v sobre u si el vector diferencia v cu es perpendicular a u, es decir, si (v cu) u =. De esta ecuación se deduce: c = v u ( v u ) u u y por tanto: proy u (v) = u. (6.8) u u La proyección ortogonal nos permite calcular la descomposición de un vector dado en suma de dos vectores que sean uno de ellos paralelo y el otro perpendicular a una dirección dada. Sea v un vector dado y supongamos dada una dirección (o subespacio vectorial unidimensional) mediante un vector u, Las componentes longitudinal (paralela) y transversal (perpendicular) de v respecto a la dirección de u son dos vectores denotados respectivamente v y v tales que v + v = v, v = cu y v u = En consecuencia, la componente longitudinal es la proyección ortogonal y la componente transversal es la diferencia entre el vector dado y su proyección ortogonal: v = proy u (v), v = v proy u (v). Matriz de la proyección ortogonal Si deseamos hallar la proyección ortogonal de varios vectores v,..., v k sobre un mismo vector u, es conveniente disponer los cálculos de forma que se evite repetir el mismo cálculo varias veces. Observando la fórmula de la proyección ortogonal hallada más arriba, (6.8), vemos que se puede reescribir en términos de productos de matrices de la siguiente forma: proy u (v) = ( v u ) u = u u u u (v u)u = u u u(v u) = u T u u(ut v) = u T u (uut )v = P u v donde hemos denotado P u la matriz cuadrada P u = u T u (u ut ) = u (u ut ). (6.9) 7

8 6.. Norma y producto interior 6. Ortogonalidad y Valores Singulares Esta matriz se llama la matriz de la proyección ortogonal sobre la recta de u. Por tanto, si queremos hallar las proyecciones ortogonales de varios vectores v,..., v k sobre un mismo vector u, basta calcular una sola vez la matriz P u y luego calcular los productos P u v,..., P u v k. Observación: está dada por: En la fórmula (6.9) de la matriz P u es importante comprender que la matriz u u T uu T = u. u n ( u... u n ) = u u u... u u n u u u... u u n.... u n u u n u... u n Ángulo entre dos vectores y la fórmula del coseno para el producto escalar Sabiendo calcular la proyección ortogonal de un vector sobre otro, es muy sencillo medir el ángulo entre dos vectores no nulos u, v. Para ello basta hallar la proyección ortogonal de uno de ellos sobre el otro: proy u (v) y observar que se obtiene un triángulo rectángulo en el que v es la hipotenusa y las componentes longitudinal y transversal de v son los catetos. Suponiendo v u, el ángulo entre u y v es el que tiene a v = proy u (v) como cateto adyacente, por lo que la definición cateto adyacente partido por la hipotenusa nos dice que su coseno es: cos α = proy u (v) v = v ( v u ) u u u = De aquí se obtiene la conocida fórmula de los libros de Física: v u = v u cos α. v u v u u = v u v u. La desigualdad de Cauchy-Schwartz desigualdad de Cauchy- Schwartz Dado que el coseno de cualquier ángulo tiene un valor absoluto menor o igual que uno, de la fórmula de los físicos del producto interior, v u = v u cos α, se puede deducir otra famosa e importante relación entre el producto escalar y la norma, conocida como la desigualdad de Cauchy-Schwartz: u v u v. Al apoyar esta desigualdad en la definición del coseno, estamos haciéndola provenir del hecho de que todo cateto en un triángulo rectángulo es menor o igual que la hipotenusa, lo cual a su vez es consecuencia del teorema de Pitágoras. Sin embargo, esta desigualdad se puede deducir directamente de las propiedades del producto interior de la siguiente forma: Comenzamos con la siguiente desigualdad, válida para cualesquiera números reales a y b: au bv. Expandiendo este cuadrado de una norma como producto escalar de au bv por sí mismo, se obtiene: au bv = (au bv) (au bv) = a (u u) + b (v v) ab(u v) = a u + b v ab(u v) Esto tiene un valor no negativo también en el caso particular a = v y b = u, en el cual se reduce a: u v ( u v u v ). La desigualdad de Cauchy-Schwartz es equivalente a decir que este paréntesis es no negativo. 8

9 6. Ortogonalidad y Valores Singulares 6.. Ortogonalidad 6.. Ortogonalidad Proyección ortogonal sobre un subespacio Al igual que ocurre con la descomposición de un vector obtenida a partir de su proyección ortogonal sobre un subespacio unidimensional, dado un vector v y un subespacio W de R n o de C n, existe una única descomposición de v en suma de dos vectores: v = v + v tales que el primero sea ortogonal (o perpendicular) a cada vector de W mientras que el segundo pertenece a W. La componente v, perpendicular a cada vector de W, se llama la componente transversal (u ortogonal) de v respecto a W, mientras que la otra componente, v, contenida en el subespacio W, se llama la componente longitudinal (o paralela) de v respecto a W y también la proyección ortogonal de v sobre W. Dada una base {u,..., u r } de W, es posible plantear un sistema de ecuaciones para calcular las coordenadas c i de la proyección ortogonal de un vector cualquiera v sobre W: v = proy W (v) = c u + + c r u r. La condición que necesitamos aplicar para plantear dicho sistema de ecuaciones es que la diferencia v v es perpendicular a cada vector de la base: ( v v ) ui =. Así pues, en el sistema de ecuaciones satisfecho por los coeficientes c i, la ecuación j es: (u u j )c + + (u r u j )c r = v u j Para hallar las coordenadas c,..., c r de la proyección ortogonal es, pues, necesario resolver un sistema de ecuaciones cuya matriz de coeficientes es: u u... u u r u r u... u r u r Caso de una base ortogonal Existe un caso en el que dicha matriz de coeficientes es una matriz diagonal y por tanto la solución del sistema es inmediata. Nos referimos al caso en que todos los productos u i u j fuera de la diagonal son cero; es decir, el caso en el que la base {u,..., u r } de W es una base ortogonal: base ortogonal En este caso, la ecuación j se reduce a: y la solución del sistema es: u i u j = para i = j. (u j u j )c j = v u j c = v u u u,..., c r = v u r u r u r. La fórmula de la proyección ortogonal queda entonces: ( v u ) ( v = proy W (v) = v u ) r u u + + u r. u u r u r 9

10 6.. Ortogonalidad 6. Ortogonalidad y Valores Singulares Ejemplo: Hallar las componentes longitudinal y transversal del vector v respecto al subespacio W = Gen{u, u } de R donde: v =, u = 5, u =. Solución: Empezamos comprobando que la base dada es ortogonal: calculamos el producto escalar u u = =. Entonces hallamos la componente longitudinal que es la proyección ortogonal de v sobre W: ( v u ) ( v = proy W (v) = v u ) u u + u. u u u Calculando los productos escalares: v u = + = 9, u u = =, v u = + + =, u u = = 6, tenemos: v = = /5, v 6 = v v = /5 = 7/5 = 7. 5 /5 /5 4/5 Propiedades de la proyección ortogonal Proyección de un vector contenido en W Si v pertenece al subespacio W entonces (y sólo entonces) proy W (v) = v. Propiedad de mínimo de la proyección ortogonal Propiedad de mínimo de la proyección ortogonal. La proyección ortogonal de un vector v sobre un subespacio W, proy W (v), es el vector de W que menos dista de v: v proy W (v) = mín v x. (6.) x W En otras palabras: Para cualquier vector x de W distinto de la proyección ortogonal proy W (v), la distancia de x a v es mayor que la distancia de proy W (v) a v: v proy W (v) < v x. (6.) Esta propiedad es una simple consecuencia del teorema de Pitágoras. Para convencerse de ello basta observar que la componente transversal v = v proy W (v) es, por definición, perpendicular a todo vector de W, y es, en particular, perpendicular al vector diferencia proy W (v) x (que por hipótesis es distinto de cero). Por ser perpendiculares, estos dos vectores son los catetos de un triángulo rectángulo cuya hipotenusa es su suma: ( v proyw (v) ) + ( proy W (v) x ) = v x. Entonces, el teorema de Pitágoras dice: v proy W (v) + proy W (v) x = v x y en consecuencia, la hipótesis x proy W (v) > implica (6.). Como la distancia de un punto a un conjunto se define como el mínimo de las distancias del punto a los puntos del conjunto, la propiedad de mínimo de la proyección ortogonal es equivalente a decir que: La distancia de un vector a un subespacio es igual a la norma o longitud de su componente transversal. dist(v, W) = v.

11 6. Ortogonalidad y Valores Singulares 6.. Método de ortogonalización de Gram-Schmidt 6.. Método de ortogonalización de Gram-Schmidt El método de ortogonalización de Gram-Schmidt nos permite transformar una base cualquiera {v,..., v r } de un subespacio W de R n o C n una base ortogonal del mismo. Para comprender la idea fundamental de este método basta comprender el caso especial en el que tenemos solamente dos vectores linealmente independientes, v v. En este caso, para obtener un sistema ortogonal a partir de estos vectores basta sustituir v por su componente transversal respecto a v, de manera que pasamos de la base {v, v } a la base ortogonal {u, u } definiendo: u = v, ( v u ) u = v proy u (v ) = v u u. u Esta idea puede repetirse el número de veces que sea necesario para convertir cualquier conjunto libre de vectores en un conjunto ortogonal. En general, un sistema de r vectores independientes {v,..., v r } se transforma en un sistema ortogonal en r pasos en cada uno de los cuales (excepto en el primero) se sustituye un vector v i+ por su componente transversal respecto al subespacio W i = Gen{v,..., v i } = Gen{u,..., u i } generado por los vectores anteriores: u i+ = v i+ proy Wi (v i+ ) = v i+ ( vi+ u ) u u u ( vi+ u ) i u u i. i u i Por ejemplo, si partimos de tres vectores independientes v, v, v, éstos quedarían tranasformados en un conjunto ortogonal en tres pasos: u = v, ( v u ) u = v proy u (v ) = v u u, u u = v proy {u,u } (v ) = v ( v u ) u u u ( v u ) u. u u Cuando se realizan cálculos a mano conviene tener presente que los vectores u i que se van obteniendo paso a paso pueden ser a su vez sustituidos por un múltiplo escalar cualquiera, cu i, con el fin de eliminar denominadores de las fracciones que pudieran haberse obtenido y de esta forma facilitar los cálculos del paso siguiente. Veamos esto con un ejemplo. Ejemplo: Aplicar el proceso de Gram-Schmidt al conjunto libre de vectores de R 4 siguiente: v =, v =, v = Solución: Tomando u = v calculamos /4 ( v u ) u = v u u = u 4 = /4 /4 /4 y eliminando denominadores: Finalmente: ( v u ) ( u = v v u ) u u u = u u u 4 = / / /

12 6.4. Factorización QR 6. Ortogonalidad y Valores Singulares con lo cual hemos obtenido la base ortogonal: u =, u =, u = Ortonormalización base ortonormal En algunos casos, puede ser necesario obtener una base ortonormal, es decir, una base en la que no solo sean los vectores ortogonales dos a dos, sino que además, cada vector de la base sea un vector unitario. Una vez conseguida una base ortogonal, no hay más que normalizar cada uno de los vectores hallados para convertirla en una basa ortonormal haciendo una operación de reescalado con cada vector. Por ejemplo, si después de obtener la base del ejemplo anterior deseamos convertirla en un sistema ortonormal, calculamos la norma de cada vector: u = () + () + () + () =, u = ( ) + () + () + () =, u = () + ( ) + () + () = 6, y dividiendo cada vector por su norma obtenemos la base ortonormal: / / / /, / / / /, / 6 / 6 / Factorización QR Sea A una matriz real m n cuyo rango es igual a n. Esto es equivalente a decir que las n columnas de A, a,..., a n, son vectores linealmente independientes de R m. Si aplicamos el proceso de Gram-Schmidt al sistema formado por las columnas de A, obtendremos una base ortogonal {u,..., u n } del espacio columna de A. Pero además, en cada paso del proceso hemos obtenido una base de la forma {u,..., u k, a k+,..., a n } en la que los vectores u,..., u k generan el mismo subespacio de R m que las primeras k columnas de A, a,..., a k. En otras palabras: cada a k es una combinación lineal de los k primeros vectores de {u,..., u n }:. a k = r k u + + r kk u k + u k+ + + u n = [u... u n ] r kk. r k

13 6. Ortogonalidad y Valores Singulares 6.4. Factorización QR y además el coeficiente r kk es distinto de cero (de lo contrario, a k sería linealmente dependiente de las anteriores columnas de A) y puede elegirse el signo de u k de forma que r kk sea positivo. Los coeficientes de esta combinación lineal forman, pues, la columna k-ésima de una matriz inversible triangular superior, r r... r n r... r n R =......,... r nn con los elementos diagonales positivos y que, junto con la matriz Q = [u... u n ] verifica A = QR. (6.) En el caso especial de que en el proceso de ortogonalización de Gram-Schmidt, hemos normalizado el vector obtenido en cada paso (dividiéndolo por su norma de forma que la base obenida, {u,..., u n }, es una base ortonormal de Col A), esta factorización de la matriz A se conoce como la factorización QR. La matriz Q de la factorización QR es una matriz ortogonal, esto es, sus columnas u... u n forman un sistema ortonormal. Debido a que todos los productos escalares u i u j = u T i u j son iguales a cero si i = j e iguales a si i = j, tenemos Q T Q = u T. u T n [u... u n ] = u u... u u n..... u n u... u n u n Esta es la propiedad característica de las matrices ortogonales. = = I n.... La factorización QR de una matriz es la única factorización de A como producto de una matriz ortogonal por una matriz inversible triangular superior con todos los elementos de la diagonal positivos. Debido a la propiedad característica de las matrices ortogonales, la matriz R de la factorización QR de A se puede calcular de forma sencilla a partir de Q y de A ya que de (6.), multiplicando por la izquierda por Q T obtenemos: R = Q T A. Ejemplo: En la sección anterior aplicamos el método de Gram-Schmidt para ortonormalizar las columnas de la matriz A = y obtuvimos: / / Q = / / / 6 / / / 6 / / / 6 En consecuencia, / / / / R = Q T A = / / / / / 6 / 6 / / = / / 6 /. 6

14 6.5. Mínimos cuadrados 6. Ortogonalidad y Valores Singulares Como todos los elementos de la diagonal son positivos, hemos encontrado la factorización QR. Si alguno de los elementos de la diagonal hubiese resultado negativo, habría que cambiar de signo a todos los elementos de su fila y hacer lo mismo con la correspondiente columna de Q Mínimos cuadrados En esta sección nos planteamos una estrategia para abordar sistemas de ecuaciones lineales que no tienen solución, es decir, sistemas inconsistentes. Estos sistemas aparecen con mucha frecuencia en las ciencias aplicadas y en la ingeniería, por ejemplo, en la localización de un objeto mediante varias visuales determinadas experimentalmente. Debido, entre otras causas, a los errores experimentales, nos encontramos con frecuencia con una situación análoga a la que tenemos en el plano cuando se dan tres o más rectas y se busca su intersección. Otro ejemplo lo tenemos en los ajustes de funciones a unos datos, donde se buscan los coeficientes de una combinación lineal de un tipo particular de funciones que hacen que esta combinación lineal pase por unos puntos dados. En todos estos casos se suele uno encontrar con un sistema de ecuaciones lineales, Ax = b, que no tiene solución. En estos casos, existe una estrategia para encontrar lo siguiente mejor a una solución, conocida como la solución por mínimos cuadrados del problema dado. En esta estrategia se busca el vector x tal que la distancia Ax a b sea lo menor posible. Para poder poner en práctica esta estrategia, es fundamental saber determinar la noción de distancia entre vectores que se adapta correctamente al problema considerado. En general, una buena noción de distancia entre vectores corresponde a una noción de norma que proviene de un producto interior. Entonces, los métodos para encontrar la solución óptima (al menos en el caso de tratarse de vectores de un espacio vectorial de dimensión finita) serán enteramente análogos a los que veremos a continuación para el caso de R n con el producto interior dado por el producto escalar (o, con más generalidad, para el caso de C n con el producto interior dado por el producto hermítico, caso que engloba al de R n ). En toda esta sección supondremos tácitamente que todas las matrices y vectores considerados son reales y el producto interior de vectores es el producto escalar euclidiano dado por x y = y T x = x T y. Solución del problema general de mínimos cuadrados Supongamos que nos dan un sistema de ecuaciones lineales, Ax = b, que podría no ser compatible. Si en lugar de plantearnos encontrar todos los x que hacen que Ax sea igual a b, nos planteamos encontrar todos los x que hacen que el error ɛ = Ax b sea lo menor posible, (o, equivalentemente que Ax b sea lo menor posible, de donde el nombre de mínimos cuadrados), entonces, debido a la propiedad de mínimo de la proyección ortogonal, lo que estamos buscando son los coeficientes, x, de una combinación lineal de las columnas de A que hagan que esa combinación lineal, Ax, sea igual a la proyección ortogonal de b sobre el espacio columna de A. Por tanto, la solución del problema de mínimos cuadrados asociado al sistema Ax = b es la solución del sistema Ax = b, ( donde b = proy Col A (b) ) (6.) (y su error asociado es ɛ = b b = b ). Esta observación nos permite resolver cualquier problema de mínimos cuadrados mediante los métodos estudiados en las secciones anteriores. Sin embargo vamos a hacer algunas observaciones que nos permitirán encontrar la misma solución de una forma más sencilla. 4

15 6. Ortogonalidad y Valores Singulares 6.5. Mínimos cuadrados Ecuaciones normales de un sistema Recordemos que la componente transversal de b respecto al subespacio Col A, b = b b, tiene la propiedad de ser ortogonal a cada vector de Col A y en particular a cada columna de A, así que si los vectores a,..., a n son las columnas de A, entonces, para cada i =,..., n, = a i b = a i (b b ) de donde, a T i (b b ) =, Como los a T i son las filas de la matriz traspuesta A T, estas ecuaciones para los distintos valores de i se resumen en: A T (b b ) =, o A T b = A T b. Por tanto si un vector x es solución de (6.) entonces verifica A T Ax = A T b. Recíprocamente, si x cumple esta ecuación entonces A T (b Ax) =, es decir, b Ax es ortogonal a todas las columnas de A y por tanto a todos los vectores de Col A. Esto quiere decir que Ax es un vector del espacio columna de A que restado de b resulta en un vector ortogonal a Col A. Por el teorema de la proyección ortogonal, esto significa que Ax es igual a proy Col A (b). En conclusión, los sistemas Ax = b y A T Ax = A T b tienen exactamente las mismas soluciones. El sistema de ecuaciones A T Ax = A T b (que tiene tantas ecuaciones como incógnitas) se conoce como las ecuaciones normales del sistema Ax = b. La solución del problema de mínimos cuadrados asociado con un sistema de ecuaciones lineales Ax = b es el conjunto solución de sus ecuaciones normales. Ecuaciones normales Ejemplo: Resolver el problema de mínimos cuadrados asociado con el sistema Ax = b donde A =, b =. 5 Hallar también el error asociado con la solución por mínimos cuadrados. Solución: Calculamos 6 A T A = = 4 A T b = =

16 6.5. Mínimos cuadrados 6. Ortogonalidad y Valores Singulares Con lo cual ahora nos queda resolver el sistema A T Ax = A T b, cuya matriz ampliada es: (Observación: Se podría también multiplicar A T por la matriz ampliada del sistema original y luego reducir.) La solución general es: x = 5 + x 4. El error en cualquiera de estas soluciones es el mismo e igual la norma ɛ = Ax b. Para calcularlo podemos coger cualquier solución particular, por ejemplo la que corresponde al valor cero de todos los parámetros. Entonces el error es la norma de 5 luego ɛ = Ax b = 9 =. Ax b = =, 5 Caso de coeficientes con columnas ortogonales Muchos problemas de regresión lineal que necesitamos resolver por mínimos cuadrados dan lugar a una matriz de coeficientes cuyas columnas son ortogonales dos a dos. En esos casos, la solución del problema de mínimos cuadrados del sistema Ax = b se puede obtener de forma sencilla calculando previamente la proyección ortogonal b = proy Col A (b) y luego resolviendo el sistema Ax = b. Por ejemplo: Sean 6 A =, b = 7 6 Se comprueba fácilmente que las columnas de A son ortogonales: a a = =. En consecuencia, la proyección ortogonal de b sobre Col A es fácil de calcular: ( b a ) ( b = proy Col A (b) = b a ) a a + a = 45 a a a 9 a a = + = / 7/ 5/ / y sólo tendríamos que resolver el sistema Ax = b. Pero ni siquiera necesitamos resolverlo porque ya conocemos los coeficientes de la combinación lineal de las columnas de A que es igual a b. Estos coeficientes son 45 9 = y 4 8 =. por tanto la solución por mínimos cuadrados es: / x = 6

17 6. Ortogonalidad y Valores Singulares 6.5. Mínimos cuadrados y el error asociado es la norma de o sea, ɛ = b b = Ax b = b b = 5/ / + ( ) + ( ) = 4. = 6, / / TEOREMA 6.5. Si la columnas a,..., a n de A = [a... a n ] son ortogonales entonces una solución del problema de mínimos cuadrados asociado al sistema Ax = b está dado por los coeficientes de la proyección ortogonal de b sobre Col A: { b a,..., b a } n. a a a n a n Unicidad de la solución del problema de mínimos cuadrados Si A es una matriz m n, toda solución de Ax = es, evidentemente solución de A T Ax =, pero, recíprocamente, también toda solución de A T Ax = es solución de la anterior porque A T Ax = implica x T A T Ax =, es decir (Ax) (Ax) =, que implica Ax =. Esto significa que: Las matrices A y A T A tienen el mismo espacio nulo (y por tanto, como tienen el mismo número de columnas, tienen también el mismo rango). Si las coumnas de A son linealmente independientes, entoces el espacio nulo de A es cero y por tanto, según lo anterior, también el espacio nulo de A T A es cero, lo que significa que las columnas de A T A son linealmente independientes y (por ser una matriz cuadrada) A T A es inversible. Recíprocamente, si A T A es inversible, sus columnas, A T a,..., A T a n son independientes y esto implica que las de A, a,..., a n, también lo son (de lo contrario, las de A T A tendrían la misma relación de dependencia lineal). En consecuencia: LEMA 6.5. Las columnas de A son linealmente independientes si y sólo si la matriz A T A es inversible. TEOREMA 6.5. Si las columnas de la matriz de coeficientes de un sistema Ax = b son linealmente independientes, entonces el problema de mínimos cuadrados asociado tiene solución única, independientemente de cuál sea el vector de términos independientes b, y esa solución es: x = (A T A) A T b. (6.4) 7

18 6.5. Mínimos cuadrados 6. Ortogonalidad y Valores Singulares Aplicación de los mínimos cuadrados al cálculo de la proyección ortogonal Dada una base {u,..., u r } de un subespacio W de R n, hemos visto cómo plantear un sistema de ecuaciones para calcular las coordenadas c i de la proyección ortogonal de un vector cualquiera v sobre W: proy W (v) = c u + + c r u r. En el sistema de ecuaciones satisfecho por las coordenadas c i, la ecuación j es: (u u j )c + + (u r u j )c r = v u j. En términos de la matriz U = [u u r ] cuyas columnas son los vectores de la base de W, la matriz de coeficientes de este sistema es la matriz simétrica U T U: u u... u u r U T U =..... u r u... u r u r y el vector c de coordenadas verifica: La proyección ortogonal de v sobre W es: en consecuencia tenemos lo siguiente: U T Uc = U T v. proy W (v) = c u + + c r u r = Uc, PROPOSICIÓN 6.5. Si {u,..., u r } es una base de un subespacio W de R n, para hallar la proyección ortogonal de v sobre W basta construir la matriz U = [u... u r ] y resolver el problema de mínimos cuadrados Ux = v. Elegida una solución x, la proyección ortogonal es: proy W (v) = Ux. Teniendo en cuenta que los vectores {u,..., u r } son linealmente independientes (por ser base de W) y por tanto, según (6.4), x = ( U T U ) U T v, vemos que y tenemos: proy W v = U(U T U) U T v Si la columnas de U son linealmente independientes, la matriz P U = U ( U T U ) U T es la matriz de proyección sobre el espacio W = Col U. En el caso particular de que la base {u,..., u r } del subespacio W sea una base ortonormal, entonces U T U = I r y P U = UU T, y proy Col U v = P U v = UU T v. Ajuste polinómico mediante mínimos cuadrados El problema de ajuste polinómico consiste en hallar un polinomio de grado fijado de antemano que mejor se ajuste a unos datos dados (x, y ),..., (x k, y k ). Un ejemplo de esto es hallar 8

19 6. Ortogonalidad y Valores Singulares 6.5. Mínimos cuadrados la recta (polinomio de grado ) que pase por dos puntos con diferente abscisas, (x, y ), (x, y ), x = x (si las abscisas fuesen iguales la recta que pasa por los puntos no sería la gráfica de ninguna función). En este ejemplo la solución es muy sencilla, ya que el problema es el de hallar una recta de la forma y = ax + b que pase por los dos puntos dados, es decir, que cumpla es decir, x a = x b cuya solución es ( y y ), a = b ax + b = y ax + b = y ( x x ) y y = y x x x x y a = y y, b = x y x y (6.5) x x x x siempre que x = x. Sin embargo, si los datos son tres puntos en lugar de dos, ya no existirá en general ninguna recta y = ax + b que pase por los tres puntos porque éstos pueden no estar alineados. En ese caso, nuestro sistema será de la forma: ax + b = y ax + b = y ax + b = y y lo que todavía podemos hacer es hallar la solución de mínimos cuadrados resolviendo el sistema cuya matriz ampliada es el producto x x x x ( y i x ) i x y i x i i x i y i =. x y i x i i y i Así se llega a las fórmulas de la recta de regresión que se estudian en Estadística. En el problema general de ajuste polinómico se buscan los coeficientes a, a,..., a n del polinomio p(x) = a + a x + + a n x n de grado n que mejor se ajusta a unos datos dados (x, y ),..., (x k, y k ). En este contexto mejor ajuste ocurre cuando el error cuadrático ɛ = ( p(x ) y ) + + ( p(xk ) y k ) tiene el menor valor posible. Claramente, este valor es igual a cero precisamente cuando el polinomio pasa por todos los puntos. Esta suma de cuadrados es el cuadrado de la norma eucídea del vector diferencia p y, donde p es el vector x p(x ) x... x n a x x... x n a p =. = a.... p(x k ) x k xk... xk n. a n Por tanto nuestro problema es minimizar Ax y con x x... x n y x x... x n A =...., y = y.. x k xk... xk n y k Otras variantes de este problema general se obtienen al imponer restricciones adicionales a los coeficientes de p(x). Por ejemplo, en el siguiente ejercicio se busca un polinomio de segundo grado con el término independiente igual a cero, por tanto la parábola está determinada por dos coeficientes: 9

20 6.5. Mínimos cuadrados 6. Ortogonalidad y Valores Singulares Ejercicio: Hallar la curva de ecuación y = ax + bx que mejor se ajusta, en el sentido de los mínimos cuadrados, a los siguientes puntos: (, ), (, ), (, ), (, ). Al resolver este ejercicio conviene observar que al plantear el sistema Ax = b, las dos columnas de la matriz de coeficientes son perpendiculares y por tanto el método de los mínimos cuadrados se puede simplificar según lo dicho en la sección Caso de coeficientes con columnas ortogonales (página 6). Solución: El sistema a resolver es: a + b = a ( ) + b ( ) = a + b = a ( ) + b ( ) = De aquí, las ecuaciones se pueden expresar como a + b = a b = 4a + b = 4a b = o bien:, en la forma matricial Ax = b, a 4 = b 4 Atención: Al plantear un problema de mínimos cuadrados hay que tener cuidado de no realizar opreraciones elementales simplificativas en las ecuaciones del sistema original, pues con ello se podría estar cambiando la solución. Simplificaciones de ese tipo sólo se pueden realizar de forma segura en la ecuaciones normales del sistema. En este ejemplo, si simplificásemos las dos últimas ecuaciones dividiéndolas entre llegaríamos al resultado y = 6 x, que no es la solución correcta (ver más abajo). La solución de mínimos cuadrados de este sistema se puede hallar resolviendo el sistema Ax = b donde b es la proyección ortogonal de b sobre el espacio columna de A. En este caso, como las dos columnas a, a de A son ortogonales, el vector b se halla fácilmente: b = ( b a ) ( b a ) a a + a = 8 a a a La solución de Ax = b nos la dan evidentemente los coeficientes en esta combinación lineal: x = 9 7, es decir, a = 7 9 por tanto la curva pedida es y = 9 7 x.

21 6. Ortogonalidad y Valores Singulares 6.6. Diagonalización de matrices simétricas o hermitianas 6.6. Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas son reales Existe una fórmula que nos permite calcular el autovalor correspondiente a cualquier vector propio de una matriz. Si x un vector propio de una matriz A (real o compleja), entonces la fórmula x Ax = x λ x = λ x, x = λ x implica que el autovalor de x es: λ = x Ax x. (6.6) Esta fórmula tiene una consecuencia especial si A es una matriz hermitiana. Se llama matriz hermitiana a toda matriz A (real o compleja) que es igual a su traspuesta conjugada: A = A. (6.7) Definición de matriz hermitiana Esta propiedad es equivalente a A = A T y en el caso de que A sea real simplemente significa que A es igual a su traspuesta, es decir, que es simétrica: las matrices hermitianas reales son exactamente las matrices reales simétricas. Supongamos que A es una matriz hermitiana. Entonces A = A T y con un simple cálculo se comprueba que el numerador en (6.6) es necesariamente real porque su conjugado es él mismo: x Ax = x A x = x T A T x = ( x T A T x ) T (A = A T por ser hermitiana.) (un número, como matriz, es simétrica.) = x T( A T) T (x T ) T = x Ax. De esto se deduce que λ es un número real y por tanto llegamos a la siguiente conclusión: TEOREMA 6.6. Para cualquier matriz compleja hermitiana (o real simétrica) de tamaño n n sus n autovalores son reales. Matrices ortogonalmente diagonalizables Se dice que una matriz real A es ortogonalmente diagonalizable si existe una diagonalización A = QDQ donde la matriz Q de autovectores es una matriz ortogonal, es decir Q = Q T. Esto es lo mismo que decir que A admite un sistema ortonormal de vectores propios. Toda matriz real ortogonalmente diagonalizable es simétrica porque Si A = QDQ T entonces A T = ( QDQ T) T = ( Q T ) T D T Q T = QDQ T = A. La situación análoga en el caso complejo (y que engloba a la anterior del caso real) es la de una matriz unitariamente diagonalizable. Una matriz compleja tiene esta propiedad si admite una diagonalización A = UDU en la que U es una matriz unitaria, es decir que cumple

22 6.6. Diagonalización de matrices simétricas o hermitianas 6. Ortogonalidad y Valores Singulares U = U. Un razonamiento similar al anterior demuestra que toda matriz unitariamente diagonalizable es hermitiana. Supongamos que A es una matriz hermitiana y que x es un vector propio de A con autovalor λ y x es otro vector propio con autovalor λ, es decir: Ax = λ x, x = Ax = λ x, x =. Entonces si el producto escalar de x y x se multiplica por λ el resultado es el mismo que si se multiplica por λ : λ x, x = λ x, x = Ax, x = x Ax = x A x = (Ax ) x = x, Ax = x, λ x = λ x, x = λ x, x. donde hemos tenido en cuenta que λ = λ porque los autovalores de una matriz hermitiana son reales. En consecuencia, si λ = λ entonces x, x =, es decir: Para cualquier matriz hermitiana, los vectores propios correspondientes a autovalores diferentes son ortogonales. Y también: Para cualquier matriz hermitiana, los espacios propios correspondientes a autovalores diferentes son ortogonales: Si λ = λ, entonces E λ E λ. En particular esto es cierto para cualquier matriz hermitiana real, es decir para cualquier matriz real simétrica. Corolario: Para toda matriz A hermitiana n n que sea diagonalizable existe una base ortogonal de C n formada por vectores propios de A. Y, en particular, Para toda matriz A real simétrica n n que sea diagonalizable existe una base ortogonal de R n formada por vectores propios de A. Si existe una base ortogonal de R n (o de C n en el caso no real) formada por vectores propios de A, podemos normalizar cada vector de esa base y obtener una base ortonormal. Entonces, la matriz de diagonalización correspondiente es una matriz en la que el producto escalar de dos columnas cualesquiera es cero si son distintas y si son la misma. Esto significa que en esa diagonalización de A, A = UD U U verifica U U = I (lo que en el caso real significa: U T U = I). Toda matriz que cumpla esta propiedad se llama una matriz unitaria (evidentemente, las matrices unitarias reales son lo mismo que las matrices ortogonales que ya encontramos en el tema anterior). Toda matriz que admita una diagonalización mediante una matriz unitaria se dice que es unitariamente diagonalizable. Así, el corolario anterior es equivalente a decir que toda matriz hermitiana diagonalizable es unitariamente diagonalizable. Y en el caso de las matrices reales: toda matriz real simétrica diagonalizable es ortogonalmente diagonalizable.

23 6. Ortogonalidad y Valores Singulares 6.6. Diagonalización de matrices simétricas o hermitianas El teorema de Schur Los resultados anteriores los hemos demostrado con razonamientos muy sencillos y observaciones muy simples. En realidad se puede demostrar mucho más con algo más de esfuerzo: lo verdaderamente sorprendente de las matrices hermitianas/reales simétricas es que en los anteriores resultados (y, en particular, en los del último párrafo) sobra la hipótesis de que la matriz sea diagonalizable, pues toda matriz hermitiana es diagonalizable y toda matriz real simétrica es diagonalizable. Esto es consecuencia de un teorema conocido como teorema de Schur según el cual absolutamente todas las matrices cuadradas admiten una factorización de Schur. DEFINICIÓN 6.6. Una factorización de Schur de una matriz A es una factorización de la forma: donde U es una matriz unitaria y R es una matriz triangular superior. A = UR U (6.8) factorización de Schur TEOREMA 6.6. Teorema de Schur Toda matriz cuadrada admite una factorización de Schur. Si A es una matriz real, una factorización real de Schur de A es una factorización de Schur factorización real de Schur en la que la matriz U también es real (y por tanto es una matriz ortogonal). El teorema de Schur para matrices reales dice: TEOREMA 6.6. Teorema de Schur para matrices reales Para que una matriz real admita una factorización real de Schur es condición necesaria y suficiente que todos sus autovalores sean reales. Más abajo se indican las ideas principales en que se basa la demostración de este teorema, pero antes de eso vamos a establecer la siguiente consecuencia importante: Corolario: Toda matriz real simétrica es diagonalizable. Para demostrarlo, supongamos que A es una matriz real simétrica. Según vimos antes (pág.??) todos los autovalores de A son reales y por tanto, según el teorema de Schur, A admite una factorización real de Schur: A = UR U. Entonces R = U T A U y R T = (U T A U) T = U T A T (U T ) T = U T A U = R luego R es simétrica y triangular, lo que implica que es diagonal y la factorización de Schur de A es realmente una diagonalización (ortogonal) de A. En la demostración del teorema de Schur se usa el siguiente cálculo de matrices por bloques: Ejercicio: Si a R, v R n y A, B, C son tres matrices n n, con C inversible, se cumple: ( ) ( a v T C ) ( ) a v T =. (6.9) A B C ABC

Espacios vectoriales con producto interior

Espacios vectoriales con producto interior Espacios vectoriales con producto interior Longitud, norma o módulo de vectores y distancias entre puntos Generalizando la fórmula pitagórica de la longitud de un vector de R 2 o de R 3, definimos la norma,

Más detalles

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica 6.6 Diagonalización de matrices simétricas o hermitianas Ejemplo de una diagonalización de una matriz simétrica Matrices hermitianas Los autovalores de las matrices reales simétricas o complejas hermitianas

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

6.8. Descomposición mediante valores singulares. v 2 =

6.8. Descomposición mediante valores singulares. v 2 = 68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Espacios vectoriales con producto escalar

Espacios vectoriales con producto escalar 147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en

Más detalles

Tema 3: Espacios eucĺıdeos

Tema 3: Espacios eucĺıdeos Marisa Serrano, Zulima Fernández Universidad de Oviedo 25 de noviembre de 2009 email: mlserrano@uniovi.es Índice 1 2 3.1 V, R espacio vectorial, la aplicación : V V R ( v, u) v u a) v 1, v 2, u V α, β

Más detalles

6.7. Clasificación de formas cuadráticas

6.7. Clasificación de formas cuadráticas 6.7 Clasificación de s s 1.1. Definición de s s en R n El concepto básico que sirve para definir una es el de polinomio homogéneo de segundo grado en varias variables. En toda esta sección sobreentenderemos

Más detalles

Podemos pues formular los dos problemas anteriores en términos de matrices.

Podemos pues formular los dos problemas anteriores en términos de matrices. Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios 61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial

Más detalles

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Matrices, determinantes y sistemas de ecuaciones lineales

Matrices, determinantes y sistemas de ecuaciones lineales Matrices, determinantes y sistemas de ecuaciones lineales David Ariza-Ruiz 10 de octubre de 2012 1 Matrices Una matriz es una tabla numérica rectangular de m filas y n columnas dispuesta de la siguiente

Más detalles

3.7. Determinantes. Definición. El determinante de una matriz cuadrada es la suma equilibrada de todos esos posibles Definición de determinante.

3.7. Determinantes. Definición. El determinante de una matriz cuadrada es la suma equilibrada de todos esos posibles Definición de determinante. 37 Determinantes 11 Definición de determinante Para calcular el determinante de una matriz cuadrada de orden n tenemos que saber elegir n elementos de la matriz de forma que tomemos solo un elemento de

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales. Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

VECTORES EN EL ESPACIO

VECTORES EN EL ESPACIO UNIDAD VECTORES EN EL ESPACIO Página 13 Problema 1 Halla el área de este paralelogramo en función del ángulo α: cm Área = 8 sen α = 40 sen α cm α 8 cm Halla el área de este triángulo en función del ángulo

Más detalles

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( ) MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una

Más detalles

Matrices. Operaciones con matrices.

Matrices. Operaciones con matrices. Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =

Más detalles

VECTORES : Las Cantidades Vectoriales cantidades escalares

VECTORES : Las Cantidades Vectoriales cantidades escalares VECTORES En física hay dos tipos de cantidades: Las Cantidades Vectoriales son aquellas que tiene tanto magnitud como dirección y sentido sobre la dirección), mientras que las cantidades escalares son

Más detalles

Las variedades lineales en un K-espacio vectorial V pueden definirse como sigue a partir de los subespacios de V.

Las variedades lineales en un K-espacio vectorial V pueden definirse como sigue a partir de los subespacios de V. Capítulo 9 Variedades lineales Al considerar los subespacios de R 2, vimos que éstos son el conjunto {(0, 0)}, el espacio R 2 y las rectas que pasan por el origen. Ahora, en algunos contextos, por ejemplo

Más detalles

TEMA 8. GEOMETRÍA ANALÍTICA.

TEMA 8. GEOMETRÍA ANALÍTICA. TEMA 8. GEOMETRÍA ANALÍTICA. 8..- El plano. Definimos el plano euclideo como el conjunto de puntos ( x, y) R. Así, cada punto del plano posee dos coordenadas. Para representar puntos del plano utilizaremos

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Espacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Objetivos Al finalizar este tema tendrás que: Saber si unos vectores son independientes.

Más detalles

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2 68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado

Más detalles

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades: CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse

Más detalles

TEMA III: DIAGONALIZACIÓN.

TEMA III: DIAGONALIZACIÓN. TEMA III: DIAGONALIZACIÓN. OBJETIVOS: Generales: 1. Captar el motivo que justifica el problema de la diagonalización de endomorfismos. 2. Resolver y aplicar dicho problema cuando sea posible. Específicos:

Más detalles

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar) Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos

Más detalles

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t). Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Minas Álgebra Convocatoria de enero de 20 de enero de 20 (2.5 p.) ) Se considera la aplicación lineal f : R 4 R definida por: f(x y

Más detalles

Espacios vectoriales con producto interno

Espacios vectoriales con producto interno Espacios vectoriales con producto interno Problemas teóricos En todos los problemas relacionados con el caso complejo se supone que el producto interno es lineal con respecto al segundo argumento. Definición

Más detalles

SOLUCIONES A LA AUTOEVALUACIÓN - Espacios Vectoriales.

SOLUCIONES A LA AUTOEVALUACIÓN - Espacios Vectoriales. SOLUCIONES A LA AUTOEVALUACIÓN - Espacios Vectoriales. A) Soluciones a las Cuestiones C-1) a) Sí, por ejemplo el eje X, formado por los vectores de la forma (λ, 0), que se identificarían con el número

Más detalles

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2. Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané

Más detalles

Resuelve. Unidad 4. Vectores en el espacio. BACHILLERATO Matemáticas II. Diagonal de un ortoedro y volumen de un paralelepípedo.

Resuelve. Unidad 4. Vectores en el espacio. BACHILLERATO Matemáticas II. Diagonal de un ortoedro y volumen de un paralelepípedo. Resuelve Página Diagonal de un ortoedro y volumen de un paralelepípedo. Expresa la diagonal de un ortoedro en función de sus dimensiones, a, b y c. c b a c c b b a Diagonal = a + b + c. Calcula el volumen

Más detalles

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas... Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................

Más detalles

a) Como mucho puede haber 3 vectores linealmente independientes. 1 2 = 3 x = 1, y = 2 3 No tiene solución, luego no se puede.

a) Como mucho puede haber 3 vectores linealmente independientes. 1 2 = 3 x = 1, y = 2 3 No tiene solución, luego no se puede. Ejercicios y problemas propuestos Página Para practicar Dependencia e independencia lineal. Base y coordenadas Dados estos vectores: u(,, ), v (,, ), w (,, ), z (,, ) a) Cuántos de ellos son linealmente

Más detalles

Tema 4: Sistemas de ecuaciones lineales.

Tema 4: Sistemas de ecuaciones lineales. Tema 4: Sistemas de ecuaciones lineales 1 Rango de una matriz Definición Sea A Mat n m (K) Se llama rango de filas de A, y se denota por rg f (A) la dimensión del subespacio vectorial generado por las

Más detalles

1. Producto escalar. Propiedades Norma de un vector. Espacio normado. 1.2.Ortogonalidad. Ángulos. 1.4.Producto escalar en V 3.

1. Producto escalar. Propiedades Norma de un vector. Espacio normado. 1.2.Ortogonalidad. Ángulos. 1.4.Producto escalar en V 3. . Producto escalar. Propiedades... Norma de un vector. Espacio normado...ortogonalidad. Ángulos..3.Producto escalar en V..4.Producto escalar en V 3.. Producto vectorial de dos vectores de V 3...Expresión

Más detalles

Determinantes. Reducción de matrices. Caso diagonalizable

Determinantes. Reducción de matrices. Caso diagonalizable Tema 4 Determinantes Reducción de matrices Caso diagonalizable En este tema consideraremos matrices cuadradas y, para ellas, introduciremos el concepto de autovalor de una matriz Veremos también cómo algunas

Más detalles

ESPACIOS VECTORIALES

ESPACIOS VECTORIALES ESPACIOS VECTORIALES Luisa Martín Horcajo U.P.M. Definición: Vector libre. Operaciones Un vector fijo es una segmento orientado, que queda caracterizado por su origen A y su extremo B y se representa por

Más detalles

MATRICES Y SISTEMAS DE ECUACIONES

MATRICES Y SISTEMAS DE ECUACIONES MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n a A = 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Tema 1 Sistemas de ecuaciones lineales 11 Definiciones Sea K un cuerpo Una ECUACIÓN LINEAL CON COEFICIENTES EN K es una expresión del tipo a 1 x 1 + + a n x n = b, en la que n es un número natural y a

Más detalles

EL ESPACIO AFÍN. se distinguen, además de su origen A y su extremo B, las siguientes

EL ESPACIO AFÍN. se distinguen, además de su origen A y su extremo B, las siguientes VECTOR FIJO Y VECTOR LIBRE. Sea E el espacio ordinario. EL ESPACIO AFÍN Llamaremos vector fijo a cualquier segmento orientado dado por dos puntos A y B del espacio E. Al punto A lo llamamos origen del

Más detalles

4.2 Producto escalar.

4.2 Producto escalar. Producto escalar. 147 Este resultado tiene su recíproco, es decir, cualquier matriz cuadrada A define la forma bilineal b(x, y) =x T Ay Si b es simétrica, la matriz A es simétrica. Si b es definida positiva,

Más detalles

Álgebra Lineal Ma1010

Álgebra Lineal Ma1010 Álgebra Lineal Ma1010 s de Vectores y Matrices es Departamento de Matemáticas ITESM s de Vectores y Matrices es Álgebra Lineal - p. 1/44 En esta lectura veremos conjuntos y matrices ortogonales. Primero

Más detalles

Conjuntos de Vectores y Matrices Ortogonales

Conjuntos de Vectores y Matrices Ortogonales Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................

Más detalles

Tema 3: Espacios vectoriales

Tema 3: Espacios vectoriales Tema 3: Espacios vectoriales K denotará un cuerpo. Definición. Se dice que un conjunto no vacio V es un espacio vectorial sobre K o que es un K-espacio vectorial si: 1. En V está definida una operación

Más detalles

Vectores y Valores Propios

Vectores y Valores Propios Capítulo 11 Vectores y Valores Propios Las ideas de vector y valor propio constituyen conceptos centrales del álgebra lineal y resultan una valiosa herramienta en la solución de numerosos problemas de

Más detalles

Capítulo 1: Diagonalización de matrices

Capítulo 1: Diagonalización de matrices Capítulo : Diagonalización de matrices Matrices y determinantes Definición Una matriz es un arreglo rectangular de números reales a a a m a A a a m a n a n a nm La matriz es de orden n m si consta de n

Más detalles

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. 1. MATRICES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. DEFINICIÓN: Las matrices son tablas numéricas rectangulares

Más detalles

Espacios Vectoriales www.math.com.mx

Espacios Vectoriales www.math.com.mx Espacios Vectoriales Definiciones básicas de Espacios Vectoriales www.math.com.mx José de Jesús Angel Angel jjaa@math.com.mx MathCon c 007-009 Contenido. Espacios Vectoriales.. Idea Básica de Espacio Vectorial.................................

Más detalles

UNIDAD 2: ESPACIOS VECTORIALES

UNIDAD 2: ESPACIOS VECTORIALES UNIDAD 2: ESPACIOS VECTORIALES Introducción. Vectores. Adición de vectores. Propiedades. Multiplicación de un vector por un escalar. Propiedades. Módulo o norma de un vector. Vector unitario o versor.

Más detalles

APÉNDICE A. Algebra matricial

APÉNDICE A. Algebra matricial APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos

Más detalles

Matrices y Sistemas de Ecuaciones lineales

Matrices y Sistemas de Ecuaciones lineales Matrices y Sistemas de Ecuaciones lineales Llamaremos M m n (K) al conjunto de las matrices A = (a ij ) (i = 1, 2,..., m; j = 1, 2,..., n) donde los elementos a ij pertenecen a un cuerpo K. Las matrices,

Más detalles

Producto escalar. x y. x = x x y cos α =

Producto escalar. x y. x = x x y cos α = resumen06 1 Producto escalar Vectores ortogonales y proyecciones La definición matemática de producto escalar es bastante amplia porque recoge toda expresión bilineal que sirva razonablemente para medir

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

El espacio euclídeo El espacio vectorial R n. Definición. Conjunto de todas las n-uplas de números reales:

El espacio euclídeo El espacio vectorial R n. Definición. Conjunto de todas las n-uplas de números reales: Lección 1 El espacio euclídeo 1.1. El espacio vectorial R n Definición. Conjunto de todas las n-uplas de números reales: R n = {(x 1,x 2,...,x n ) : x 1,x 2,...,x n R} Nos interesan los casos n = 2 y n

Más detalles

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar Mínimos cuadrados Mayo de 2015. Ejemplos de introducción Observación preliminar Sean dos matrices A y B, por ejemplo a b A =, B = c d x z y t Las columnas de A representan los vectores u = (a; c) y v =

Más detalles

Capítulo 8: Vectores

Capítulo 8: Vectores Capítulo 8: Vectores 1. Lección 30. Operaciones con vectores 1.1. Vectores El concepto de vector aparece en Física para describir magnitudes, tales como la fuerza que actúa sobre un punto, en las que no

Más detalles

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4. 1 Tema 2. Sección 1. Espacio vectorial de Minkowski. Manuel Gutiérrez. Departamento de Álgebra, Geometría y Topología. Universidad de Málaga. 29071-Málaga. Spain. Abril de 2010. En este capítulo se recordará

Más detalles

1.2. Producto escalar, longitud y distancia

1.2. Producto escalar, longitud y distancia 22 Cálculo vectorial 27. Si PQR es un triángulo en el espacio y b > 0 es un número, existe un triángulo con lados paralelos a los de PQR y con longitudes b multiplicado por las longitudes de PQR. 28. Las

Más detalles

2.5 Ejercicios... 59

2.5 Ejercicios... 59 Índice General 1 Espacios vectoriales 1 1.1 Espacios vectoriales y subespacios......................... 1 1.1.1 Preliminares................................. 1 1.1.2 Espacios vectoriales.............................

Más detalles

Matemáticas. Álgebra lineal (parte final ampliada)

Matemáticas. Álgebra lineal (parte final ampliada) Master en Estadística e Investigación Operativa Matemáticas Álgebra lineal (parte final ampliada) Vera Sacristán Departament de Matemàtica Aplicada II Facultat de Matemàtiques i Estadística Universitat

Más detalles

TEMA 12.- RECTAS Y PLANOS EN EL ESPACIO. y una base de vectores de V cualquiera

TEMA 12.- RECTAS Y PLANOS EN EL ESPACIO. y una base de vectores de V cualquiera TEMA 12.- RECTAS Y PLANOS EN EL ESPACIO 1.- PUNTOS Y VECTORES. ESPACIO AFÍN y una base de vectores de V cualquiera {,, B = u1 u2 u} A cada punto del espacio, P, le asociamos el vector OP, que tendrá unas

Más detalles

Capítulo 2. Determinantes Introducción. Definiciones

Capítulo 2. Determinantes Introducción. Definiciones Capítulo 2 Determinantes 2.1. Introducción. Definiciones Si nos centramos en la resolución de un sistema A x = b con A una matriz n n, podemos calcular A 1 y la resolución es inmendiata. El problema es

Más detalles

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:

Más detalles

Clase 7 Herramientas de Álgebra Lineal

Clase 7 Herramientas de Álgebra Lineal Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es

Más detalles

Universidad Nacional de Colombia Departamento de Matemáticas Álgebra Lineal - Grupo 1 Resumen Unidad n 3

Universidad Nacional de Colombia Departamento de Matemáticas Álgebra Lineal - Grupo 1 Resumen Unidad n 3 Universidad Nacional de Colombia Departamento de Matemáticas 1000003-5 Álgebra Lineal - Grupo 1 Resumen Unidad n 3 Vectores en R n Definición. El conjunto de las n-tuplas ordenadas de números reales se

Más detalles

UNIDAD 1: ELEMENTOS ALGEBRAICOS 1B : VECTORES

UNIDAD 1: ELEMENTOS ALGEBRAICOS 1B : VECTORES UNIDAD 1: ELEMENTOS ALGEBRAICOS 1B : VECTORES Conceptos A partir de la identificación de puntos de la recta con números reales, se puede avanzar relacionando puntos del plano y del espacio con pares o

Más detalles

Algebra Lineal * Working draft: México, D.F., a 17 de noviembre de 2010.

Algebra Lineal * Working draft: México, D.F., a 17 de noviembre de 2010. Algebra Lineal * José de Jesús Ángel Ángel jjaa@mathcommx Working draft: México, DF, a 17 de noviembre de 2010 Un resumen de los principales temas tratados en un curso de Álgebra Lineal Contenido 1 Sistemas

Más detalles

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices

Álgebra Lineal. Tema 6. Transformaciones lineales y matrices Álgebra Lineal Tema 6. Transformaciones lineales y matrices Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S.

Más detalles

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R.

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R. FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R. PROGRAMA ANALÍTICO DE LA ASIGNATURA: ALGEBRA LINEAL Código L2.07.1 PLAN DE ESTUDIOS: 2002 CARRERA: Licenciatura en Matemática DEPARTAMENTO:

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Clase de Álgebra Lineal

Clase de Álgebra Lineal Clase de Álgebra Lineal M.Sc. Carlos Mario De Oro Facultad de Ciencias Básicas Departamento de matemáticas 04.2017 Page 1 Espacios vectoriales Definicion. Espacio Vectorial (E.V.) Un V espacio vectorial

Más detalles

Transformaciones lineales autoadjuntas (hermíticas)

Transformaciones lineales autoadjuntas (hermíticas) Transformaciones lineales autoadjuntas (hermíticas) Objetivos. Estudiar propiedades elementales de transformaciones lineales autoadjuntas. Demostrar que para toda transformación lineal autoadjunta en un

Más detalles

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1

Espacios Vectoriales Asturias: Red de Universidades Virtuales Iberoamericanas 1 Espacios Vectoriales 201 6Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Espacios Vectoriales... 4 1.1 Definición de espacio vectorial... 4 1.2 Definición de subespacio vectorial...

Más detalles

IES Fco Ayala de Granada Junio de 2016 (Modelo 2) Soluciones Germán-Jesús Rubio Luna. Opción A. a g(x)

IES Fco Ayala de Granada Junio de 2016 (Modelo 2) Soluciones Germán-Jesús Rubio Luna. Opción A. a g(x) IES Fco Ayala de Granada Junio de 06 (Modelo ) Soluciones Germán-Jesús Rubio Luna germanjss@gmailcom Opción A Ejercicio opción A, modelo Junio 06 ln( + ) - a sen() + cos(3) ['5 puntos] Sabiendo que lim

Más detalles

Tema 4: Espacio vectorial euclídeo

Tema 4: Espacio vectorial euclídeo Tema 4: Espacio vectorial euclídeo 1. Definición de producto escalar Un producto escalar en un R-espacio vectorial es una operación en la que se operan vectores y el resultado es un número real, y que

Más detalles

Diagonalización de matrices

Diagonalización de matrices 7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,

Más detalles

Unidad 5: Geometría analítica del plano.

Unidad 5: Geometría analítica del plano. Geometría analítica del plano 1 Unidad 5: Geometría analítica del plano. 1.- Vectores. Operaciones con vectores. Un vector fijo es un segmento entre dos puntos, A y B del plano, al que se le da una orientación

Más detalles

TEMA 1 Álgebra de matrices 4 sesiones. TEMA 2 Determinantes 4 sesiones. TEMA 3 Sistemas de ecuaciones 4 sesiones

TEMA 1 Álgebra de matrices 4 sesiones. TEMA 2 Determinantes 4 sesiones. TEMA 3 Sistemas de ecuaciones 4 sesiones 1.1. MATEMÁTICAS II TEMPORALIZACIÓN Y SECUENCIACIÓN: TEMA 1 Álgebra de matrices 4 sesiones TEMA 2 Determinantes 4 sesiones TEMA 3 Sistemas de ecuaciones 4 sesiones TEMA 4 Vectores en el espacio 4 sesiones

Más detalles

Ecuaciones de la recta en el espacio

Ecuaciones de la recta en el espacio Ecuaciones de la recta en el espacio Ecuación vectorial de la recta Sea P(x 1, y 1 ) es un punto de la recta r y uu su vector director, el vector PPXX tiene igual dirección que uu, luego es igual a uu

Más detalles

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes. Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES

Más detalles

Unidad 4: VECTORES EN EL ESPACIO

Unidad 4: VECTORES EN EL ESPACIO Unidad 4: VECTORES EN EL ESPACIO 4.1.- OPERACIONES CON VECTORES Las características de los vectores en el espacio, así como sus operaciones, son idénticas a las de los vectores del plano, que ya conoces

Más detalles

Autovalores y autovectores Diagonalización y formas canónicas

Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores.propiedades Sea V un espacio vectorial sobre K y f End(V ). Fijada una base de V, existirá una matriz cuadrada A,

Más detalles

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES Prof. Rafael López Camino Universidad de Granada 1 Matrices Definición 1.1 Una matriz (real) de n filas y m columnas es una expresión de la forma a 11...

Más detalles

Tema 11.- Autovalores y Autovectores.

Tema 11.- Autovalores y Autovectores. Álgebra 004-005 Ingenieros Industriales Departamento de Matemática Aplicada II Universidad de Sevilla Tema - Autovalores y Autovectores Definición, propiedades e interpretación geométrica La ecuación característica

Más detalles

Matrices y determinantes

Matrices y determinantes Matrices y determinantes 1 Ejemplo Cuál es el tamaño de las siguientes matrices? Cuál es el elemento a 21, b 23, c 42? 2 Tipos de matrices Matriz renglón o vector renglón Matriz columna o vector columna

Más detalles

TEMA 11.- VECTORES EN EL ESPACIO

TEMA 11.- VECTORES EN EL ESPACIO TEMA 11.- VECTORES EN EL ESPACIO 1.- INTRODUCCIÓN Un vector fijo AB del espacio (también lo era en el plano) es un segmento orientado que tiene su origen en un punto A y su extremo en otro punto B. Estos

Más detalles

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas PROPUESTA A 1A a) Calcula el valor de a R, a > 0, para que la función sea continua en x = 0. b) Calcula el límite 2A. Calcula las siguientes integrales (1 25 puntos por cada integral) Observación: El cambio

Más detalles

Sistemas de Ecuaciones Lineales. Matrices y determinantes.

Sistemas de Ecuaciones Lineales. Matrices y determinantes. Capítulo 3 Sistemas de Ecuaciones Lineales Matrices y determinantes 31 Sistemas de Ecuaciones Lineales El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación

Más detalles

Ba s e, d i M e n s i ó n y Mat r i z

Ba s e, d i M e n s i ó n y Mat r i z Unidad 4 Ba s e, d i M e n s i ó n y Mat r i z de transición Objetivos: Al inalizar la unidad, el alumno: Conocerá la deinición de base de un espacio vectorial Identiicará bases canónicas para algunos

Más detalles

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2

Más detalles

ALGEBRA. Escuela Politécnica Superior de Málaga

ALGEBRA. Escuela Politécnica Superior de Málaga ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.

Más detalles

Capítulo VI. Diferenciabilidad de funciones de varias variables

Capítulo VI. Diferenciabilidad de funciones de varias variables Capítulo VI Diferenciabilidad de funciones de varias variables La definición de diferenciabilidad para funciones el cociente no tiene sentido, puesto que no está definido, porque el cociente entre el vector

Más detalles

Aplicaciones Lineales. Diagonalización de matrices.

Aplicaciones Lineales. Diagonalización de matrices. Tema 2 Aplicaciones Lineales. Diagonalización de matrices. 2.1. Definiciones y propiedades Nota 2.1.1. En este tema trabajaremos con los Espacios Vectoriales R n y R m definidos sobre el cuerpo R. Definición

Más detalles

Problemas métricos. 1. Problemas afines y problemas métricos

Problemas métricos. 1. Problemas afines y problemas métricos . Problemas afines y problemas métricos Al trabajar en el espacio (o análogamente en el plano) se nos pueden presentar dos tipos de problemas con los elementos habituales (puntos, rectas y planos): Problemas

Más detalles

1 SISTEMAS DE ECUACIONES LINEALES. MÉTODO DE GAUSS

1 SISTEMAS DE ECUACIONES LINEALES. MÉTODO DE GAUSS 1 SISTEMAS DE ECUACIONES LINEALES. MÉTODO DE GAUSS 1.1 SISTEMAS DE ECUACIONES LINEALES Una ecuación lineal es una ecuación polinómica de grado 1, con una o varias incógnitas. Dos ecuaciones son equivalentes

Más detalles

MATRICES. Se simboliza tal matriz por y se le llamará una matriz x o matriz de orden x (que se lee por ).

MATRICES. Se simboliza tal matriz por y se le llamará una matriz x o matriz de orden x (que se lee por ). 1 MATRICES 1 Una matriz es una disposición rectangular de números (Reales); la forma general de una matriz con filas y columnas es Se simboliza tal matriz por y se le llamará una matriz x o matriz de orden

Más detalles