Matriz inversa generalizada y descomposición del valor singular

Documentos relacionados
Valores singulares. Producto escalar y ortogonalidad. Proposición. Curso < x, y >= si F = C. Si x C n x i=1

6.8. Descomposición mediante valores singulares. v 2 =

Clase 7 Herramientas de Álgebra Lineal

Matrices de Proyección

Bases ortogonales. Profesores Omar Darío Saldarriaga Ortíz. Hernán Giraldo

Matemáticas. Álgebra lineal (parte final ampliada)

c-inversa o inversa generalizada de Rao

Descomposición en valores singulares de una matriz

Factorización de matrices

x, y = x 0 y 0 + x 1 y 1 + x 2 y 2 + x 3 y 3. Es fácil ver que verifica 1. Es simétrica. x, y = y, x para todo x, y R 4.

Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.

Una revisión de la inversa core EP D.E. FERREYRA, F.E. LEVIS, N. THOME

Sobre el Teorema de Burnside para Anillos de Matrices. On Burnside Theorem for Matrix Rings

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

!MATRICES INVERTIBLES

Algebra Lineal * Working draft: México, D.F., a 17 de noviembre de 2010.

Inversión de Matrices

APÉNDICE A. Algebra matricial

Clase 8 Matrices Álgebra Lineal

102 EJERCICIOS DE ALGEBRA LINEAL por Francisco Rivero Mendoza Ph.D.

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Algebra lineal Matrices

SISTEMAS DE ECUACIONES LINEALES Y MATRICES

7 Aplicaciones ortogonales

Espacios vectoriales reales.

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

TEMA V. Pues bien, a estas caracterizaciones de los sistemas de ecuaciones lineales se las llamó matrices. En el caso del sistema considerado tenemos:

Algebra Lineal Aplicada para Modelos Lineales

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Propiedades de los Determinantes

Transformaciones lineales autoadjuntas (hermíticas)

1. Problema clásico de EDO

ALN - SVD. In. Co. Facultad de Ingeniería Universidad de la República

ESPACIOS VECTORIALES Y APLICACIONES LINEALES

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

Definición: Dos matrices A y B son iguales si tienen el mismo orden y coinciden los elementos que ocupan el mismo lugar.

TRANSFORMACIONES LINEALES 1. TRANSFORMACIONES NÚCLEO E IMAGEN

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

La importancia de las factorizaciones matriciales no negativas en la minería de datos y el procesamiento de

Tema 3.- Sistemas de ecuaciones lineales incompatibles. Sistemas compatibles e indeterminados.

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).

Descomposición en Valores singulares(svd)

Tema 2: Diagonalización

Producto escalar. x y. x = x x y cos α =

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Factorización de rango completo y aplicaciones

2 Espacios vectoriales

Álgebra Lineal Ma1010

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

Proyección ortogonal y mínimos cuadrados

Matrices triangulares y descomposición LU

PROGRAMA INSTRUCCIONAL

Tema 11.- Autovalores y Autovectores.

Bases y dimensión. Problemas teóricos. En todos los problemas se supone que V es un espacio vectorial sobre un campo F. p=1

DOCENTE: JESÚS E. BARRIOS P.

Tema 4: Matrices y Determinantes. Algunas Notas sobre Matrices y Determinantes. Álgebra Lineal. Curso

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R.

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

PROGRAMA DE CURSO. Resultados de Aprendizaje

Algebra Lineal XIX: Rango de una Matriz y Matriz Inversa.

Departamento de Ingeniería Matemática - Universidad de Chile

1 Vectores de R n. Tema 1. Álgebra matricial. 1.2 Dependencia lineal

Álgebra lineal y Geometría II. Métricas y formas cuadráticas. 1. La matriz de la métrica T 2 ((x, y, z), (x, y, z )) = xx + yy + 3zz 2xz 2zx es:

Espacios de una Matriz

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Ejercicios de Álgebra Lineal Parcial 1

Un subconjunto no vacío H de un espacio vectorial V es un subespacio de V si se cumplen las dos reglas de cerradura:

ax + by = 1 cx + dy = 0

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Matrices Inversas. Rango Matrices Elementales

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso

Lección 8. Matrices y Sistemas de Ecuaciones Lineales

Algebra lineal y conjuntos convexos 1

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES

Sistemas Lineales y Matrices

Tema 3: Espacios vectoriales

PROGRAMA INSTRUCCIONAL ÁLGEBRA LINEAL

Álgebra Lineal Ivan D. Molina N. Universidad del Norte Enero del 2016 Ivan D. Molina N. (Universidad del Norte) Álgebra Lineal Enero del / 26

Álgebra lineal y matricial

Matrices, Determinantes y Sistemas Lineales.

Álgebra y Matemática Discreta

Matemáticas Discretas TC1003

Clase de Álgebra Lineal

PROGRAMA ANALÍTICO. I. Objetivos El alumno deberá: II. Contenidos del Programa Analítico. Año 2017

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

Ba s e, d i M e n s i ó n y Mat r i z

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.

Enrique Vílchez Quesada Escuela de Matemática Universidad Nacional

Álgebra Lineal Capítulo 11. Tópicos Especiales y Aplicaciones Producto tensorial de espacios vectoriales y matrices

MATRICES OPERACIONES BÁSICAS CON MATRICES

ESPACIOS VECTORIALES

Preparaduría V. 1.- Sea A una matriz diagonal n n cuyo polinomio característico es

58 7. ESPACIOS COCIENTE

Transcripción:

Matriz inversa generalizada y descomposición del valor singular Divulgación Fernando Velasco Luna y Jesús Hernández Suárez Laboratorio de Investigación y Asesoría Estadística, Facultad de Estadística e Informática, Universidad Veracruzana, Av. Xalapa esq. Av. Xalapa, Veracruz. fvelasco@uv.mx jeshernandez@uv.mx Ávila Camacho s/n, recibido: abril de aceptado: septiembre de resumen La descomposición de una matriz en valores singulares tiene múltiples aplicaciones en la teoría estadística, así como la matriz inversa generalizada. En este trabajo se presenta la definición de la matriz inversa generalizada. La teoría de la descomposición del valor singular de una matriz. Finalmente se presenta una caracterización de la matriz inversa generalizada en términos de la descomposición del valor singular.. Introducción En la teoría estadística son de gran utilidad las diversas descomposiciones que tiene una matriz, por ejemplo la descomposición QR, la descomposión de Schur. La descomposición de una matriz en valores singulares tiene múltiples aplicaciones en la teoría estadística, así como la matriz inversa generalizada. En la sección de este trabajo se presenta la definición de la matriz

F. VELASCO LUNA Y J. HERNÁNDEZ SUÁREZ inversa generalizada y su principal objetivo. La teoría de la descomposición del valor singular de una matriz se presenta en la sección. Finalmente se presenta una caracterización de la matriz inversa generalizada de una matriz A en términos de la descomposición del valor singular de tal matriz.. G-inversa de una matriz Consideremos la solución de un sistema de ecuaciones lineales consistente Ax = y, donde A es una matriz m n de rango r mín(m, n). Si las dimensiones de la matriz coinciden, así como su rango, es decir, si m = n = r, entonces existe una única solución del sistema Ax = y, la cual está dada por x = A y, donde A es la matriz inversa de A. Sin embargo, cuando A es rectangular o cuadrada singular, una representación simple de una solución del sistema Ax = y en términos de A es más complicada. Brevemente hablando, una matriz inversa generalizada de A es una matriz A tal que A y es una solución del sistema Ax = y para cualquier y que hace al sistema consistente. Definición.. Sea A una matriz de orden m n de rango r mín(m, n). La matriz A es llamada una matriz inversa generalizada (g-inversa) de la matriz A si se cumple la siguiente condición AA A = A Teorema.. Sea A cualquier matriz, siempre existe una matriz A la cual es una g-inversa de A. Demostración: Sea A una matriz m n de rango r mín(m, n); así, tenemos la existencia de dos matrices invertibles T y S tales que ( ) Ir = TAS. (.) Definamos por ( ) Ir R =

MATRIZ INVERSA GENERALIZADA y por ( ) Ir R D =, D D donde D, D y D son matrices cualesquiera de orden adecuado. Se tiene que la matriz R es una matriz g-inversa de la matriz R. Ahora por (.) se tiene que R = TAS y por ser las matrices T y S invertibles tenemos que A = T RS. Definiendo A = SR T, se tiene que la matriz A es una matriz g-inversa de la matriz A, como se puede ver: AA A = T RS SR TT RS = T RR RS = T RS = A. En la teoría general de matrices g-inversas, el objetivo principal es encontrar expresiones para las soluciones de sistemas de ecuaciones consistentes. El siguiente resultado nos da la relación existente entre la solución de sistemas de ecuaciones consistentes del tipo Ax = y y las matrices g-inversas de la matriz A. Lema.. La matriz A es una g-inversa de la matriz A, si y sólo si A y es una solución del sistema Ax = y para cualquier y la cual hace al sistema consistente. Demostración: Supóngase que A es una matriz g-inversa de la matriz A. or hipótesis, el sistema Ax = y es un sistema consistente; así, existe x tal que Ax = y. Ahora tenemos A(A y) = AA (y) = AA (Ax) = AA A(x) = Ax = y; así, A y es una solución del sistema consistente Ax = y. Denotando por a i al i-ésimo vector columna de la matriz A, se tiene que el sistema Ax = a i es un sistema consistente; así, por hipótesis, se tiene que A a i es una solución de Ax = a i, es decir, AA a i = a i, lo anterior se cumple para todos los vectores columna de la matriz A; así, tenemos AA A = A. Observación.. La matriz A es una g-inversa de la matriz A, si y sólo si ya es una solución del sistema xa = y para cualquier y, la cual hace al sistema consistente. or el lema anterior, una forma de encontrar expresiones para las soluciones de sistemas de ecuaciones lineales consistentes, Ax = y, es encontrando una matriz g-inversa de la matriz A.

F. VELASCO LUNA Y J. HERNÁNDEZ SUÁREZ. Descomposición del valor singular Definición.. Sea B una matriz de orden m m. Un valor propio de la matriz B es un escalar d, para el que existe un vector x distinto de cero tal que Bx = dx. Sea d un valor propio de la matriz B. Un vector propio de la matriz B es un vector x distinto de cero tal que Bx = dx, y éste se denomina vector propio asociado al valor propio d. Sea A una matriz de orden m n. Se tiene que la matriz AA t es de orden m m y la matriz A t A es de orden n n. Teorema.. (Descomposición en valores singulares.) Sea A una matriz real de orden m n. a) Existen una matriz ortogonal U de orden m m, una matriz ortogonal V de orden n n y una matriz diagonal D = diag(σ, σ,..., σ s ), con σ i, siendo σ σ σ s, donde s = mín{m, n}, tal que es valida la descomposición en valores singulares, i.e., A = UDV t. b) Los números σi conforman los valores propios de AA t (quizás agregándole algunos ceros), y los vectores propios asociados son las columnas v i de V; igualmente, las σi conforman los valores propios de A t A (quizás agregándole algunos ceros), y los vectores propios asociados son las columnas u i de U. Las σ i se llaman los valores singulares de A, los vectores u i se llaman los vectores singulares izquierdos de A y los vectores v i se denominan los vectores singulares derechos de A que se relacionan por Av i = σ u i, para i s. Demostración: Véase Noble y Daniel (, p. ). Denotando por S c (A) al subespacio generado por los vectores columna de la matriz A: Teorema.. (Rango y valores singulares.) Sea A una matriz de orden m n, entonces a) El rango de A es igual al número de valores singulares de A distintos de cero; b) Los primeros k vectores singulares izquierdos u, u,..., u k forman una base ortonormal para el espacio columna S c (A). Demostración: Véase Noble y Daniel (, p. ).

MATRIZ INVERSA GENERALIZADA De los teoremas. y. se tiene el siguiente resultado: Sea A una matriz de orden m n de rango r mín(m, n) y sean d, d,..., d r las raíces cuadradas positivas de los valores propios distintos de cero de la matriz A t A. Además, sean C = [C, C ] y V = [V, V ] las matrices m m y n n conteniendo los vectores propios de AA t y de A t A, respectivamente. Las submatrices C y V corresponden a los valores propios distintos de cero d, d,..., d r y son de orden m r y n r, respectivamente. Entonces la descomposición del valor singular de la matriz A es igual a A = C DV t, (.) con D = diag(d, d,..., d r ).. Representación Las matrices C y V de la descomposición en valores singulares de la matriz A tienen la propiedad de que C t C = CC t = I m y VV = VV = I n. Sea M una matriz de orden n m la cual es particionada como M = [ ] M M M M con M de orden r r, M de orden r (m r), M de orden (n r) r y M de orden (n r) (m r). A partir de la matriz M, y tomando las matrices V y C, se puede formar la matriz producto VMC t. Definiendo se tiene [ C t ] A = [V, V ]M, C t [ ] [ M A M C t ] = [V, V ] M M C t ; desarrollando el producto de matrices se obtiene A = V M C t + V M Ct + V M Ct + V M Ct. (.) Las submatrices C, C, V y V cumplen V t V = I r, Vt V = I n r, Ct C = I r, Ct C = I m r

F. VELASCO LUNA Y J. HERNÁNDEZ SUÁREZ y V t V = rx(n r), Ct C = rx(m r). or definición A es una inversa generalizada de A si se cumple AA A = A. Desarrollando el producto AA, se tiene, de (.) y (.), que AA = (C DV t )(V M Ct + V M Ct + V M Ct + V M Ct ) = C DV t V M Ct + C DVt V M Ct + C DV t V M Ct + C DVt V M Ct = C DI r M C t + C DI r M Ct + C DM Ct + C DM Ct = C DM C t + C DM Ct ; así, se tiene AA = C DM C t +C DM Ct. Ahora el producto AA A toma la forma AA A = (C DM C t + C DM Ct )(C DVt ) = C DM C t C DVt + C DM Ct C DVt = C DM I r DV t + C DM DVt = C DM DV t ; así, AA A = C DM DV t, de donde se tiene que para que A sea una inversa generalizada de la matriz A es necesario y suficiente que M = D. La caracterización de una inversa generalizada de la matriz en términos de la descomposición en valores singulares de la matrix A, A = C DV t esta dada por: A = V D C t + V M Ct + V M Ct + V M Ct, donde las matrices M, M y M son arbitrarias, con la única restricción en el orden de éstas con M de orden r (m r), M de orden (n r) r y M de orden (n r) (m r).. Referencias [] Noble, Ben, y James W. Daniel, Álgebra lineal aplicada, rentice Hall Hispanoamericana,. [] Halmos,.R., Finite-Dimensional Vector Spaces, segunda edición, Van Nostrand, rinceton, Nueva Jersey,.

MATRIZ INVERSA GENERALIZADA [] Hoffman, K., y K. Kunze, Álgebra lineal, rentice Hall Hispanoamericana,. [] Rao, O.R., y S.K. Mitra, Generalized Inverse of Matrices and its Applications, John Wiley, Nueva York,.