Métodos para matrices especiales. Descomposición de Cholesky

Documentos relacionados
Métodos para matrices especiales. Descomposición de Cholesky

MAT web:

SEL - Métodos Directos

SEL Métodos Directos

Resolución de Sistema de Ecuaciones Lineales

Uso de LS. Esta matriz de 3x3 simétrica y definida positiva es un tensor de difusión de hidrógeno. , con gi en R 3. i S 0 exp bgt i Dg i i

TEMA 4: Sistemas de ecuaciones lineales II

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Una matriz es un arreglo rectangular de elementos. Por ejemplo:

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Para resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones.

Matrices triangulares y descomposición LU

Métodos directos para resolver sistemas de ecuaciones lineales

Formas cuadráticas. Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza

ITERATIVOS Y DIRECTOS PARA SISTEMAS LINEALES. Ayudante: Rodrigo Torres Aguirre Ejercicios:

Sistemas de Ecuaciones. Lineales III

Lección 11. Eliminación Gaussiana con Pivoteo y Matrices de Banda

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Sistemas de Ecuaciones. Lineales II

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

MENORES, COFACTORES Y DETERMINANTES

Edgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL. Capítulo I. Matrices y solución de Ecuaciones lineales

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d

TAREA 1 ALGEBRA ING. AMBIENTAL UNIVERSIDAD DE CÒRDOBA Vanessa Aldana, Cristian Gonzales, María De La Ossa

Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

Instituto Tecnológico Autónomo de México. 1. At =..

Propiedades de los Determinantes

POLINOMIOS. (Versión Preliminar) Un polinomio en la variable x es una expresión de la forma. p(x) = a n x n + a n 1 x n

Universidad Nacional de Ingeniería Facultad de Ciencias. Física Computacional CC063. Algebra Lineal. Prof: J. Solano 2012-I

Método de mínimos cuadrados (Continuación)

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011

Solución de sistemas lineales

Factorización de matrices

Métodos directos de resolución de sistemas lineales

Integración Numérica. Regla de Simpson.

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:

Cálculo de autovalores

Factorización de rango completo y aplicaciones

1. Lección 3: Matrices y Determinantes

Universidad Nacional de Colombia Departamento de Matemáticas Álgebra Lineal - Grupo 01 Taller 1, E = 2 4

6.6. Diagonalización de matrices simétricas o hermitianas. Ejemplo de una diagonalización de una matriz simétrica

Matrices Invertibles y Elementos de Álgebra Matricial

Clase 7 Herramientas de Álgebra Lineal

c-inversa o inversa generalizada de Rao

Introducción a Matrices y Eliminación Gaussiana

Vectores y matrices. Problemas para examen

ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2

Resolución de sistemas de ecuaciones lineales

APÉNDICE A. Algebra matricial

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).

Algebra Lineal Tarea No 8: Propiedades de los determinantes Solución a algunos problemas de la tarea (al 29 de junio de 2014)

Resolución numérica de sistemas de ecuaciones. Introducción

SISTEMAS DE ECUACIONES LINEALES

MATEMÁTICA LIC. Y PROF. EN CS. BIOLÓGICAS

Elementos de Cálculo Numérico

Resolución numérica de sistemas de ecuaciones lineales

Resolución numérica de sistemas de ecuaciones. Introducción

Métodos Numéricos para Sistemas de Ecuaciones Lineales

Matemática Superior Aplicada Descomposición PLU

Matrices y determinantes

Espacios de una Matriz

Menor, cofactor y comatriz

Primero se triangulariza la matriz: Multiplicando la primera fila por (-1/3) y sumando a la segunda fila: ( ) ( )=( ) ( ) ( )

x^new = x^old + K(b new A new x^old )

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

Ecuaciones cuadráticas Resolver ecuaciones cuadráticas fórmula cuadrática y casos especiales

Cálculo Numérico. Curso Ejercicios: Preliminares I

Operaciones con matrices

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

Eigenvalores y eigenvectores

Algebra lineal Matrices

ALGEBRA y ALGEBRA LINEAL

3. SISTEMAS DE ECUACIONES LINEALES

Ecuaciones Ecuación cuadrática Ejercicios resueltos. x 2 8x + 15 = 0. x = 8 ± 4 2

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

Matriz A = Se denomina MATRIZ a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar

Estrategias de pivoteo

Matrices y sistemas de ecuaciones lineales

TEMA 7: MATRICES. OPERACIONES.

A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o

Inversas de las matrices triangulares superiores

Álgebra Lineal Ma1010

Matemáticas Discretas TC1003

ELIMINACIÓN GAUSSIANA

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Clase 8 Matrices Álgebra Lineal

Podemos pues formular los dos problemas anteriores en términos de matrices.

Valores y Vectores Propios

Sistemas de Ecuaciones Lineales y Matrices

Matrices Inversas. Rango Matrices Elementales

MATRICES. Jaime Garrido Oliver

Extremos Locales. Un punto x 0 es un punto crítico de f si Df(x 0 ) = 0. Un punto crítico que no es un extremo local se llama punto silla.

RESOLUCIÓN DE SISTEMAS LINEALES

Matrices 3. Matrices. Verónica Briceño V. agosto 2012

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES

Transcripción:

Métodos para matrices especiales. Descomposición de Cholesky MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT A.C. e-mail: joaquin@cimat.mx

Ventajas computacionales de las factorizaciones... en segundos

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?...

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?...

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?... Si hacemos una descomposición ( O(n 3 )), de tal forma que resolvemos el sistema Axi=bi para diferentes vectores bi.

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?... Si hacemos una descomposición ( O(n 3 )), de tal forma que resolvemos el sistema Axi=bi para diferentes vectores bi. Entonces la solución estará dada por el orden O(n 2 ) en lugar de O(n 3 ).

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?... Si hacemos una descomposición ( O(n 3 )), de tal forma que resolvemos el sistema Axi=bi para diferentes vectores bi. Entonces la solución estará dada por el orden O(n 2 ) en lugar de O(n 3 ). Para sistemas de tamaño, digamos de 1000x1000

Ventajas computacionales de las factorizaciones... en segundos donde se usan factorizaciones en la vida real?... Si hacemos una descomposición ( O(n 3 )), de tal forma que resolvemos el sistema Axi=bi para diferentes vectores bi. Entonces la solución estará dada por el orden O(n 2 ) en lugar de O(n 3 ). Para sistemas de tamaño, digamos de 1000x1000 1000 2 = 1,000,000 = 0.001 * 1,000,000,000 = 0.001 * 1,000 3

Matrices con diagonal estrictamente-dominante 2

Matrices con diagonal estrictamente-dominante La definición de una matriz cuadrada estrictamente diagonal-dominante es la siguiente: 2

Matrices con diagonal estrictamente-dominante La definición de una matriz cuadrada estrictamente diagonal-dominante es la siguiente: 2

Matrices con diagonal estrictamente-dominante La definición de una matriz cuadrada estrictamente diagonal-dominante es la siguiente: 2

Matrices con diagonal estrictamente-dominante La definición de una matriz cuadrada estrictamente diagonal-dominante es la siguiente: Nótese que dada una matriz estrictamente diagonal-dominante, su transpuesta no tiene por que serlo. 2

Matrices con diagonal estrictamente-dominante La definición de una matriz cuadrada estrictamente diagonal-dominante es la siguiente: Nótese que dada una matriz estrictamente diagonal-dominante, su transpuesta no tiene por que serlo. Una matriz estrictamente diagonal-dominante tiene inversa. Se puede aplicar eliminación Gaussiana sin necesidad de hacer intercambio de renglones, y los cálculos serán estables con respecto a los errores de redondeo. 2

Una matriz estrictamente diagonal-dominante tiene inversa, demostración: Prueba por contradicción: consideremos que es singular, entonces consideremos Ax=0, con solución x = (xi) que no es cero. Sea k un índice para el cual 0 < xk = max 1 j n xj.

Una matriz estrictamente diagonal-dominante tiene inversa, demostración: Prueba por contradicción: consideremos que es singular, entonces consideremos Ax=0, con solución x = (xi) que no es cero. Sea k un índice para el cual 0 < xk = max 1 j n xj.

Matrices definidas positivas Aquí trabajaremos con aquellas matrices cuadradas y simétricas tales que x T A x > 0 para todo vector x diferente de 0. Es decir que la matriz de tamaño 1x1 (escalar) resultante de la operación es positiva.

Matrices definidas positivas Aquí trabajaremos con aquellas matrices cuadradas y simétricas tales que x T A x > 0 para todo vector x diferente de 0. Ejemplo, una matriz positiva:

Matrices definidas positivas Aquí trabajaremos con aquellas matrices cuadradas y simétricas tales que x T A x > 0 para todo vector x diferente de 0. Ejemplo, una matriz positiva:

Matrices definidas positivas Aquí trabajaremos con aquellas matrices cuadradas y simétricas tales que x T A x > 0 para todo vector x diferente de 0. Ejemplo, una matriz positiva:

Matrices definidas positivas Aquí trabajaremos con aquellas matrices cuadradas y simétricas tales que x T A x > 0 para todo vector x diferente de 0. Ejemplo, una matriz positiva: A esta forma se le llama forma cuadrática asociada a la matriz.

Matrices definidas positivas Una matriz no positiva pero que es definida positiva

Matrices definidas positivas Una matriz no positiva pero que es definida positiva

Matrices definidas positivas Una matriz no positiva pero que es definida positiva La expresión solo puede ser cero cuando todos los xi son cero.

Matrices definidas positivas Las matrices positivas definidas aparecen mucho en problemas de CNyE, por ejemplo en las matrices de covarianza.

Matrices definida positiva

Matrices definida positiva Propiedades de estas matrices:

Matrices definida positiva Propiedades de estas matrices: A es no singular.

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva.

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa.

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa. Demostración: Para una i cualquiera, definamos x = (xk) por xi = 1 y xj = 0, si j i. Entonces x 0, por lo que 0 < x T Ax = aii.

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa. Demostración: Para una i cualquiera, definamos x = (xk) por xi = 1 y xj = 0, si j i. Entonces x 0, por lo que 0 < x T Ax = aii. max i k,j n akj max 1 i n aii

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa. Demostración: Para una i cualquiera, definamos x = (xk) por xi = 1 y xj = 0, si j i. Entonces x 0, por lo que 0 < x T Ax = aii. max i k,j n akj max 1 i n aii Demostración: Tarea.

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa. Demostración: Para una i cualquiera, definamos x = (xk) por xi = 1 y xj = 0, si j i. Entonces x 0, por lo que 0 < x T Ax = aii. max i k,j n akj max 1 i n aii Demostración: Tarea. aij 2 < aiiajj para cada i j

Matrices definida positiva Propiedades de estas matrices: A es no singular. Demostración por contradicción: Suponemos singularidad: Ax=0, para x diferente cero, entonces x T Ax =0, lo cual contradice que A es definida positiva. aii > 0 para toda i=1,...,n, por lo tanto la traza es no negativa. Demostración: Para una i cualquiera, definamos x = (xk) por xi = 1 y xj = 0, si j i. Entonces x 0, por lo que 0 < x T Ax = aii. max i k,j n akj max 1 i n aii Demostración: Tarea. aij 2 < aiiajj para cada i j Demostración: Tarea.

Matrices definida positiva Propiedades de estas matrices (2): Se puede aplicar eliminación Gaussiana si necesidad de intercambio de renglones. Se puede factorizar en la forma L L T, donde L es una matriz triangular inferior con entradas positivas en la diagonal. Se puede factorizar en la forma LDL T, donde L es una matriz triangular inferior con unos en la diagonal y D es una matriz diagonal con entradas positivas.

Descomposición (factorización) de Cholesky André-Louis Cholesky (15 de Octubre de 1875-31 de Agosto de 1918). Se factoriza A = L L T, donde L es una matriz triangular inferior con entradas positivas en la diagonal. La descomposición es única,

Descomposición (factorización) de Cholesky André-Louis Cholesky (15 de Octubre de 1875-31 de Agosto de 1918). Se factoriza A = L L T, donde L es una matriz triangular inferior con entradas positivas en la diagonal. La descomposición es única,

Descomposición (factorización) de Cholesky Algoritmo =... es simétrica...

Descomposición (factorización) de Cholesky =... es simétrica...

Descomposición (factorización) de Cholesky Es positivo =... es simétrica...

Descomposición (factorización) de Cholesky Es positivo =... es simétrica... De tal manera, que procedemos al cálculo columna por columna, y las entradas de L quedan como:

Descomposición (factorización) de Cholesky Es positivo =... es simétrica... De tal manera, que procedemos al cálculo columna por columna, y las entradas de L quedan como:

Descomposición (factorización) de Cholesky Es positivo =... es simétrica... De tal manera, que procedemos al cálculo columna por columna, y las entradas de L quedan como:

Descomposición (factorización) de Cholesky Es positivo =... es simétrica... De tal manera, que procedemos al cálculo columna por columna, y las entradas de L quedan como: para i > j

Descomposición (factorización) de Cholesky Es positivo =... es simétrica... De tal manera, que procedemos al cálculo columna por columna, y las entradas de L quedan como: para i > j

Una forma alternativa que evita calcular raices cuadradas

Una forma alternativa que evita calcular raices cuadradas De tal manera que L es una matriz triangular inferior con unos en la diagonal y D es una matriz diagonal con entradas positivas. multiplicando las matrices tenemos

Una forma alternativa que evita calcular raices cuadradas De tal manera que L es una matriz triangular inferior con unos en la diagonal y D es una matriz diagonal con entradas positivas. multiplicando las matrices tenemos... es simétrica...

Una forma alternativa que evita calcular raices cuadradas

Una forma alternativa que evita calcular raices cuadradas Quedando las entradas definidas como:

Una forma alternativa que evita calcular raices cuadradas Quedando las entradas definidas como:

Una forma alternativa que evita calcular raices cuadradas Quedando las entradas definidas como: De tal forma que, de nuevo, hacemos el cálculo columna por columna.

Relación entre las 2 factorizaciones Las 2 factorizaciones LL T y LDL T (nótese que son diferentes L s) se relacionan así:

Relación entre las 2 factorizaciones Las 2 factorizaciones LL T y LDL T (nótese que son diferentes L s) se relacionan así:

Solución del SEL dada la factorización LL T

Solución del SEL dada la factorización LL T Si tenemos Ax=b entonces usamos LL T x=b, primero hacemos y = L T x y solucionamos Ly=b con sustitución hacia adelante, con: Luego solucionamos para x el sistema L T x = y con sustitución hacia atrás.

Solución del SEL dada la factorización LL T Si tenemos Ax=b entonces usamos LL T x=b, primero hacemos y = L T x y solucionamos Ly=b con sustitución hacia adelante, con: Luego solucionamos para x el sistema L T x = y con sustitución hacia atrás.

Solución del SEL dada la factorización LDL T

Solución del SEL dada la factorización LDL T Si tenemos el sistema A x=b como LDL T x = b haciendo y = DL T x, y resolviendo para y el SEL Ly=b con sustitución hacia adelante.

Solución del SEL dada la factorización LDL T Si tenemos el sistema A x=b como LDL T x = b haciendo y = DL T x, y resolviendo para y el SEL Ly=b con sustitución hacia adelante. Luego usamos z = L T x de tal forma que resolvemos para z el SEL Dz=y. Pero D es diagonal, por lo que esto es muy fácil:

Solución del SEL dada la factorización LDL T Si tenemos el sistema A x=b como LDL T x = b haciendo y = DL T x, y resolviendo para y el SEL Ly=b con sustitución hacia adelante. Luego usamos z = L T x de tal forma que resolvemos para z el SEL Dz=y. Pero D es diagonal, por lo que esto es muy fácil:

Solución del SEL dada la factorización LDL T Si tenemos el sistema A x=b como LDL T x = b haciendo y = DL T x, y resolviendo para y el SEL Ly=b con sustitución hacia adelante. Luego usamos z = L T x de tal forma que resolvemos para z el SEL Dz=y. Pero D es diagonal, por lo que esto es muy fácil: Finalmente resolvemos L T x = z para x con sustitución hacia atrás y TERMINAMOS.

Solución del SEL dada la factorización LDL T Si tenemos el sistema A x=b como LDL T x = b haciendo y = DL T x, y resolviendo para y el SEL Ly=b con sustitución hacia adelante. Luego usamos z = L T x de tal forma que resolvemos para z el SEL Dz=y. Pero D es diagonal, por lo que esto es muy fácil: Finalmente resolvemos L T x = z para x con sustitución hacia atrás y TERMINAMOS.

Matrices bandadas Una matriz de tamaño n x n se dice que es bandada si existen los numeros p y q enteros 1 < p, q < n, tal que aij = 0 para todo p j- i ó q i - j p denota el número de diagonales arriba de la diagonal principal, incluyéndola. q denota el número de diagonales abajo de la diagonal principal, incluyéndola. Ejemplo con p = 3 y q = 2. El numero de diagonales es p+q-1.

Matrices tridiagonales Un grupo muy famoso son las tridiagonales, es decir con p=q=2