ANÁLISIS DE COMPONENTES PRINCIPALES
|
|
|
- Antonia Peralta Carrasco
- hace 7 años
- Vistas:
Transcripción
1 CAPÍTULO 4 ANÁLISIS DE COMPONENTES PRINCIPALES 4.1 Introducción Al investigar un fenómeno desconocido se pretende abordarlo con muestras de diferentes variables, en las cuales muchas veces existe una fuerte correlación; las relaciones se pueden interpretar como una medida del fenómeno bajo distintos puntos de vista. En un proceso estadístico que cuenta con un gran número de variables es difícil visualizar sus conexiones, al considerar muchas variables tendremos un número mayor de combinaciones representando los coeficientes de correlación. Es importante reducir el número de variables para desechar información redundante y optimizar el proceso. El Análisis de Componentes Principales ACP) propone la transformación a un nuevo conjunto sintético de variables los componentes principales), que no están correlacionados y se encuentran ordenados de tal forma que los primeros conservan la mayor parte de la variación presente en todas las variables originales. La técnica de ACP fue desarrollada por Pearson 1901) para luego ser retomada por Hotelling 1933) y posteriormente ser implementadas con el impulso de las computadoras. En éste capítulo presentamos el desarrollo de los componentes principales y su aplicación en el reconocimiento de imágenes. 44
2 4.2 Componentes Principales El análisis de componentes principales ACP) es una técnica estadística multivariante de simplificación, que permite transformar un conjunto de variables originales correlacionadas entre sí, en un conjunto sintético de variables no correlacionados denominados factores o componentes principales. En esta transformación no se establecen jerarquías entre variables y se elimina la información repetida Jolliffe, 1986). Las nuevas variables son combinaciones linealmente independientes de las variables originales, ordenadas de acuerdo a la representación de dispersión respecto a la nube total de información recogida en las muestras. Consideremos un grupo de variables, cada uno con el mismo número de muestras; cada variable registra información en un vector del mismo tamaño el cual, en forma matricial lo podemos representar de la siguiente manera: [ ] = 100% de información n =individuos p=variables La matriz X constituye la tabla de datos u observaciones, el arreglo de columnas y renglones en conjunto representan el 100% de la información. La comparación de dos individuos i y j es evaluada con la distancia euclidiana clásica entre: A partir de esta matriz calculamos un nuevo conjunto no correlacionados entre si, en la cual sus varianzas vayan decreciendo progresivamente. Cada elemento j=1,, p) representa una combinación lineal de las variables originales 45
3 donde [ ], es una matriz de constantes y representa el peso de las variables en cada componente; las componentes explican una parte de la varianza total, pretendiendo encontrar k componentes que representen casi toda la varianza de la nube de información. Condiciones para obtener el primer componente principal: 1. -Para mantener la ortonormalidad de la transformación se impone que: 2..-La varianza en el primer componente principal C1 sea máxima en la nube de datos. El primer componente principal representa la mayor varianza observada sujeta a cumplir la condición de ortonormalidad; el segundo componente principal se obtiene calculando los valores de de tal manera que y sean no correlacionados ortogonales). Del mismo modo se eligen los siguientes componentes cada uno con menor varianza que el anterior. 4.3 Obtención Analítica del Primer Componente Principal Consideremos una matriz de datos en desviaciones respecto a su media S; el primer componente principal viene dado por: [ ] [ ] [ ] donde es una variable estandarizada con respecto a su media. 46
4 Verificamos que: Utilizamos los multiplicadores de Lagrange para maximizar la función sujeta a las condiciones anteriores, donde es la incógnita que representa el vector con la combinación lineal óptima. Buscamos uno de los valores extremos para nuestro caso el máximo). Derivando 4.3 respecto a e igualando a cero tenemos: ) Resolviendo obtenemos p raíces características, donde el sistema tenga una solución distinta de cero la matriz representa la matriz identidad; para que ) tiene que ser singular, es decir, que su determinante debe ser igual a cero ). Tomando el máximo de los autovalores se obtiene el vector característico asociado, este vector brinda la mejor combinación lineal de las variables originales representando la mayor varianza; lo podemos 47
5 asociar al eje principal de la nube de datos en un nuevo sistema de referencia, es decir, que sobre se presenta la mayor distribución de los datos. Se cumple que: Para obtener la segunda componente realizamos lo siguiente: Condiciones Maximizamos la función sujeta a las condiciones con los operadores de Lagrange: derivando e igualando a cero para encontrar el máximo tenemos: Multiplicando por Como no expresa ninguna relación entre las variables entonces: 48
6 por los tanto De este modo y retomando la ecuación 4.5 tenemos: ) Aplicando el mismo razonamiento que el primer componente principal, los coeficientes del segundo componente principal, corresponde al segundo mayor autovalor ;de igual forma se procede para obtener los demás componentes; cada uno de los componentes se puede representar como el producto de una matriz formada por los autovectores multiplicada por el vector X que contiene las variables originales, de tal forma, que la matriz de covarianzas del nuevo conjunto optimizado tendrá valores diferentes de cero solo en su diagonal: [ ] Lo cual es de esperarse ya que ortogonal. no están correlacionadas formando un conjunto Tenemos que Por propiedades Esta expresión simplifica y reduce el número de operaciones a realizar. Por propiedades matriciales se reduce drásticamente el número de autovalores; por citar un ejemplo, de un conjunto de 40 imágenes cada una con pixeles, el conjunto de datos se puede representar con autovalores correspondientes a la cantidad de individuos, o de igual 49
7 manera el mismo conjunto se puede describir con 40 autovalores que describen la cantidad del variables. Cada auto valor correponde a la varianza de su respectiva componente autovalores obtenemos la varianza total de las componentes., sumando todos los Esto demuestra que la suma de las varianzas de las variables originales y la suma de las varianzas de los componentes principales son idénticas. La conservación de la varianza permite cuantificar en porcentaje la dispersión que recoge cada componente principal y del mismo modo, cuantificar el porcentaje acumulado de los primeros k componentes. donde se pretende que k<<p. Finalmente llegamos a la representación de un nuevo conjunto de variables sintético; cada componente constituye un porcentaje de la información total de la nube de información: X [ ] 80% 0.02% Aporte de información 50
8 Conociendo el aporte de cada componente principal, podemos decidir el número K de componentes a utilizar, que representen un porcentaje definido menor al 100%, reduciendo significativamente la cantidad de variables. En el capítulo 5 observamos que para una prueba con 40 variables originales, más del 90% de la información es concentrada en los primeros 20 componentes principales reduciendo el proceso de computo significativamente. El coeficiente de correlación entre un componente y una variable se calcula multiplicando el peso de la variable en ese componente por la raíz cuadrada de su valor propio Jolliffe, 1986). i=1,,p j=1,,k Estos coeficientes se denominan pesos o cargas factoriales representando la varianza respecto a cada variable. = = La matriz de cargas factoriales es de tamaño pxk, la suma horizontal del cuadrado de las cargas factoriales es parte de la dispersión total de la variable expuesta por el conjunto de k componentes, además, la suma de todos los factores contenidos en la matriz coindice con el porcentaje de dispersión definido por las k componentes, ajustando de igual manera, con la suma de los primeros k valores propios elegidos de un total de p componentes principales. 51
9 X3 C2 C3 C1 X1 X2 Figura 4.1 Representación gráfica de un conjunto de tres variables, la elipse representa la nube de información. Los componentes principales estarían representados por los ejes principales del elipsoide si fuesen tres variables) y el elipsoide conformaría la nube de observaciones. La magnitud de los eigenvalores corresponde a la varianza de los datos a lo largo de la dirección de su eigenvector correspondiente. 4.4 Reconocimiento de Imágenes Utilizando ACP Además del propósito de ACP de reducir la dimensiónalidad de los datos, otro de sus objetivos se enfoca a la predicción o reconocimiento de patrones; el método tiene grandes aplicaciones en la identificación de rostros y existe una gama de publicaciones en éste contexto. Podemos utilizar el mismo concepto y enfocarlo al reconocimiento de espectros de potencia wavelet; cada matriz que genera una imagen la reordenamos como un vector, tomamos sus eigenvalores y formamos un eigenespacio; el eigenespacio es calculado identificando los eigenvectores de la matriz de covarianzas derivado del grupo de espectros que consideramos comparten características similares precursoras o no precursoras. 52
10 N2 elementos Transformamos la imagen en un vector de tamaño [1xN]. Donde N=N1xN2 N1 elementos Figura 4.2 Descomposición de una imagen en un vector Supongamos que es un vector de tamaño Nx1 correspondiente al espectro de potencia wavelet; el propósito es conducirlo a un espacio de menor dimensión, de éste modo un conjunto de M espectros lo podemos representar como una matriz dónde el número de columnas son los M espectros de entrenamiento y el número de renglones son los elementos que conforman la imagen. Obtenemos el promedio del grupo de espectros Sustraemos el espectro promedio de cada elemento del grupo Obtenemos la matriz de covarianzas La matriz A es de tamaño NxM, observamos que la matriz C se encuentra definida con un gran número de elementos al resultar de tamaño NxN, donde N representa el total de elementos en cada espectro de potencia wavelet. 53
11 Podemos considerar la multiplicación que comparte los mismos eigenvectores que reduciendo significativamente el número de operaciones Turk y Pentland, 1991). Pre multiplicando por A sí Cada espectro en el conjunto puede ser representada como una combinación lineal de los mejores K eigenvectores. Donde son los eigenvectores, cada espectro es representado en esta base como un vector: [ ] Con la base generada podemos hacer el reconocimiento de espectros utilizando los eigenvectores; en base al mínimo error con un umbral definido) podemos determinar si pertenece o se aproxima al conjunto de espectros originales; el método simplemente determina qué clase de espectros proporcionan una mejor descripción a un espectro de entrada y encuentra los k espectros que minimizan la distancia Euclidiana: 54
12 Donde describe la contribución de cada eigenvector en representación de la imagen proyectada, en el caso de representa la base con k elementos de entrenamiento. La aplicación y los resultados de esta metodología son presentados en el siguiente capítulo, y es utilizada para corroborar las observaciones realizadas en los espectros de potencia wavelet. 55
Eigenvalores y eigenvectores
Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre
Análisis de Componentes Principales (ACP)
Sistemas de Visión en Manufactura Maestría en MIC, UDB Análisis de Componentes Principales (ACP) Presenta: Sergio Miguel García Pérez Enero de 2015 Introducción Cuando se recoge información de una muestra
Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )
MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Repaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
6.8. Descomposición mediante valores singulares. v 2 =
68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx
Formulación del problema de la ruta más corta en programación lineal
Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,
Correlación. El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r)
Correlación El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r) El coeficiente de correlación lineal de Pearson (r) permite medir el grado de asociación entre
Tema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
ANÁLISIS DE COMPONENTES PRINCIPALES
ANÁLISIS DE COMPONENTES PRINCIPALES INTRODUCCIÓN El objetivo principal de la mayoría de las técnicas numéricas de análisis multivariado, es reducir la dimensión de nuestros datos. Por supuesto, si esta
Matrices y determinantes
Matrices y determinantes 1 Ejemplo Cuál es el tamaño de las siguientes matrices? Cuál es el elemento a 21, b 23, c 42? 2 Tipos de matrices Matriz renglón o vector renglón Matriz columna o vector columna
Análisis en Componentes Principales
This is page i Printer: Opaque this Análisis en Componentes Principales Dr. Oldemar Rodríguez Rojas 29 de mayo de 2008 ii This is page iii Printer: Opaque this Contents. Análisis en Componentes Principales
Álgebra lineal Prof: Leonid Fridman
Álgebra lineal Prof: Leonid Fridman Vectores y subespacios lineales Vector: Un vector en Rn es una n-tupla de números reales Espacio lineal: Un conjunto no vacío L de elementos x, y, z, que satisface las
1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos
TEMA 10 (curso anterior): REGRESIÓN Y CORRELACIÓN 1 Conceptos de Regresión y Correlación 2 Variables aleatorias bidimensionales 3 Ajuste de una recta a una nube de puntos 4 El modelo de la correlación
CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA
1 CLASES DE ESTADÍSTICA II CLASE ) ESPERANZA ABSOLUTA. ESPERANZA CONDICIONAL. ESPERANZA ABSOLUTA El cálculo de valores esperados o esperanzas a nivel de dos variables aleatorias es una generalización matemática
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Reducción de la Dimensionalidad en Análisis de Datos. Análisis de Componentes Principales.
Reducción de la Dimensionalidad en Análisis de. Análisis de Componentes Principales. A. Jiménez, A. Murillo, E. Piza, M. Villalobos, J. Trejos. April 27, 2010 Contenido 1 Objetivo. 2 Solución. 3. Calidad
Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.
Tema 1: Matrices El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. 1. Terminología Comenzamos con la definición de matriz
Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
Técnicas de inteligencia artificial. Visión Artificial Reconocimiento de objetos
Técnicas de inteligencia artificial Visión Artificial Reconocimiento de objetos Indice Introducción Reconocimiento mediante características PCA Introducción El reconocimiento de objetos consiste en, dado
DETERMINANTES. 2. Resuelve el siguiente determinante aplicando la regla de Sarrus:
DETERMINNTES. Calcula el determinante de la siguiente matriz: 3 4 3 0..(3.0 2.0).0 0 0 3 4 0 0 3 Hemos sumado a la segunda fila la primera cambiada de signo. continuación hemos sumado a la tercera fila
UNIVERSIDAD TECNICA LUIS VARGAS TORRES Esmeraldas - Ecuador MATRICES Y VECTORES
UNIVERSIDAD TECNICA LUIS VARGAS TORRES Esmeraldas - Ecuador MATRICES Y VECTORES Facultad de Ingenierías y Tecnologías Ing. Paúl Viscaino Valencia DOCENTE OBJETIVO Interpretar y resolver los problemas básicos
Análisis de Correspondencias Simple
1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia
Materia: Matemática de 5to Tema: Método de Cramer. Marco Teórico
Materia: Matemática de 5to Tema: Método de Cramer Marco Teórico El determinante se define de una manera aparentemente arbitraria, sin embargo, cuando se mira a la solución general de una matriz, el razonamiento
Conferencia clase. Al desacoplar las ecuaciones se tiene. Sistemas de ecuaciones diferenciales lineales usando álgebra lineal
Conferencia clase Al desacoplar las ecuaciones se tiene stemas de ecuaciones diferenciales lineales usando álgebra lineal Contenido. 1. stemas de ecuaciones diferenciales de primer orden. 2. Forma matricial
Valores y vectores propios
Valores y vectores propios Departamento de Matemáticas, CCIR/ITESM 4 de enero de 20 Índice 8.. Definición de valor y vector propio.................................. 8.2. Determinación de los valores propios.................................
Espacios de una Matriz
Espacios de una Matriz Departamento de Matemáticas, CSI/ITESM 31 de enero de 2008 Índice 4.1. Espacios de una Matriz........................................ 1 4.2. Espacios Lineales............................................
1, 2, 2, 3, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 2, 1, 1, 4, 1
8 Estadística 81 Distribuciones unidimensionales Tablas de frecuencias En este tema nos ocuparemos del tratamiento de datos estadísticos uestro objeto de estudio será pues el valor de una cierta variable
Diagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).
Ejemplo 19: Demuestre que la matriz A es invertible y escríbala como un producto de matrices elementales. Solución: Para resolver el problema, se reduce A a I y se registran las operaciones elementales
Solución de problemas I 1
Universidad Autónoma de Madrid Álgebra II. Físicas. Curso 5 6 Solución de problemas I Álgebra II Curso 5-6. Proyecciones en el producto escalar estándar Ejercicio 7.7. (a) Dada la ecuación x + y z, dar
PROPUESTA A., se pide: a) Calcula las asíntotas verticales y oblicuas de f(x). (1,25 puntos)
PROPUEST. Dada la función f ( ), se pide: a) Calcula las asíntotas verticales y oblicuas de f(). (, puntos) b) Coordenadas de los máimos y mínimos relativos de f(). (, puntos). Calcula las siguientes integrales:
ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.
ANEXO 1. CONCEPTOS BÁSICOS Este anexo contiene información que complementa el entendimiento de la tesis presentada. Aquí se exponen técnicas de cálculo que son utilizados en los procedimientos de los modelos
Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales. Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales de la forma:
Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales 1era evaluación. Sistemas de Ecuaciones Lineales 1) SISTEMAS DE ECUACIONES LINEALES Un sistema de ecuaciones lineales es un conjunto de ecuaciones
transformaciones globales lección 12 transformaciones globales Teledetección Dpto. de Ingeniería Cartográfica Carlos Pinilla Ruiz
transformaciones globales lección sumario Introducción. Análisis de componentes principales. Transformación tasseled cap. Índices de vegetación. introducción 3 Las generan nuevas imágenes a partir de la
6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia
Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Estudio de Caso: Estudio Morfología Coeficiente de Correlación Considere el archivo Estudio Morfología.sav.
Análisis de componentes principales. a.k.a.: PCA Principal components analysis
Análisis de componentes principales a.k.a.: PCA Principal components analysis 1 Outline Motivación Derivación Ejemplos 2 Motivación general Tenemos un dataset X con n datos y p dimensiones, centrado (medias
ÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando
ÁLGEBRA LINEAL EXAMEN FINAL 8 de Enero de Apellidos y Nombre: Duración del examen: 3 horas Publicación de notas: enero Revisión de Examen: feb Ejercicio. ( puntos a (, puntos Estudia si la siguiente afirmación
MODELACION EN VARIABLES DE ESTADO
CAPÍTULO VIII INGENIERÍA DE SISTEMAS I MODELACION EN VARIABLES DE ESTADO 8.1. DEFINICIONES Estado: El estado de un sistema dinámico es el conjunto más pequeño de variables de modo que el conocimiento de
Transformadas de la imagen
Transformadas de la imagen Digital Image Processing, Gonzalez, Woods, Addison Wesley, ch 3 Transformadas de la imagen 1 Transformada de Fourier en el caso continuo Transformada de Fourier de una funcion
Uso de LS. Esta matriz de 3x3 simétrica y definida positiva es un tensor de difusión de hidrógeno. , con gi en R 3. i S 0 exp bgt i Dg i i
Uso de LS MX 2 min S, con gi en R 3 i S 0 exp bgt i Dg i i Esta matriz de 3x3 simétrica y definida positiva es un tensor de difusión de hidrógeno. En cada posición del cerebro tenemos una matriz Tractografía
Conjuntos de Vectores y Matrices Ortogonales
Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................
2.5 Dependencia Lineal, Independencia Lineal, Wronskiano 74
.5 Dependencia Lineal, Independencia Lineal, Wronskiano 74.5 Dependencia Lineal, Independencia Lineal, Wronskiano Dependencia Lineal Definición.5. Se dice que un conjunto de funciones f, f,... fn ( ) es
Análisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid [email protected] Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
Universidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL
Universidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL OBJETIVO Analizar las Diferentes formas de Describir la Relación entre dos variables numéricas Trazar un diagrama de dispersión
ANÁLISIS DE COMPONENTES PRINCIPALES
ANÁLISIS DE COMPONENTES PRINCIPALES INTRODUCCIÓN El objetivo principal de la mayoría de las técnicas numéricas de análisis multivariado, es reducir la dimensión de nuestros datos. Por supuesto, si esta
DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES
ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas
El análisis de correspondencias. Ana María López Jiménez Dept. Psicología Experimental (USE)
El análisis de correspondencias Ana María López Jiménez Dept. Psicología Experimental (USE) 4. El análisis de correspondencias 4.. Introducción 4.2. Tabla de correspondencias 4.3. Dependencia e independencia
Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5
DETERMINANTES Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno
AP = A p 1 p 2 p n = Ap 1 Ap 2. λ 1 p 21 λ 2 p 22 λ n p 2n. .. = λ 1 p 1 λ 2 p 2
Capítulo 6 Diagonalización 6 Valores y vectores propios 6 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V, nos planteamos el problema
PRÁCTICA No. 4 OBTENCIÓN DEL POLINOMIO CARACTERÍSTICO, EIGENVALORES Y EIGENVECTORES DE UNA MATRIZ
PRÁCTICA No. 4 OBTENCIÓN DEL POLINOMIO CARACTERÍSTICO, EIGENVALORES Y OBJETIVO EDUCACIONAL EIGENVECTORES DE UNA MATRIZ El alumno aprenderá a obtener el polinomio característica, los eigenvalores (valores
MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
MATRICES Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento
Distribuciones Bidimensionales.
Distribuciones Bidimensionales. 1.- Variables Estadísticas Bidimensionales. Las variables estadísticas bidimensionales se representan por el par (X, Y) donde, X es una variable unidimensional, e Y es otra
Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.
Tema 1: Matrices El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico. 1. Terminología Comenzamos con la definición de matriz
Sistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
MEDIDAS. Error accidental. Error Sistemático. Cantidad de la magnitud A. Número, MEDIDA. Cantidad de la magnitud A tomada como referencia.
MEDIDAS Cantidad de la magnitud A Número, MEDIDA Cantidad de la magnitud A tomada como referencia. UNIDAD Las mediciones no son perfectas. Llevan asociadas un determinado error, una incertidumbre. Los
Semana 11 Matrices y vectores - Sistemas de EDOs - Modelica. Elizabeth Villota Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería
Matemáticas Aplicadas MA101 Semana 11 Matrices y vectores - Sistemas de EDOs - Modelica Elizabeth Villota Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Matrices y vectores Sean dos
Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.
Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES
Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.
Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede
Análisis de componentes principales
Capítulo 2 Análisis de componentes principales 2.1. Teoría Sea X una muestra de datos (de la variable/población x N ( µ, Σ)) donde el elemento x ij corresponde al individuo i y a la variable continua j
UNIDAD I: SISTEMAS DE DOS ECUACIONES CON DOS INCÓGNITAS
UNIDAD I: SISTEMAS DE DOS ECUACIONES CON DOS INCÓGNITAS Sistemas de dos ecuaciones con dos incógnitas. Método de igualación. Método de reducción. Método de sustitución Método de eliminación Gaussiana.
Matrices, determinantes y sistemas de ecuaciones lineales
Matrices, determinantes y sistemas de ecuaciones lineales David Ariza-Ruiz 10 de octubre de 2012 1 Matrices Una matriz es una tabla numérica rectangular de m filas y n columnas dispuesta de la siguiente
Regresión lineal
86 Bioestadística: Métodos y Aplicaciones coeficiente de determinación de la regresión de Y sobre X, R 2 Y X, como R 2 Y X = 1 S2 E S 2 Y (3.4) Si el ajuste de Y mediante la curva de regresión Ŷ = f(x)
APÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
Algebra lineal y conjuntos convexos
Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar
PROBLEMAS DE ÁLGEBRA LINEAL INGENIERÍA DE TELECOMUNICACIONES - E.T.S.I.T. CURSO 2005/06
PROBLEMAS DE ÁLGEBRA LINEAL INGENIERÍA DE TELECOMUNICACIONES - E.T.S.I.T. CURSO 200/06 1. Utilizar el método de eliminación de Gauss para resolver el sistema de ecuaciones lineales siguiente: 2 x 1 2 x
Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema
MATRICES DETERMINANTES
MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de
Unidad 4 Espacios vectoriales. Aplicaciones lineales
Unidad 4 Espacios vectoriales. Aplicaciones lineales PÁGINA 8 SOLUCIONES. La solución queda: Operando los vectores e igualando los vectores resultantes, obtenemos:. La solución queda: Sean los polinomios
Tema 2: Determinantes
Tema 2: Determinantes 1. Introducción En este tema vamos a asignar a cada matriz cuadrada de orden, un número real que llamaremos su determinante y escribiremos. Vamos a ver cómo se calcula. Consideremos
Análisis factorial. 1. Introducción. Eliseo Martínez H.
Análisis factorial Eliseo Martínez H 1 Introducción En esta sección necesitaremos fuertes herramientas estadísticas Observe que hasta ahora, en los métodos de análisis multivariante que hemos utilizado
Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
Matrices 1 Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se
INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 4)
OBJETIVOS DE APRENDIZAJE: TEMA Nº ANÁLISIS CONJUNTO DE DOS VARIABLES Distinguir entre variables cualitativas y cuantitativas, y saber elegir los métodos en cada caso. Conocer métodos gráficos y cuantitativos
Caso 17. Análisis multivariante: reducción de datos por componentes principales.
Caso 17: reducción por componentes principales 115 Caso 17. Análisis multivariante: reducción de datos por componentes principales. (JESÚS LÓPEZ FIDALGO, UCLM) CASO PRÁCTICO Se dispone de 15 variables
Solución de sistemas de ecuaciones lineales: Descomposición LU
Solución de sistemas de ecuaciones lineales: Descomposición LU Ing. Jesús Javier Cortés Rosas M. en A. Miguel Eduardo González Cárdenas M. en A. Víctor D. Pinilla Morán Facultad de Ingeniería, UNAM * 2006
Si u y v son vectores cualquiera en W, entonces u + v esta en W. Si c es cualquier numero real y u es cualquier vector en W, entonces cu esta en W.
Unidad 4 Espacios vectoriales reales 4.1 Subespacios Si V es un espacio vectorial y W un subconjunto no vacío de V. Entonces W es un subespacio de V si se cumplen las siguientes condiciones Si u y v son
Clase 7 Herramientas de Álgebra Lineal
Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es
Tema 21. Exponencial de una matriz Formas canónicas de Jordan.
Tema 21 Exponencial de una matriz En este tema vamos a definir y calcular la exponencial de una matriz cuadrada mediante una expresión formalmente análoga al desarrollo en serie de potencias de la exponencial
Si A es una matriz cuadrada n x n, tal que A 2 = A, e I es la matriz unidad ( n x n ), qué matriz es B 2, si B = 2ª - I?
MATRICES Si A es una matriz cuadrada n x n, tal que A 2 = A, e I es la matriz unidad ( n x n ), qué matriz es B 2, si B = 2ª - I? La multiplicación de matrices cuadradas, tiene la propiedad conmutativa?
Semana 10 Matrices y vectores - Sistemas de EDOs
Matemáticas Aplicadas MA101 Semana 10 Matrices y vectores - Sistemas de EDOs Elizabeth Villota Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Matrices y vectores Sean dos EDOs lineales
PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas
PROPUESTA A 1A a) Calcula el valor de a R, a > 0, para que la función sea continua en x = 0. b) Calcula el límite 2A. Calcula las siguientes integrales (1 25 puntos por cada integral) Observación: El cambio
