Análisis de componentes principales
|
|
|
- Isabel Díaz Medina
- hace 7 años
- Vistas:
Transcripción
1 Capítulo 2 Análisis de componentes principales 2.1. Teoría Sea X una muestra de datos (de la variable/población x N ( µ, Σ)) donde el elemento x ij corresponde al individuo i y a la variable continua j (i {1,..., n}, j {1,..., p}). Sea Σ la matriz p p de covarianzas de X (en rigor, sería la estimación máximo-verosímil de la Σ antes mencionada) Objetivo Nuestro objetivo es explicar el comportamiento conjunto de muchas variables a partir de unas pocas: reducción dimensional. Por comportamiento entendemos la variabilidad, medida mediante la varianza. El análisis de componentes principales pretende hallar direcciones ortogonales (y, por tanto, linealmente independientes, luego estadísticamente independientes si hay gausianidad) en las que se maximice la varianza de X Primera componente principal Sea a R p. Pretendemos que y 1 := a ( x µ) (primera componente principal) tenga varianza máxima. Trabajaremos con variables centradas (con esperanza nula: E [y 1 ] = 0) porque nos simplifican la notación y el tratamiento. Por las propiedades de la varianza, máx Var [y 1 ] = máx a Σ a Si no se restringe a eso vale infinito, luego buscaremos sólo entre los a con norma uno. máx a =1 a Σ a 7
2 8 CAPÍTULO 2. ANÁLISIS DE COMPONENTES PRINCIPALES Como Σ es simétrica, entonces existen Λ diagonal y U ortogonal tales que Σ = U Λ U. Sean Λ = : diag[λ 1,..., λ p ], para los que, sin pérdida de generalidad, supondremos λ 1 λ 2 λ p ; como Σ es semidefinida positiva, entonces λ i 0, i. Sea b := U a. Nótese que b = a porque (intuitivamente) U representa una rotación y porque (analíticamente) b 2 = b b = a U U a = a I a = a a. máx a =1 a Σ a = máx b Λ b = b =1 p p λ i b 2 i λ 1 b 2 i λ 1 p b 2 i = λ 1 donde λ 1 = máx i λ i. Entonces, escogiendo a como el vector propio (autovector) asociado al valor propio (autovalor) mayor de Σ, se alcanza la cota. (Es decir, se escoge b := (1, 0,..., 0), suponiendo que la primera columna de U es aquel autovector.) Nótese que el máximo se alcanza en distintos vectores. Dejando aparte el caso de que el autovalor máximo tenga multiplicidad mayor que 1, téngase en cuenta que, si a es una solución, también lo es a. Recuérdese esto a la hora de interpretar los signos de los coeficientes de las componentes principales. La primera componente principal estará, por tanto, relacionada con el autovector asociado al mayor autovalor de Σ. Para hallar la segunda componente principal, y 2 := a ( x µ), donde a es distinto de la de antes, aparte de maximizar su varianza interesa que su covarianza con y 1 sea nula, de forma que incorpore información no redundante en la medida de lo posible. Sean y 1 =: u 1 ( x µ) y 2 = a ( x µ) Por ser centradas, Entonces, Cov [y1, y2] = E [y 1 y 2 ] = E [ { u 1 ( x µ)} { a ( x µ)} ] = u 1 E [( x µ) ( x µ)] a = u 1 Σ a 0 = Cov [y1, y2] = u 1 Σ a = u 1 U Λ U a = u 1 ( u 1,..., u p ) Λ U a = (1, 0,..., 0) Λ U a = (λ 1, 0,..., 0) U a = λ 1 u 1 a u 1 a = 0 pues λ 1 > 0
3 2.1. TEORÍA 9 Luego habrá que maximizar a Σ a = a U Λ U a = b Λ b i λ 2 b 2 i = λ 2 donde la desigualdad se justifica porque u 1 u U u 1 a 0 2 a =. a = u 2 a. = u 2 a. u p a u p a Siguientes componentes principales u p De forma similar, se puede definir y i (la i-ésima componente principal) i {1,..., p}) a partir del autovector u i asociado al autovalor λ i, el i-ésimo ordenando de forma decreciente. Así, y i := u i ( x µ) y Var [y i ] = λ i. En forma matricial, y = U ( x µ) que podemos invertir de la siguiente manera: x µ = U y = y 1 u y p u p Elección del número de componentes En la práctica nos quedaremos con q componentes (q < p), con lo cual la reconstrucción de x no será perfecta, pues se emplearía x µ x q µ q = U q y = y 1 u y q u q Para decidir el valor de q podemos tener en cuenta la proporción de varianza global explicada por las q primeras componentes principales, que sería tr Var [ x q ] = tr Var [(y)q ] tr Var [ x] tr Var [ y] p = tr diag[λ q 1,..., λ q ] = λ q i tr Σ p λ = λ i p i σ2 i Para decidir q convendría tener en cuenta también: Si son muchas las componentes adicionales para conseguir un aumento notable de la proporción de variación explicada. Por ejemplo, si con dos componentes se explica el 60 % de la variabilidad, y hacen falta seis componentes para explicar el 70 %, entonces mejor quedarse sólo con las dos primeras componentes. Si las dos siguientes componentes por entrar explican cada una aproximadamente la misma cantidad de variabilidad, entonces cójanse las dos o ninguna. Meter sólo una de ellas sería arbitrario.
4 10 CAPÍTULO 2. ANÁLISIS DE COMPONENTES PRINCIPALES Otro criterio sería tener en cuenta la proporción de varianza explicada en la i-ésima variable original parcialmente reconstruida, que sería [ q ] Var [x i;q ] Var j=1 u ij y q j j=1 = = u2 ij Var [y q j] j=1 = u2 ij λ j Var [x i ] σ ii σ ii σ ii La correlación entre variables originales y componentes principales se puede calcular como sigue: pues Cor [x i, y j ] = Cov [x i, y j ] σ i λj = u ij λ j σ i λj = u ij σ i λj Cov [ x, y] = E [( x µ) y ] = E [( x µ) (U ( x µ)) ] = = E [( x µ) ( x µ) U] = E [( x µ) ( x µ) ] U = Σ U = U Λ 2.2. En R Ulizaremos álgebra matricial. En concreto, X es una matriz n I que representa los datos de I variables en n individuos; en las fórmulas siguientes, X se indicará también como una combinación de vectores columna x 1,..., x I. Considerése la matriz H siguiente: H := I 1 n J := I 1 n 1 1 H es una matriz de centrado. Si premultiplicamos X por H, el resultado es una matriz con los datos centrados respecto al vector de medias muestrales: H X = (I 1n ) 1 1 [ x 1... x p ] = (I 1n ) 1 1 [... x i...] = = X 1 [... 1 ] n 1 x i... = X 1 [... x i...] = X 1 x H es idempotente: H H = H. Es fácil demostrarlo a partir de su definición. En su idempotencia radica el hecho de que centrar una variable ya centrada la deja como estaba. Un ejemplo de cómo calcular lo de la sección anterior en R: > X <- as.matrix (iris[,1:4]) # as.matrix pues protesta %*% si no > n <- nrow (X) # número de filas = tama~no muestral > I <- diag (n) # matriz identidad > J <- matrix (1, n, n) > H <- I - J/n # matriz idempotente de centrado > nsigma <- t(x) %*% H %*% X # matriz de sumas de productos > Sigma <- nsigma / n # matriz de covarianzas > auto <- eigen (Sigma) > U <- auto$vectors # autovectores por columnas > U # coeficientes de las componentes
5 2.2. EN R 11 [,1] [,2] [,3] [,4] [1,] [2,] [3,] [4,] > Landa <- diag (auto$values) # matriz con autovalores > Y <- H %*% X %*% U # puntuaciones de los individuos en > head (Y) # las componentes principales [,1] [,2] [,3] [,4] [1,] [2,] [3,] [4,] [5,] [6,] > corxy <- diag (1 / sqrt(diag(sigma))) %*% U %*% sqrt(landa) > corxy # correlaciones variables/componentes [,1] [,2] [,3] [,4] [1,] [2,] [3,] [4,] Otra manera de llegar a lo mismo, usando la función princomp de R 1 : > X <- iris[,1:4] > n <- nrow (X) > análisis <- princomp (X) > U <- unclass (loadings (análisis)) > Landa <- diag (análisis$sdev) > Sigma <- var (X) * (n-1)/n > corxy <- diag (1 / sqrt(diag(sigma))) %*% U %*% Landa (Téngase en cuenta que esta Landa contiene desviaciones típicas, mientras que Λ y la Landa del listado previo contenían los autovalores, es decir, varianzas.) Así, la correlación entre la segunda variable y la tercera componente sería > corxy [2, 3] [1] En R también existe prcomp, que utiliza un algoritmo alternativo para calcular las componentes. Una ventaja de prcomp es que permite calcular componentes principales incluso si hay más variables que observaciones.
6 12 CAPÍTULO 2. ANÁLISIS DE COMPONENTES PRINCIPALES Las proporciones de varianzas explicadas en las variables originales por las q primeras componentes serían: > q <- 2 > apply (corxy, 1, function (fila) sum (fila[1:q]^2)) [1] Gráficos Para representar gráficamente en dos dimensiones el resultado de un análisis de componentes principales, se suelen representar en los mismos ejes tanto los individuos de la muestra como las propias variables. Hay varios criterios posibles para elegir las escalas. Directo. Para representar los individuos (ejes inferior e izquierdo), se utilizan sus proyecciones sobre las dos primeras componentes principales (scores). Para las variables (ejes superior y derecho), se utiliza la coordenada de los autovectores correspondiente a la componente en cuestión (loadings). > i <- 42 # individuo 42 (p.ej.) > j <- 2 # Sepal.Width (p.ej.) > análisis$scores[i,] > análisis$loadings[j,] > biplot (análisis, scale=0)
7 2.3. GRÁFICOS Comp Sepal.Width Sepal.Length Petal.Width Petal.Len Comp.1 De esta forma, los individuos aparecen en una proyección real, y las variables aparecen como los autovectores unitarios proyectados. Escalado. En este caso, las coordenadas para los individuos se tipifican dividiendo por la desviación típica de la componente correspondiente, es decir, por la raíz cuadrada correspondiente autovalor. Así, las coordenadas del individuo i-ésimo serían análisis$scores[i,] / análisis$sdev De esta manera, la nube de individuos se distribuye de manera más homogénea en el gráfico (se distorsiona la forma real para dar más visibilidad a las dimensiones con menos dispersión). Para representar las variables, sus coordenadas son las del caso directo pero multiplicadas por las desviaciones típicas (raíces cuadradas de los autovalores) correspondientes. Esto destaca la dimensión asociada a la primera componente principal. Por otro lado, de esta manera las escalas para individuos y para variables son similares. > análisis$scores[i,] / análisis$sdev
8 14 CAPÍTULO 2. ANÁLISIS DE COMPONENTES PRINCIPALES > análisis$loadings[j,] * análisis$sdev > biplot (análisis, pc=true) Comp Sepal.Width Sepal.Length Petal.Width Petal.Len Comp.1 Recontraescalado. Si no se pone la opción pc a TRUE, se reescalan las coordenadas de individuos y variables dividiendo y multiplicando respectivamente por la raíz cuadrada del tamaño muestral. Es el criterio por omisión en R. > n [1] 150 > análisis$scores[i,] / análisis$sdev / sqrt(n) > análisis$loadings[j,] * análisis$sdev * sqrt(n)
9 2.4. EJEMPLO DE CABEZAS DE RUGBI > biplot (análisis) Comp Sepal.Width Sepal.Length Petal.Width Petal.Len Comp Ejemplo de cabezas de rugbi 1. Descargar el fichero desde adatos 2. Descriptivos 1D. 3. Gráficos de caja. 4. Análisis de componentes principales de todas las variables salvo V1. 5. Gráfico de sedimentación (codo). 6. Matriz de covarianzas o de correlaciones 7. Interpretar los coeficientes de las componentes ( dolicocéfalos?).
10 16 CAPÍTULO 2. ANÁLISIS DE COMPONENTES PRINCIPALES
Análisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid [email protected] Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
Tema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
Repaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
MATRICES Y OPERACIONES CON MATRICES. Suma A y B del mismo orden A+B = (a i j + b i j ) Resta A y B del mismo orden A -B = (a i j - b i j )
ANEXOS Anexo Nº 1. MATRICES Y OPERACIONES CON MATRICES Vector Orden nx1 a ' nx1 Matriz Orden nxp A nxp= ( a i j ) Matriz Cuadrada n=p A nxn Transpuesta Orden nxp A t = (a j i ) p x n Suma A y B del mismo
Análisis en Componentes Principales
This is page i Printer: Opaque this Análisis en Componentes Principales Dr. Oldemar Rodríguez Rojas 29 de mayo de 2008 ii This is page iii Printer: Opaque this Contents. Análisis en Componentes Principales
Puntuaciones de las observaciones en las componentes Gráfico de dispersión de las componentes Y1 e Y2:
Ejemplo 1 Objetivos: 1. Ayudar a comprender los conceptos relacionados con un análisis de componentes principales. Interpretación de resultados. 2. Aprender a ejecutar con R el ACP. Familiarizarse con
Diagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
1 Vectores de R n. Tema 1. Álgebra matricial. 1.2 Dependencia lineal
Diplomatura en Estadística 1 Tema 1. Álgebra matricial 1. Vectores 1.1 Definiciones básicas 1.2 Dependencia lineal 2. Matrices 2.1 Rango de una matriz 2.2 Matrices cuadradas 3. Vectores y valores propios
Soluciones a los ejercicios del examen final C =. 1 0
Universidade de Vigo Departamento de Matemática Aplicada II E T S E de Minas Álgebra Lineal Curso 205/6 de enero de 206 Soluciones a los ejercicios del examen final Se considera el subespacio U {X M 2
Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)
Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos
Análisis de Correspondencias Simple
1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia
ANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Análisis de Componentes Principales (ACP)
Sistemas de Visión en Manufactura Maestría en MIC, UDB Análisis de Componentes Principales (ACP) Presenta: Sergio Miguel García Pérez Enero de 2015 Introducción Cuando se recoge información de una muestra
Análisis de Componentes Principales
Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis de Componentes Principales Se han observado p variables X 1,X 2,...,X p sobre una muestra de n individuos. La matriz de datos muestrales
6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
Análisis de componentes principales. a.k.a.: PCA Principal components analysis
Análisis de componentes principales a.k.a.: PCA Principal components analysis 1 Outline Motivación Derivación Ejemplos 2 Motivación general Tenemos un dataset X con n datos y p dimensiones, centrado (medias
Eigenvalores y eigenvectores
Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre
f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).
Universidade de Vigo Departamento de Matemática Aplicada II E.T.S.I. Minas Álgebra Convocatoria de enero de 20 de enero de 20 (2.5 p.) ) Se considera la aplicación lineal f : R 4 R definida por: f(x y
MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
MATRICES Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento
APÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS
RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS 1. Determinantes El determinante de una matriz cuadrada n n A = a 21 a 22 a 2n a n1 a n2 a nn es un número real, y se representa por: A = a 21 a 22 a 2n a
Tratamiento matricial de los datos multivariantes
Tratamiento matricial de los datos multivariantes Eliseo Martínez H Introducción Intentaremos conciliar el lenguaje matricial con el lenguaje coloquial de cuestionario en que se hacen p preguntas a n personas,
Ejercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
ANÁLISIS DE COMPONENTES PRINCIPALES
ANÁLISIS DE COMPONENTES PRINCIPALES INTRODUCCIÓN El objetivo principal de la mayoría de las técnicas numéricas de análisis multivariado, es reducir la dimensión de nuestros datos. Por supuesto, si esta
SOLUCIONES AL EXAMEN DE SEPTIEMBRE DE ESTADÍSTICA EXAMEN DE MATEMÁTICAS II
SOLUCIONES AL EXAMEN DE SEPTIEMBRE DE 4. ESTADÍSTICA EXAMEN DE MATEMÁTICAS II Estadística (primer parcial). Septiembre de 4.- El coeficiente de determinación R nos determina a) el % de la varianza de Y
Estadística III Repaso de Algebra Lineal
Repaso de Algebra Lineal Vectores Un vector columna de dimensión n 1 es una serie de números dispuestos como sigue: x 1 x 2 x =. x n Un vector fila de dimensión 1 p es una serie de números dispuestos como
Regresión múltiple. Demostraciones. Elisa Mª Molanes López
Regresión múltiple Demostraciones Elisa Mª Molanes López El modelo de regresión múltiple El modelo que se plantea en regresión múltiple es el siguiente: y i = β 0 + β 1 x 1i + β 2 x 2i +...+ β k x ki +
Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u
CAPíTULO 6 Multicolinealidad 6.1. Introducción Uno de los supuestos básicos del modelo lineal general y = Xβ + u establece que las variables explicativas son linealmente independientes, es decir, la igualdad
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.
TEMA 1: MATRICES Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones ordenados en filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento
Matemáticas Física Curso de Temporada Verano Ing. Pablo Marcelo Flores Jara
Matemáticas Física Curso de Temporada Verano 2016 Ing. Pablo Marcelo Flores Jara [email protected] UNIDAD III: INTRODUCCIÓN AL CÁLCULO MATRICIAL Ing. Pablo Marcelo Flores Jara [email protected]
Matemáticas 2.º Bachillerato. Matemáticas 2.º Bachillerato. Matemáticas 2.º Bachillerato. Ejemplo:
Mapa conceptual Determinante de segundo orden Dada una matriz cuadrada de segundo orden: a a 11 12 A = a a 21 22 se llama determinante de A al número real: det (A)= A = a11 a 12 = a a a a a21 a22 11 22
Matemáticas para la Empresa
Matemáticas para la Empresa 1 o L. A. D. E. Curso 2008/09 Relación 1. Espacios Vectoriales 1. a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy)
Capítulo 1: Diagonalización de matrices
Capítulo : Diagonalización de matrices Matrices y determinantes Definición Una matriz es un arreglo rectangular de números reales a a a m a A a a m a n a n a nm La matriz es de orden n m si consta de n
6.8. Descomposición mediante valores singulares. v 2 =
68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx
Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
Relación 1. Espacios vectoriales
MATEMÁTICAS PARA LA EMPRESA Curso 2007/08 Relación 1. Espacios vectoriales 1. (a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy) Demuestra que IR
Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58
Repaso de álgebra de matrices y probabilidad Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 58 Preliminares Definición (matriz) Una matriz de dimensión m n es un arreglo rectangular de números
1. Matrices no negativas
1. Matrices no negativas Cuando A posee al menos un coeficiente nulo y el resto no negativos, puede ocurrir que algunas de las propiedades probadas no se sigan cumpliendo. Ejemplo 1.1 Si A = ( 0 1 0 0
El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema.
Práctica 8 Cálculo de autovalores 8.1. Método de la potencia El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Teorema 8.1.1 (M. de la potencia]
Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.
Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................
Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 12 de marzo de (
Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 2 de marzo de 208. Apellidos: Nombre: DNI: Ejercicio.-(4 puntos) Se considera la matriz siguiente: A = 2 0 3 0 2. Calcule W = null(a 2I), W 2 = null(a 4I)
MATRICES DETERMINANTES
MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de
ANÁLISIS DE COMPONENTES PRINCIPALES
CAPÍTULO 4 ANÁLISIS DE COMPONENTES PRINCIPALES 4.1 Introducción Al investigar un fenómeno desconocido se pretende abordarlo con muestras de diferentes variables, en las cuales muchas veces existe una fuerte
Tema 3.1. Espacio eucĺıdeo. Diagonalización ortogonal
Tema 3.1. Espacio eucĺıdeo. Diagonalización ortogonal Definición 1. Sea V un espacio vectorial sobre un cuerpo K. Llamamos forma bilineal a toda aplicación f : V V K ( x, y) f( x, y) que verifica: 1. f(
Medidas de dispersión
Medidas de dispersión Las medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la distribución. Las medidas de dispersión son: Rango o recorrido El rango es la diferencia
Relación de problemas. Álgebra lineal.
Relación de problemas Álgebra lineal Tema 1 Sección 1 Matrices Determinantes Sistemas lineales Matrices Ejercicio 11 Consideremos las siguientes matrices: ( 1 2 A = 1 1 ) ( 1 1 B = 0 1 ) C = 1 0 0 0 1
INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 4)
OBJETIVOS DE APRENDIZAJE: TEMA Nº ANÁLISIS CONJUNTO DE DOS VARIABLES Distinguir entre variables cualitativas y cuantitativas, y saber elegir los métodos en cada caso. Conocer métodos gráficos y cuantitativos
MATEMÁTICAS 2º BACH TECNOL. MATRICES. Profesor: Fernando Ureña Portero MATRICES
CONCEPTO DE MATRIZ Definición: Se denomina matriz A o (a ij ) a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas : Columnas Filas Elemento a ij : Cada uno
Estadística II Tema 1: Distribución normal multivariante
Estadística II Tema 1: Distribución normal multivariante José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Algunas propiedades de los vectores aleatorios Sea X = (X 1,..., X
2. ESTADÍSTICAS BIDIMENSIONALES
TEMA. ESTADÍSTICAS BIDIMENSIONALES.... Definición. Objetivos.... Coeficiente de Correlación. Lineal... 4 3. Rectas de regresión.... 7 . Definición. Objetivos En el tema anterior hemos estudiado las distribuciones
Matrices, Determinantes y Sistemas Lineales.
12 de octubre de 2014 Matrices Una matriz A m n es una colección de números ordenados en filas y columnas a 11 a 12 a 1n f 1 a 21 a 22 a 2n f 2....... a m1 a m2 a mn f m c 1 c 2 c n Decimos que la dimensión
Reducción de la Dimensionalidad en Análisis de Datos. Análisis de Componentes Principales.
Reducción de la Dimensionalidad en Análisis de. Análisis de Componentes Principales. A. Jiménez, A. Murillo, E. Piza, M. Villalobos, J. Trejos. April 27, 2010 Contenido 1 Objetivo. 2 Solución. 3. Calidad
Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1. Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación
Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 6 Espacios euclídeos 6.1 Producto escalar. Espacio euclídeo Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación
Álgebra Lineal 2015 Práctica 5: Diagonalización.
Álgebra Lineal 2015 Práctica 5: Diagonalización. 1. Sean T (a, b) = (4a b, b+2a), B = {(1, 0), (0, 1)} y C = {(1, 3), (2, 5)}. (a) Hallar la matriz camio de base de B a C, la matriz cambio de base de C
de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).
INTRODUCCIÓN. MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales.
1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos
TEMA 10 (curso anterior): REGRESIÓN Y CORRELACIÓN 1 Conceptos de Regresión y Correlación 2 Variables aleatorias bidimensionales 3 Ajuste de una recta a una nube de puntos 4 El modelo de la correlación
Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5
DETERMINANTES Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno
1, 2, 2, 3, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 2, 1, 1, 4, 1
8 Estadística 81 Distribuciones unidimensionales Tablas de frecuencias En este tema nos ocuparemos del tratamiento de datos estadísticos uestro objeto de estudio será pues el valor de una cierta variable
Matemáticas Empresariales II. Formas cuadráticas
Matemáticas Empresariales II Lección 7 Formas cuadráticas Manuel León Navarro Colegio Universitario Cardenal Cisneros M. León Matemáticas Empresariales II 1 / 17 Definición de Formas cuadráticas Sea V
Matrices, determinantes y sistemas de ecuaciones lineales
Matrices, determinantes y sistemas de ecuaciones lineales David Ariza-Ruiz 10 de octubre de 2012 1 Matrices Una matriz es una tabla numérica rectangular de m filas y n columnas dispuesta de la siguiente
Tema 9. Análisis factorial discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,
Soluciones a los ejercicios del examen final
Álgebra Lineal Curso 206/7 6 de junio de 207 Soluciones a los ejercicios del examen final Se considera la aplicación lineal L : R 3 R 3 definida por L(x, y, z) = (z x, x + y + z, x y 3z). a) Hallar la
Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
Matrices 1 Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se
DIAGONALIZACIÓN DE MATRICES CUADRADAS
DIAGONALIZACIÓN DE MATRICES CUADRADAS.- Considerar los vectores u = (, -, ) y v = (, -, ) de : a) Escribir, si es posible, los vectores (, 7, -4) y (, -5, 4) como combinación lineal de u y v. b) Para qué
Matrices 2º curso de Bachillerato Ciencias y tecnología
MATRICES Índice:. Introducción-------------------------------------------------------------------------------------- 2. Definición de matriz-----------------------------------------------------------------------------
CAPÍTULO 2 INTRODUCCIÓN A ICA Y PCA
CAPÍTULO INTRODUCCIÓN A ICA Y PCA. Análisis de componentes principales.. Introducción El Análisis de Componentes Principales (PCA), también llamado transformada de Karhunen-Loève, es una técnica estadística
ANÁLISIS DE COMPONENTES PRINCIPALES
ANÁLISIS DE COMPONENTES PRINCIPALES INTRODUCCIÓN El objetivo principal de la mayoría de las técnicas numéricas de análisis multivariado, es reducir la dimensión de nuestros datos. Por supuesto, si esta
AUTOVALORES Y AUTOVECTORES
12 de Julio de 2011 AUTOVALORES Y AUTOVECTORES (Clase 01) Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela 1 Puntos a tratar 1. Valores y vectores propios 2.
Distribución Gaussiana Multivariable
Distribución Gaussiana Multivariable Carlos Belaustegui Goitia, Juan Augusto Maya 8 de Agosto de Resumen En este documento presentamos la deducción de la expresión de la función densidad de probabilidad
1. Las matrices se denotan con letras mayúsculas. Por ejemplo, A, B, C, X,...
CAPÍTULO 1 ALGEBRA MATRICIAL 11 Introducción Definición 111 (Matriz) Definimos una matriz como un arreglo rectangular de elementos, llamados escalares, sobre un álgebra F Más que hacer referencia especifica
Distribuciones bidimensionales
Distribuciones bidimensionales Dos variables x e y están relacionadas funcionalmente cuando conocida la primera se puede saber con exactitud el valor de la segunda. Ejemplo Si se deja caer una piedra,
2. Análisis factorial
2 Análisis factorial Técnica estadística multivariante que tiene por objeto descubrir las relaciones entre un grupo de variables y expresarlas mediante un número mínimo de cantidades aleatorias no observables
