CAPÍTULO 2 INTRODUCCIÓN A ICA Y PCA
|
|
|
- José Francisco Figueroa Fidalgo
- hace 7 años
- Vistas:
Transcripción
1 CAPÍTULO INTRODUCCIÓN A ICA Y PCA. Análisis de componentes principales.. Introducción El Análisis de Componentes Principales (PCA), también llamado transformada de Karhunen-Loève, es una técnica estadística para el tratamiento de datos de forma compacta que elimina la redundancia de los datos originales. Se trata pues de obtener una representación de los datos lo mejor posible. Las técnicas PCA encuentran numerosas aplicaciones en diversas materias que requieren el tratamiento de datos (especialmente para la compresión). En nuestro caso, será una herramienta especialmente útil para el procesado previo de datos para la aplicación de técnicas de Análisis de Componentes Independientes (ICA). Dado un vector aleatorio x con n componentes, del cual conocemos una muestra x( ), x( ),..., x ( T), el objetivo de PCA consiste en tratar de eliminar la redundancia existente entre cada una de sus componentes de forma que se obtenga un nuevo vector y con m componentes, tal que n menor dimensión, sin redundancia entre sus componentes. m. Con esto conseguimos un vector de En PCA, no se tiene en cuanta el tipo de función de densidad que poseen los vectores. Sólo supondremos que se pueden estimar los estadísticos de primer y segundo orden de la muestra. PCA trata de buscar un nuevo sistema de ejes coordenados formado por una base ortogonal para representar al vector x de forma que se maximiza la varianza de las
2 proyecciones del vector en dicho sistema. Así conseguimos que las componentes de x en el nuevo sistema no estén correladas. Para ilustrar el funcionamiento de PCA, en la siguiente figura se representa la distribución de probabilidad conjunta de dos variables aleatorias x y x obtenidas cada una de ellas a partir de la combinación lineal de otras dos variables aleatorias s y s independientes entre sí. Figura.: Distribución de probabilidad conjunta de la variables aleatorias x y x. Si a las variables aleatorias x y x se les realiza un procesamiento PCA, las nuevas variables que se obtienen no estarán correladas entre sí y tendrán una distribución de probabilidad conjunta como se ilustra a continuación: 6
3 Figura.: Nueva distribución de probabilidad conjunta de las variables tras un procesamiento PCA. Tal como puede verse en la figura. las nuevas variables obtenidas estarán no correladas entre sí y su función de distribución conjunta estará contenida en un cuadrado. Las técnicas PCA persiguen objetivos distintos que las técnicas ICA. Sin embargo, se verá que PCA puede ser útil como un procesamiento previo al uso de técnicas ICA. También pueden usarse para blanquear o decorrelar los datos antes de aplicarles un determinado procesado... Descripción del método En PCA se trata de buscar las componentes principales de las observaciones que consisten en los autovalores de la matriz de covarianzas de éstas. Para poder aplicar el método, debemos centrar el vector x. Para ello, simplemente, tenemos que sustraerle la media: 7
4 x= x E{ x } (. ) Denotaremos como y la nueva representación de los datos. Se trata de un vector de dimensión m. En general, se cumplirá que originales. m n siendo n la dimensión de los datos La nueva representación de los datos tras aplicar las técnicas PCA vendrá dada por: T y= w x (. ) Donde w es una matriz cuyas filas son vectores de dimensión n, tales que maximizan la varianza entre las componentes del vector y. Para dicha matriz sus columnas serán ortogonales entre sí, es decir: w w (.3 ) T i j =δij Puede demostrarse, véase [8], que las columnas de la matriz w coinciden con una base ortogonal expandida a partir de los autovectores e, e,..., e m de la matriz de covarianzas, C, del vector x. X Dichos autovectores serán distintos entre sí y se ordenarán en función del valor de sus autovalores λ λ... λm. La mayor parte de la información estará contenida en el primer autovector e. La cantidad de información contenida en cada autovalor será mayor cuanto mayor sea su autovalor asociado, de forma que en las primeras componentes se concentrará la mayor parte de la T información. Al valor y = e x se le denomina componente principal de x, y es la que contiene más información de todas. En el caso de que m< n, estaremos cometiendo un error en la representación de los datos. Como ventaja estaremos comprimiendo la información contenida en el vector inicial. El error cuadrático mínimo que podemos cometer se dará cuando tomemos una base ortogonal expandida a partir de los m autovectores e, e,..., e m de la matriz de covarianzas. Dicho error vendrá dado por: 8
5 n PCA J MSE = d i i= m+ (.4 ) Si m = n no se cometerá error alguno en la representación de los datos en la nueva base formada por los autovectores de la matriz de covarianzas de los datos. Este caso será de especial interés, ya que al aplicar un análisis PCA a los datos, conseguiremos decorrelarlos.. Análisis de componentes independientes.. Introducción El Análisis de Componentes Independientes (ICA) es una técnica pensada para obtener o extraer una representación de cada una de las distintas componentes o señales independientes entre sí que forman parte de una señal de mezcla. Veremos que esto será posible siempre que las distintas señales que componen la mezcla sean independientes entre sí; es decir, el valor de una de ellas no está relacionado con el de las otras, y que no más de una de ellas tenga una distribución de tipo gaussiana. Entre las numerosas aplicaciones de ICA, nos centraremos en las aplicaciones para BSS (Separación ciega de fuentes) que consisten en la recuperación de un conjunto de señales a partir de mezclas lineales de ellas sin saber nada sobre las fuentes que queremos recuperar... Planteamiento del modelo en presencia de ruido Consideraremos que observamos m variables aleatorias en presencia de ruido a las que denotaremos como x x,..., x, m. Estas variables aleatorias son el resultado de combinaciones de otras variables aleatorias, a las que denotaremos como que queremos obtener a partir de las variables que hemos observado. s s,..., s, n, En general, podremos expresar cada una de las variables aleatorias que hemos observado de la forma: 9
6 x = a s + a s + + a s + n con i,..., m i i i... in n i = (.5 ) Donde los coeficientes a ij son coeficientes reales a priori desconocidos, con i=,..., m y j=,..., n, y n i es el ruido recibido en el i-ésimo receptor. En general, supondremos que las variables aleatorias s i son estadísticamente independientes y que, como máximo, una de ellas tiene una distribución de tipo gaussiana. También supondremos que el número de variables aleatorias observadas cumple que caso de que las observaciones se hagan en presencia de ruido y que de ruido. m> n en el m n en ausencia En el presente documento se empleará notación vectorial para referirse a las fuentes y a las observaciones. Denotaremos como x al vector que contiene cada una de las mezclas observadas x,...,, x xm, como s al vector que contiene cada una de las componentes independientes s, s,..., sn que queremos separar y como n al vector que contiene las fuentes de ruido recibidas en cada sensor. Asimismo denotaremos como A la matriz de mezclas cuyos elementos son los coeficientes podemos expresar el proceso de mezcla de la siguiente forma: a ij. De forma compacta, x = As + n (.6 ) En la siguiente figura se ilustra gráficamente el proceso de mezcla y de estimación de las señales originales a partir de sus mezclas: Figura.3: Esquema del proceso de mezclas y de separación 0
7 Nuestro objetivo será determinar las componentes independientes (Ics) a partir de las observaciones. Para ello, trataremos de buscar una estimación de inversa de la matriz de mezclas W, que nos permita recuperar las señales originales a partir de las observaciones. Normalmente la matriz A será invertible, aunque si el número de observaciones es mayor que el de fuentes (tendremos redundancia) la matriz de mezclas no será cuadrada. En estos casos, la identificación de las fuentes a partir de las mezclas también es posible y nos limitaremos a buscar una matriz que al multiplicarla por la matriz de mezclas nos dé la matriz identidad...3 Ilustración del funcionamiento de los métodos ICA Para mostrar de forma cualitativa el correcto funcionamiento de ICA, consideraremos dos fuentes estadísticamente independientes entre sí, s y s, distribuidas de forma uniforme en un cuadrado. Figura.4: Distribución conjunta de las variables aleatorias s y s. Cada una de ellas con distribución uniforme. Eje horizontal s. Eje vertical s
8 Podemos ver como las dos variables aleatorias son independientes entre sí. Si fijamos el valor de una de ellas, no podemos determinar el valor de la otra. Ahora supongamos que mezclamos ambas variables aleatorias mediante una matriz de mezcla A de dimensión x para obtener otras dos nuevas variables aleatorias x y x. Tal como puede verse en la distribución conjunta de ambas variables, las dos nuevas variables aleatorias no son independientes entre sí. Si fijamos el valor de una de ellas, el valor de la otra estará condicionado por el valor que tome la primera. Figura.5: Distribución conjunta de las variables x y x. Eje horizontal: variable x. Eje vertical: variable x El problema de obtención de las componentes independientes originales debe hacerse a partir de las observaciones y consiste en estimar la matriz A a partir de las observaciones. De forma intuitiva podemos ver que las direcciones del paralelepípedo de la Figura.5 coinciden con las columnas de la matriz A. Este método no es útil para separar las fuentes, sin embargo podemos ver de forma cualitativa que el problema de separación tiene solución si las variables de mezcla son estadísticamente independientes. En apartados posteriores, se comentarán en detalle algunos métodos analíticos para la obtención de las distintas ICs de una mezcla utilizados en el presente documento.
9 ..4 Restricciones de los métodos ICA Existen varias limitaciones que poseen los métodos ICA y que es conveniente destacar. Estas limitaciones o condicionantes no son demasiado restrictivos y son asumibles en la mayoría de las aplicaciones de interés. A continuación se describen las principales restricciones de ICA: Las componentes independientes deben ser estadísticamente independientes Como ya se vio en apartados anteriores, necesitamos que las variables aleatorias que se mezclan s,...,, s sn sean independientes entre sí. Dos variables aleatorias son independientes entre sí cuando una de ellas no da información de la otra. Matemáticamente, dado un conjunto de variables aleatorias, se dice que son estadísticamente independientes si su función de densidad conjunta es igual al producto de las funciones de densidad marginales: p s, s,..., s ) = p ( s ) p ( s )... p ( s ) (.7 ) ( n n n Este condicionante, en la práctica, no resulta ser demasiado restrictivo: en la mayoría de las aplicaciones, las señales que sufren el proceso de mezcla son independientes. Así, en el caso que posteriormente se tratará de señales de voz de distintas personas, esta suposición se cumple. Las componentes independientes deben tener distribuciones no gaussianas Para que la identificación de las distintas componentes sea posible, es necesario que tengan funciones de distribución no gaussianas. Con funciones de distribución gaussianas, la identificación de la matriz A no es siempre posible. Para establecer las condiciones de separación cuando existen fuentes gaussianas, partiremos del siguiente teorema: 3
10 Teorema.: Teorema de Darmois-Skitovich: Sean dos combinaciones lineales de fuentes estadísticamente independientes: Si y[ n ] e [ ] gaussiana. [ ] = [ ] + [ ] [ ] = [ ] + [ ] y n G s n G s n y n G s n G s n y n son independientes y { G j 0, G j 0}, entonces s j es Para variables gaussianas, el hecho de que no estén correladas implica independencia. Por tanto, la propiedad de independencia en la que se basa ICA no puede ser utilizada para la identificación de variables gaussianas. Así, en el caso de que la matriz A sea ortogonal, bien por casualidad o porque hayamos preblanqueado los datos, la función de distribución conjunta de las fuentes originales y de las mezclas son idénticas, por lo que no puede obtenerse ninguna información adicional de las fuentes a partir de las mezclas y no podrá determinarse la matriz A. Figura.6: Representación de la función de distribución de dos variables aleatorias de tipo gaussiano. Dicha distribución coincide con la de las mezclas decorreladas de las fuentes gaussianas. 4
11 No es posible determinar las amplitudes de las componentes independientes ni el orden de las mismas. Las amplitudes no pueden determinarse porque las matrices A y s son desconocidas. Un factor que multiplique al vector de fuentes s puede ser cancelado, dividiendo una de las columnas de A por el mismo factor. Por tanto, ICA podrá determinar las Ics originales salvo una constate multiplicativa. Decir que dicha constante puede tener signo negativo e invertir las señales. Esto no supone una limitación para la mayoría de los casos de interés. Tampoco puede determinarse el orden de las Ics. La razón es la misma de antes: desconocemos la matriz de mezclas y las fuentes originales. Podemos escribir las - señales recibidas en los receptores de la forma x = AP Ps, donde P es una matriz de permutación. Entonces vemos que el valor de la nueva matriz de mezclas vendrá dado por AP. Es decir, podremos determinar la matriz de mezclas salvo una permutación. Esta limitación no supondrá un problema, ya que normalmente nos centraremos en obtener todas las componentes independientes. Decir que mediante técnicas como la deflación (véase implementación del algoritmo de separación ciega con pequeños retardos) es posible extraer las señales originales ordenadas de mayor a menor energía...5 Comparación entre ICA y PCA Aunque ambos métodos están relacionados entre sí, persiguen objetivos distintos: el objetivo de PCA es decorrelar los datos y reducir el número de variables, mientras el de ICA es obtener por separado cada una de las componentes independientes que forman parte de una mezcla. Por otra parte ICA usa el concepto de independencia que es más restrictivo que el de correlación, ya que si dos variables son independientes serán no correladas, pero no necesariamente al revés. Dos variables aleatorias son no correladas si su covarianza es cero: 5
12 ( y y ) = E{ y y } E{ y} E{ y } = (.8 ) cov, 0 Y si dos variables aleatorias son independientes porque cumplen la condición (.7 ), también serán no correladas porque en ese caso: E( yy ) = E( y) E( y ) (.9 ) Aunque ambas técnicas persiguen objetivos distintos y se basan en propiedades distintas, no son excluyentes. Las técnicas PCA pueden usarse para preblanqear los datos antes de aplicarles un análisis ICA y simplificar así de forma considerable el problema. El preblanqueo de los datos consiste en multiplicar los datos recibidos por una matriz V de forma que los nuevos datos recibidos no estén correlados entre sí. Los nuevos datos obtenidos tras preblanquear vendrán dados por: z = Vx = VAs (.0 ) Y se cumplirá que { zz T } obtienen ya no estarán correlados. E = I, porque al preblanquear los nuevos datos que se Con el preblanqueo de los datos se consigue que la matriz de mezclas, VA, sea ortogonal haciendo más sencilla su identificación, ya que sólo tenemos que buscar en el espacio de matrices ortogonales. Al ortogonalizar la matriz A, se pasa de tener grados de libertad a tener ( ) n n extraordinariamente el problema de identificación. n grados de libertad, por lo que se simplifica.3 Resumen del capítulo En el presente capítulo, se han analizado dos técnicas para el tratamiento de datos: PCA e ICA. Ambas técnicas persiguen objetivos distintos y están basadas en propiedades distintas. La primera de ellas está basada busca eliminar la redundancia de 6
13 un conjunto de datos intentando eliminar la correlación entre las distintas muestras que conforman los datos. La segunda de ellas está basada en la propiedad de independencia y busca la obtención de una serie de fuentes estadísticamente independientes entre sí a partir de una mezcla de ellas. Pese a las diferencias que presentan ICA y PCA, no son técnicas excluyentes. En capítulos posteriores, se utilizarán las técnicas PCA para preblanquear los datos y facilitar la resolución del modelo ICA. 7
Repaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Tema 9. Análisis factorial discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,
Técnicas de Análisis Estadístico Multivariado Basadas en Estadísticos de Orden Superior
Técnicas de Análisis Estadístico Multivariado Basadas en Estadísticos de Orden Superior Curso 29-21 Contenido 1 Introducción 2 Separación Ciega de Fuentes - Caso Determinado Análisis de Componentes Independientes
Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.
Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES
Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL
Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho 2D014 [email protected], [email protected], http://www.lpi.tel.uva.es/sar Concepto
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)
RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS
RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS 1. Determinantes El determinante de una matriz cuadrada n n A = a 21 a 22 a 2n a n1 a n2 a nn es un número real, y se representa por: A = a 21 a 22 a 2n a
APÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )
MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
AUTOVALORES Y AUTOVECTORES
12 de Julio de 2011 AUTOVALORES Y AUTOVECTORES (Clase 01) Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela 1 Puntos a tratar 1. Valores y vectores propios 2.
Distribución Gaussiana Multivariable
Distribución Gaussiana Multivariable Carlos Belaustegui Goitia, Juan Augusto Maya 8 de Agosto de Resumen En este documento presentamos la deducción de la expresión de la función densidad de probabilidad
Análisis de Correspondencias Simple
1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia
Concepto de VA bidimensional. Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL. Concepto de VA bidimensional. Concepto de VA bidimensional
Concepto de VA bidimensional Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL Carlos Alberola López Lab. rocesado de Imagen, ETSI Telecomunicación Despacho D04 [email protected], [email protected], http://www.lpi.tel.uva.es/sar
Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices
Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 [email protected], [email protected], http://www.lpi.tel.uva.es/sar Concepto
un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:
CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse
A 4. En los siguientes ejercicios, resuelva el sistema de ecuaciones utilizando la regla de Cramer.
9. Encuentre el determinante de A. Encuentre el determinante de A 8 9 En los siguientes ejercicios, resuelva el sistema de ecuaciones utilizando la regla de Cramer.. x x 8. x x 8 x x x x 9. x x 8. x 8x
Capítulo V. Valores y vectores propios. Diagonalización de operadores lineales.
Capítulo V Valores y vectores propios. Diagonalización de operadores lineales. Hemos visto que la aplicaciones lineales de en están definidas a través de una expresión de la forma ; pero esta fórmula puede
Análisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid [email protected] Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
V = v 1 +2v 2 +3v 3. v 2. v 1
Coordenadas Hay muchas maneras de darle coordenadas a los puntos del espacio, las ecuaciones de las curvas o superficies dependen de las coordenadas que utilicemos y eligiendo las coordenadas adecuadas
Estadística III Repaso de Algebra Lineal
Repaso de Algebra Lineal Vectores Un vector columna de dimensión n 1 es una serie de números dispuestos como sigue: x 1 x 2 x =. x n Un vector fila de dimensión 1 p es una serie de números dispuestos como
Ejercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Lección 8. Matrices y Sistemas de Ecuaciones Lineales
Lección 8 Matrices y Sistemas de Ecuaciones Lineales MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Septiembre 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En
DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES
ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas
Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
Tema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA
1 CLASES DE ESTADÍSTICA II CLASE ) ESPERANZA ABSOLUTA. ESPERANZA CONDICIONAL. ESPERANZA ABSOLUTA El cálculo de valores esperados o esperanzas a nivel de dos variables aleatorias es una generalización matemática
Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )
Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder
MATRICES Y DETERMINANTES MATRIZ INVERSA
Índice Presentación... 3 Determinante de una matriz... 4 Determinante de matrices de orden 2 y 3... 5 Determinante de una matriz... 6 Ejemplo... 7 Propiedades del cálculo de determinantes... 8 Matriz inversa...
Matrices. Álgebra de matrices.
Matrices. Álgebra de matrices. 1. Definiciones generales Definición 1.1 Si m y n son dos números naturales, se llama matriz de números reales de orden m n a una aplicación A : {1, 2, 3,..., m} {1, 2, 3,...,
TALLER DE INTRODUCCIÓN A LOS NEGOCIOS
REGRESIÓN LINEAL SIMPLE INTRODUCCIÓN Si sabemos que existe una relación entre una variable denominada dependiente y otras denominadas independientes (como por ejemplo las existentes entre: la experiencia
Álgebra Lineal. Tema 6. Transformaciones lineales y matrices
Álgebra Lineal Tema 6. Transformaciones lineales y matrices Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S.
Podemos pues formular los dos problemas anteriores en términos de matrices.
Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión
Definición: Dos matrices A y B son iguales si tienen el mismo orden y coinciden los elementos que ocupan el mismo lugar.
UNIDAD 03: MATRICES Y DETERMINANTES. 3.1 Conceptos de Matrices. 3.1.1 Definición de matriz. Definición: Se lama matriz de orden m x n a un arreglo rectangular de números dispuestos en m renglones y n columnas.
Álgebra Lineal Ma1010
Álgebra Lineal Ma1010 s de Vectores y Matrices es Departamento de Matemáticas ITESM s de Vectores y Matrices es Álgebra Lineal - p. 1/44 En esta lectura veremos conjuntos y matrices ortogonales. Primero
Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.
Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:
Si u y v son vectores cualquiera en W, entonces u + v esta en W. Si c es cualquier numero real y u es cualquier vector en W, entonces cu esta en W.
Unidad 4 Espacios vectoriales reales 4.1 Subespacios Si V es un espacio vectorial y W un subconjunto no vacío de V. Entonces W es un subespacio de V si se cumplen las siguientes condiciones Si u y v son
Tema 3: Forma canónica de Jordan de una matriz.
Forma canónica de Jordan de una matriz 1 Tema 3: Forma canónica de Jordan de una matriz. 1. Planteamiento del problema. Matrices semejantes. Matrices triangularizables. El problema que nos planteamos en
Análisis en Componentes Principales
This is page i Printer: Opaque this Análisis en Componentes Principales Dr. Oldemar Rodríguez Rojas 29 de mayo de 2008 ii This is page iii Printer: Opaque this Contents. Análisis en Componentes Principales
Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31
Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular
ANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Rango de una matriz. Antes de nada daremos algunas definiciones. Para ello supongamos que tenemos una matriz de orden m n: A M m n.
En un artículo anterior dijimos que el rango de una matriz A, ra), es el número de filas que son linealmente independientes. También se hizo uso del método de Gauss para calcular el rango de una matriz:
Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices
elementales Diciembre 2010 Contenido Definición y tipos de matrices elementales 1 Definición y tipos de matrices 2 3 4 elementales 5 elementales Definición 1.1 (Matriz) Una matriz de m filas y n columnas
Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.
ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con
ANÁLISIS DE COMPONENTES PRINCIPALES
CAPÍTULO 4 ANÁLISIS DE COMPONENTES PRINCIPALES 4.1 Introducción Al investigar un fenómeno desconocido se pretende abordarlo con muestras de diferentes variables, en las cuales muchas veces existe una fuerte
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre
Departamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011
Factorización LU Departamento de Matemáticas, CCIR/ITESM 9 de febrero de 2011 Índice 26.1. Introducción............................................... 1 26.2. Factorización LU............................................
Determinantes. = a 11a 22 a 12 a 21 = ( 3) ( 5) ( 4) 7 = 15 ( 28) = = 43
Determinante de una matriz cuadrada Toda matriz cuadrada A lleva asociado un número, llamado determinante de A, y que denotaremos mediante el símbolo. Este número, entre otras cosas, permite saber cuándo
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios
61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial
Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales
Capítulo 2 Medidas Estadísticas Básicas 2.1. Medidas estadísticas poblacionales Sea X una variable aleatoria con función de probabilidad p(x) si es discreta, o función de densidad f(x) si es continua.
Análisis de componentes principales
Capítulo 2 Análisis de componentes principales 2.1. Teoría Sea X una muestra de datos (de la variable/población x N ( µ, Σ)) donde el elemento x ij corresponde al individuo i y a la variable continua j
Transformadas de la imagen
Transformadas de la imagen Digital Image Processing, Gonzalez, Woods, Addison Wesley, ch 3 Transformadas de la imagen 1 Transformada de Fourier en el caso continuo Transformada de Fourier de una funcion
Matrices y sistemas de ecuaciones
Matrices y sistemas de ecuaciones María Muñoz Guillermo [email protected] U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices
SISTEMAS DE ECUACIONES LINEALES MÉTODO DE LA MATRIZ INVERSA
MÉTODO DE LA MATRIZ INVERSA Índice Presentación... 3 Método de la matriz inversa... 4 Observaciones... 5 Ejemplo I.I... 6 Ejemplo I.II... 7 Ejemplo II... 8 Sistemas compatibles indeterminados... 9 Método
Diagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Teoría Tema 6 Ecuaciones de la recta
página 1/14 Teoría Tema 6 Ecuaciones de la recta Índice de contenido Base canónica en dos dimensiones como sistema referencial...2 Ecuación vectorial de la recta...4 Ecuación paramétrica de la recta...6
Conjuntos de Vectores y Matrices Ortogonales
Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................
MATRICES DETERMINANTES
MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de
Solución de problemas I 1
Universidad Autónoma de Madrid Álgebra II. Físicas. Curso 5 6 Solución de problemas I Álgebra II Curso 5-6. Proyecciones en el producto escalar estándar Ejercicio 7.7. (a) Dada la ecuación x + y z, dar
Espacios vectoriales con producto escalar
147 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 10 Espacios vectoriales con producto escalar 10.1 Producto escalar. Norma. Distancia Definición 71.- Un producto escalar o producto interior en
Matrices. En este capítulo: matrices, determinantes. matriz inversa
Matrices En este capítulo: matrices, determinantes matriz inversa 1 1.1 Matrices De manera informal una matriz es un rectángulo de números dentro de unos paréntesis. A = a 1,1 a 1,2 a 1,3 a 2,1 a 2,2 a
a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2
68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado
Sistem as de ecuaciones lineales
Sistem as de ecuaciones lineales. Concepto, clasificación y notación Un sistema de m ecuaciones lineales con n incógnitas se puede escribir del siguiente modo: a x + a 2 x 2 + a 3 x 3 + + a n x n = b a
VECTORES : Las Cantidades Vectoriales cantidades escalares
VECTORES En física hay dos tipos de cantidades: Las Cantidades Vectoriales son aquellas que tiene tanto magnitud como dirección y sentido sobre la dirección), mientras que las cantidades escalares son
Ba s e, d i M e n s i ó n y Mat r i z
Unidad 4 Ba s e, d i M e n s i ó n y Mat r i z de transición Objetivos: Al inalizar la unidad, el alumno: Conocerá la deinición de base de un espacio vectorial Identiicará bases canónicas para algunos
Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión.
REGRESIÓN LINEAL. Distribución bidimensional. Marginales. Correlación lineal. Rectas de regresión. Dada una población, hasta ahora hemos estudiado cómo a partir de una muestra extraída de ella podemos
TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.
TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. 1. MATRICES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. DEFINICIÓN: Las matrices son tablas numéricas rectangulares
6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
6.7. Clasificación de formas cuadráticas
6.7 Clasificación de s s 1.1. Definición de s s en R n El concepto básico que sirve para definir una es el de polinomio homogéneo de segundo grado en varias variables. En toda esta sección sobreentenderemos
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico.
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 4: Modelos lineales. 1 Objetivos del tema Conocer los parámetros que indican la posible relación lineal entre variables. Aprender
6 Vectores. Dependencia e independencia lineal.
6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar
Conjuntos y matrices. Sistemas de ecuaciones lineales
1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución
