Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores
|
|
- Carmen Ortíz Campos
- hace 5 años
- Vistas:
Transcripción
1 Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1
2 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características que aporta información discriminatoria relevante. La extracción de características es un enfoque de reducción de dimensionalidad para generar un subconjunto de nuevas características aplicando una función de mapeo a las características existentes, tal que se preserve la información o mejore la estructura del espacio original. El problema de extracción de características se define como: dado un espacio de características XX R 2 R M D, encontrar un mapeo Y xxxxxxxxxxxxxxxxx, = f(x) :R D! R E con E<D, tal que el espacio transformado Yxxxxxx 2 R E preserve la información o estructura en R M. R D 2
3 Introducción Dependiendo del criterio evaluado por la función de mapeo, las técnicas de extracción de características se dividen en dos categorías: Representación: mejorar la representación de los patrones de entrada en un espacio de baja dimensionalidad (análisis de componentes principales, PCA) Clasificación: mejorar la discriminación interclase en un espacio de baja dimensionalidad (análisis lineal discriminante, LDA). x 2 Representación (PCA) Clasificación (LDA) x 1 3
4 Análisis lineal discriminante El LDA fue desarrollado por R. A. Fisher en 1936*, también conocido como discriminante lineal de Fisher, es una técnica supervisada utilizada para clasificación de patrones en términos de reducción de dimensionalidad. Determina la combinación lineal de variables que mejor separe las clases al maximizar la relación entre las varianzas inter e intraclase. Sea X={x 1,,x N } un conjunto con N observaciones, donde cada muestra, xk = [x 1,,x D ] T, es un vector de patrones D-dimensional que pertenecen a la clase ω i, para i=1,2,,c. LDA transforma de xxxxxx, X! Y Y={y 1,,y N }, a través de la proyección de las muestras de X sobre un hiperplano con dimensión C 1. Por tanto, reduce la dimensionalidad de los datos de xx a xxxxx, de modo que para el caso de C=2 los patrones se proyectan sobre una recta. R D R C 1 *R. A. Fisher, The use of multiple measurements in taxonomic problems, Annals of Eugenics, vol. 7, no. 2, pp ,
5 Regresión lineal y proyecciones Una función de regresión lineal en el espacio 2D f (x k ;w) = w T x k, k (1) proyecta cada punto del conjunto de muestras x k en R Dd a una recta que es paralela a un vector de proyecciones w que pasa por el origen. y k x 2 x k w x 1 Un punto x k en R 2 es proyectado ortogonalmente en R como y k = w T x k. 5
6 Regresión lineal y proyecciones Considerando que el conjunto de datos está dividido en dos clases, si se varía el vector w se obtienen diferentes niveles de separación entre las clases de lo puntos proyectados. Optimizar la proyección indica que se debe encontrar el vector w que maximice la separación entre las clases proyectadas. LDA realiza una reducción de dimensionalidad preservando tanto como sea posible la información discriminatoria entre las clases. x 2 w x 1 x 2 w x 1 Dos vectores w que generan una mala separación (izquierda) y una separación óptima (derecha) entre dos clases proyectadas. 6
7 LDA para dos clases Sea y=w T x un punto proyectado que pertenece a la clase ω i, con i=1,2. Entonces, los vectores de medias para la clase ω i con N i elementos en los espacios original y proyectado son: y m i = 1 N i N i, i = 1,2 (2) k=1 x k N i!m i = 1 y N k = 1 w T x i N k i k=1 N i k=1 = w T m i (3) Para encontrar el vector de proyecciones óptimo, se puede definir una función objetivo que maximice la distancia entre las medias de las clases de los datos proyectados: J(w) = (!m 1!m 2 ) 2 (4) 7
8 LDA para dos clases x 2!m 1 m 1 buena separación, menor distancia m 2!m 2 distribución de los datos proyectados mayor distancia, mala separación La función objetivo J(w) basada en la distancia interclase no considera la dispersión de los datos. x 1 8
9 LDA para dos clases Para solucionar este inconveniente, la distancia interclase es normalizada por la dispersión intraclase como: J(w) = (!m 1!m 2 )2!s 1 2 +!s 2 2 (5) donde la varianza proyectada de la clase ω i con N i elementos es N i, i = 1,2 (6)!s i 2 = 1 N i (y k!m i ) 2 k=1 Por otro lado, la matriz de dispersión intraclase en el espacio original es S W = S 1 + S 2 (7) y se computa a partir de la matriz de covarianza de cada clase: S i = 1 N i N i (x k m i )(x k m i ) T, i = 1,2 (8) k=1 9
10 LDA para dos clases Entonces, la dispersión de los datos proyectados se puede definir en función de la matriz de dispersión en el espacio original como: N i N i k=1!s 2 i = (y k!m i ) 2 = (w T x k w T m i ) 2 k=1 N i k=1 = w T (x k m i )(x k m i ) T w = w T S i w, i = 1,2 por tanto!s 2 1 +!s 2 2 = w T S W w (10) De manera similar, la diferencia entre las medias proyectadas se puede expresar en términos del espacio original: (!m 1!m 2 ) 2 = (w T m 1 w T m 2 ) 2 = w T (m 1 m 2 )(m 1 m 2 ) T w = w T S B w donde S B es la matriz de dispersión interclase. (9) (11) 10
11 LDA para dos clases Finalmente, el discriminante lineal de Fisher en términos de S W y S B se define como: J(w) = wt S B w w T S W w (12) Para optimizar J(w) se deriva con respecto de w y se iguala a cero: J(w) w = S B w J(w)S W w = 0 y resolviendo el problema generalizado de valores propios S W 1 S B w = λw se tiene que el vector de pesos óptimo es (13) (14) w* = arg max w w T S B w w T S W w (15) 11
12 LDA para dos clases En el caso particular de dos clases, no es necesario resolver para los vectores propios y valores propios de S 1 W S B debido a que SBw siempre tiene en la misma pendiente que el vector m 1 m 2. Por tanto, dado que el factor de escala λ para w no es importante (sino sólo su orientación), se puede encontrar una solución inmediata para w que optimice J(w): w = S W 1 (m 1 m 2 ) (16) Por tanto, se obtiene w para el discriminante lineal de Fisher, de modo que se obtiene la máxima relación de dispersión interclase a dispersión intraclase. 12
13 LDA para dos clases x 2 m 1!m 1 m 2!m 2 w * Se busca la proyección donde los datos de una misma clase sean proyectados de manera compacta y al mismo tiempo que las medias proyectadas de clases distintas se encuentren lo más distante posible. x 1 13
14 LDA para dos clases Ejemplo: computar la proyección LDA para el siguiente conjunto de datos 2D con dos clases: ω 1 :[4,2] T,[2, 4] T,[2,3] T,[3,6] T,[4, 4] T ω 2 :[9,10] T,[6,8] T,[9,5] T,[8,7] T,[10,8] T Los estadísticos de ambas clases son: m 1 = [3.0,3.8] T y m 2 = [8.4,7.6] T S 1 = y S 2 = Las matrices de dispersión inter e intraclase son: S B = y S W = y la inversa de S W es: S W 1 =
15 LDA para dos clases Método 1: la proyección LDA se obtiene resolviendo el problema generalizado de valores propios en (14): S 1 W S B w = λw det( S 1 W S B λi ) = 0 1. Obtener las raíces del polinomio característico: det λ λ = 0 (11.52 λ)(3.72 λ) = 0 λ λ 0.04 = 0 λ 1 = y λ 2 = Resolver el sistema de ecuaciones lineales homogéneas (S W 1 S B λi)w=0 para cada raíz: w 1 = [0.90,0.41] T y w 2 = [0.57, 0.81] T 3. Maximizar el discriminante lineal de Fisher J(w) con los vectores de pesos encontrados: J(w 1 ) = y J(w 2 ) =
16 LDA para dos clases Método 2: la proyección LDA se obtiene de manera directa como: w = S W 1 (m 1 m 2 ) = = [ 2.13, 0.98] T p(y) x 2 ω 1 ω 2 Método 1 Método 2 x 1 y Izquierda: Vector de proyecciones óptimo en el espacio original. Derecha: Proyecciones LDA y sus densidades para cada clase. 16
17 LDA para C clases La generalización del LDA para C clases realiza C 1 proyecciones, de xi=[x 1,,x D ] a y i =[y 1,,y C 1 ], utilizando C 1 vectores de proyecciones, W=[w 1,, w C 1 ]. W 1 W 2 Distribuciones 3D con tres clases proyectadas en un espacio 2D, descrito por los vectores normales W 1 y W 2, donde W 1 obtiene la separación óptima entre las tres clases. 17
18 LDA para C clases La matriz de dispersión intraclase se define como: C S W = S i (17) donde la matriz de covarianza de la i-ésima clase es: i=1 S i = 1 N i N i k=1 y su respectivo vector de medias: (x k m i )(x k m i ) T, i = 1,,C (18) m i = 1 N i N i, i = 1,,C (19) La matriz de dispersión interclase se define como: S B = C i=1 k=1 x k N i (m i m)(m i m) T donde m es la media global de todo el conjunto de datos: m = 1 N N (21) k=1 x k (20) 18
19 LDA para C clases De manera similar, los vectores de medias y las matrices de dispersión de los datos proyectados se definen como: N i!m i = 1 y N k y SW! = (y k!m i )(y k!m i ) T i!m = 1 N N k=1 k=1 y k C i=1 C i=1 N i k=1 y! SB = N i (!m i!m)(!m i!m) T El discriminante lineal de Fisher en términos de S W y S B es: ( ) ( ) J(W) = det( S! B ) det( S! W ) = det W T S B W det W T S W W (22) (23) La matriz de proyecciones óptima es aquella cuyas columnas son los vectores propios generalizados que corresponden con los valores propios más grandes en S W 1 S B w i = λ i w i, i = 1,,C 1 (24) 19
20 p(y 1 ) LDA para C clases p(y) y 1 Proyecciones LDA del conjunto de datos Iris (3 clases y 4 atributos) creado por Fisher, así como sus distribuciones de densidad correspondientes. A la izquierda, proyección sobre la primera componente. A la derecha, proyección sobre las dos primeras componentes. y 1 y 2 20
21 Limitaciones del LDA LDA es un método paramétrico, ya que asume que los patrones presentan distribución normal, de modo que si las distribuciones son significativamente no-gaussianas, LDA no preservará ninguna estructura compleja de los datos. LDA fallará cuando la información discriminatoria no se encuentra en la media sino en la varianza de los datos. LDA produce a lo más C 1 proyecciones, de modo que si el estimado del error de clasificación establece que se requieren más características, se deben utilizar otros métodos que provean estas características adicionales. 21
22 Kernel LDA El LDA puede generalizarse al caso no lineal mediante el método del kernel, tal como se aplica en la SVM. Para realizar proyecciones no lineales, se realiza un mapeo no lineal a un espacio de alta dimensionalidad, H, y después se computa LDA en H. Sea Φ una función de mapeo no lineal hacia algún espacio H; para encontrar el discriminante lineal en H se maximiza J(w) = wt S Φ B w (25) w T S Φ W w Φ Φ w 2 H S B S W donde wwww y y son las matrices de dispersión en H: S B Φ = (m 1 Φ m 2 Φ )(m 1 Φ m 2 Φ ) T (26) S W Φ = N i i=1,2 k=1 (Φ(x k ) m i Φ )(Φ(x k ) m i Φ ) T (27) N i k=1 m i Φ = 1 N i Φ(x k ) (28) 22
23 Kernel LDA Si H es de muy alta, o inclusive infinita dimensionalidad, es imposible resolver el LDA directamente. En vez del mapeo explícito, los datos se mapean implícitamente hacia H mediante una función kernel como: K(a, b) = Φ(a) Φ(b) (29) donde las funciones kernel más comunes son las funciones Gaussiana y polinomial, definidas como: K(a, b) = (a T b + 1) q K(a, b) = exp( γ a b 2 2 ) donde las constantes q>0 y γ>0. (30) (31) El criterio de Fisher J(w) en el espacio H debe formularse en términos de productos escalares de los patrones de entrenamiento los cuales serán reemplazados por una función kernel. 23
24 Kernel LDA Para el caso de dos clases, encontrar el vector de proyecciones no lineal LDA a partir del conjunto de patrones de entrenamiento (y i,x i ), para i=1,,n y XXXXXXX. y i 2 { 1, 1} La proyección de un patrón arbitrario z sobre wwww 2 H está dada por: N i=1 w T Φ(z) = α i K(x i, z) = α T K(X, z) de modo que el criterio de Fisher se reescribe como: J(α) = αt S K B α α T S K W α = w T S Φ B w w T S Φ W w (32) (33) K K donde S B y S W son las matrices de dispersión inter e intraclase, respectivamente, mapeados implícitamente por una función kernel. 24
25 Kernel LDA Dado que el problema de optmización es encontrar el vector α óptimo, entonces una solución directa está dada por: α = (BK t + λi ) 1 y T (34) donde y=[y 1,,y N ] es el vector de salidas deseadas, K t es la matriz kernel de los datos de entrenamiento, λ es un parámetro de regularización, I es la matiz identidad y xxxxxxxxxxxxxxxxx B = M M + M donde M es una matriz diagonal computada como: 2N N si y M (35) ii = i = +1 2N + N si y i = 1 donde N + y N son el número de patrones en las clases +1 y 1, y las matrices M + y M se computan como: M ij + = M ij = 2N (NN + ) si y i = y j = +1 0 otro caso 2N + (NN ) si y i = y j = 1 0 otro caso (36) 25
26 Kernel LDA p(y) x 2 x 1 Izquierda: conjunto de datos 2D no linealmente separable. Derecha: función de densidad de los datos proyectados mediante LDA con kernel Gaussiano. Nótese que en el espacio proyectado a 1D las clases son linealmente separables. y 26
27 Clasificación con LDA Hasta ahora LDA se ha empleado como una técnica de reducción de dimensionalidad; aunque puede extenderse fácilmente para clasificar patrones. Para el caso de dos clases, se genera un hiperplano de decisión que sea ortogonal al vector de proyecciones w y que sea equidistante a las medias de cada clase m 1 y m 2. La función discriminante lineal está dada por: g(x) = (x 1 2 (m 1 + m 2 ))T S W 1 (m 1 m 2 ) (37) donde la regla de decisión es: Decidir ω 1 si g(x) > 0 ω 2 otro caso (38) 27
28 Clasificación con LDA g(x) = 0 x 2 x 2 w x 1 Clasificación con LDA para clases linealmente separables (izquierda) y no linealmente separables (derecha). x 1 28
29 Clasificación con KLDA Cuando el problema de clasificación no pueden ser resuelto usando funciones discriminante lineales directamente sobre el espacio de características original se pueden utilizar el método kernel LDA (KLDA). La regla de clasificación KLDA para un patrón arbitrario x' es: y = sgn(α T K(X, x ) b) (39) donde sgn( ) es la función signo, X es el conjunto de patrones de entrenamiento y el bias se calcula como: b = 1 2 αt K t e (40) donde K t es la matriz kernel de los datos de entrenamiento y el vector e=[e 1,,e N ] T se expresa como: e i = 1 N + si y i = +1 1 N si y i = 1 (41) 29
30 Clasificación con KLDA x 2 x 2 x 1 Clasificación con KLDA para clases no linealmente separables utilizando kernel Gaussiano (izquierda) y polinomial de orden 2 (derecha). x 1 30
Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Más detallesAnálisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Máquinas de vectores de soporte Profesor: Dr. Wilfrido Gómez Flores 1 Introducción En el caso de clases linealmente separables, existen infinitos hiperplanos de decisión que separan correctamente
Más detallesAnálisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Más detallesAnálisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como
Más detallesAnálisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Más detallesElementos de máquinas de vectores de soporte
Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos
Más detallesTema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)
Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:
Más detallesDiagonalización de matrices
7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,
Más detallesAnálisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente
Más detallesMATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden.
MATEMÁTICAS ESPECIALES II - 8 PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. Considere el sistema de ecuaciones diferenciales ordinarias (EDOs) de primer orden dx dt = f (t,
Más detallesA = [a 1 a 2 a 3. El sistema Ax = c tiene infinitas soluciones N. Existe un único vector x tal que T (x) = c X. T es suprayectiva
Asignatura: ÁLGEBRA LINEAL Fecha: 6 de Julio de Fecha publicación notas: 6 de Julio de Fecha revisión examen: de Julio de Duración del examen: horas y media APELLIDOS Y NOMBRE: DNI: Titulación:. ( punto:,
Más detallesAPÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
Más detallesSupport Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Más detallesProblemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10
Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas Curso 2009/10 Hoja 1 Preliminares 1 Resuelve los siguientes sistemas de ecuaciones de números complejos: { z 1 + iz 2 = 1 i 3z 1 + (1
Más detallesMATRICES Y SISTEMAS DE ECUACIONES
MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n A = a 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales
Más detallesEigenvalores y eigenvectores
Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre
Más detallesSistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Más detallesMáquinas de Vectores de Soporte
Máquinas de Vectores de Soporte Support Vector Machines (SVM) Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería, UdelaR 2018 Schölkopf
Más detallesCOMPONENTES PRINCIPALES
COMPONENTES PRINCIPALES Jorge Galbiati R. El método de Componentes Principales tiene por objeto reducir la dimensionalidad de un problema de múltiples variables, aplicando una sucesión de transformaciones
Más detallesTEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS
Procesado y Análisis de Datos Ambientales. Curso 2009-2010. José D. Martín, Emilio Soria, Antonio J. Serrano TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS ÍNDICE Introducción. Selección de variables.
Más detallesUNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018
UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 I. Sistemas homogéneos, subespacios, dependencia e independencia lineal 1. En cada caso
Más detallesPráctica 1: Sistemas de Ecuaciones Lineales - Matrices
ALGEBRA LINEAL Primer Cuatrimestre 2017 Práctica 1: Sistemas de Ecuaciones Lineales - Matrices En todas las prácticas, K es un cuerpo; en general K = Q (los números racionales, R (los números reales o
Más detallesTEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Más detallesPodemos pues formular los dos problemas anteriores en términos de matrices.
Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión
Más detallesAnálisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
Más detallesAprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur
Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur Aprendizaje de distancias Kilian Q. Weinberger, Lawrence K. Saul: Distance Metric Learning for Large Margin
Más detallesUNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL
1. Definiciones básicas. UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL I. Sistemas homogéneos y subespacios de R n. (a) Para el sistema
Más detallesEjercicios resueltos de Álgebra, hoja 2. Beatriz Graña Otero
Ejercicios resueltos de Álgebra, hoja 2. Beatriz Graña Otero 11 de Diciembre de 2008 2 B.G.O. 104.- Determina si los siguientes subconjuntos del espacio vectorial correspondiente son subvariedades afines:
Más detallesModelos de Scoring para Riesgo de Crédito
Modelos de Scoring para Riesgo de Crédito Los modelos de scoring de riesgo, dentro del proceso de otorgamiento de crédito, están orientados a anticipar comportamiento futuro. Podemos dividirlos en tres
Más detallesSe pide: (b) Ecuaciones que permiten obtener las coordenadas cartesianas en R en función de las de R.
ÁLGEBRA Práctica 13 Espacios afines E 2 y E 3 (Curso 2004 2005) 1. En un espacio afín real de dimensión 3, se consideran dos sistemas de referencia R = {O, ē 1, ē 2, ē 3 } y R = {P, ū 1, ū 2, ū 3 }, donde
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Más detallesDefinición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.
Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................
Más detallesMATRICES Y SISTEMAS DE ECUACIONES
MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n a A = 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales
Más detallesEjercicios de Ampliación de Geometría. Hoja 2
Ejercicios de Ampliación de Geometría Licenciatura en Ciencias Matemáticas, 2 Curso 27 de Octubre de 2008 Hoja 2 Dualidad y radiaciones. 1. Formular y resolver en el espacio proyectivo dual los siguientes
Más detallesClasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
Más detallesÁlgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales
Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales (1) Sea n N. Mostrar que el conjunto de polinomios sobre R de grado menor que n es un subespacio vectorial de R[x]. Este
Más detallesEsta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )
Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder
Más detalles2 + c c 4. Solución: Nótese que la ecuación vectorial que verifican los pesos se puede escribir matricialmente como.
Asignatura: ÁLGEBRA LIEAL Fecha: 9 de Julio de 0 Fecha publicación notas: 5 de Julio de 0 Fecha revisión examen: 8 de Julio de 0 Duración del examen: horas APELLIDO Y OMBRE: DI: Titulación:. (0,5 puntos)
Más detallesa) Lo primero que hacemos es buscar las imágenes de los vectores de la base canónica: f(1,0,0) = (3, 5, 6) f(0,1,0) = ( 2, 3, 4) f(0,0,1) = (1, 2, 3)
. Sea f: R 3 R 3 la aplicación lineal definida por las ecuaciones: f(x, y, z) = (3x y + z, 5x 3y + z, 6x 4y + 3z) a) Encontrar la matriz A de f en las bases canónicas. b) Es f biyectiva? Si lo es, encontrar
Más detallesINTRODUCCIÓN A LOS ESPACIOS DE FUNCIONES. Problemas
Problemas Curso 2013-2014 Problemas 1. Sea E un espacio normado. Si a, b son elementos de E, probar: (a) 1 2 (a + b) 2 1 2 a 2 + 1 2 b 2. (b) a max{ a + b, a b }. 2. Demostrar que en un espacio normado,
Más detallesPRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I. Soluciones. Suponer que x, y, z y t son escalares tales que, xh + yi + ze + tf = T.
PRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I Soluciones Sea W un espacio vectorial real de dimensión 2 y sea {u, u 2 } una base dada. Considerar las transformaciones lineales H, I, E, F EndW ) definidas de la
Más detallesÁLGEBRA LINEAL. EXAMEN EXTRAORDINARIO 5 de Julio de T (e 1 ) = e 1 e 2 + 2e 3 T (e 2 ) = e 1 + 2e 2 3e 3. [T (e 1 ) T (e 2 )] =
ÁLGEBRA LINEAL EXAMEN EXTRAORDINARIO 5 de Julio de Apellidos y Nombre: Ejercicio. Sea T : R R 3 una transformación lineal definida como: T (e ) = e e + e 3 T (e ) = e + e 3e 3 donde {e, e }, {e, e, e 3}
Más detallesMatemáticas para la Empresa
Matemáticas para la Empresa 1 o L. A. D. E. Curso 2008/09 Relación 1. Espacios Vectoriales 1. a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy)
Más detallesEjercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y
Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS Ejercicios tipo test de las lecciones 1 y 2. 1. El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1,
Más detallesÁlgebra y Álgebra II - Primer Cuatrimestre 2018 Práctico 4 - Espacios Vectoriales
Álgebra y Álgebra II - Primer Cuatrimestre 2018 Práctico 4 - Espacios Vectoriales (1) Decidir si los siguientes conjuntos son R-espacios vectoriales con las operaciones abajo denidas. (a) R n con v w =
Más detalles14 Sistemas lineales de ecuaciones diferenciales con coeficientes
Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 14 Sistemas lineales de ecuaciones diferenciales con coeficientes constantes 14.1 Definición Se llama sistema lineal con coeficientes constantes al
Más detallesTERCER EXAMEN PARCIAL ALGEBRA LINEAL I 23 DE MAYO DE 2014 (CON SOLUCIONES)
TERCER EXAMEN PARCIAL ALGEBRA LINEAL I 23 DE MAYO DE 2014 (CON SOLUCIONES) Instrucciones: Resolver los 5 problemas justificando todas sus afirmaciones y presentando todos sus cálculos. 1. Sea F un campo.
Más detallesMatrices. Operaciones con matrices.
Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =
Más detallesREPASO DE ALGEBRA VECTORIAL
REPASO DE ALGEBRA VECTORIAL Vectores en R 2 : Un vector v en el plano R 2 = XY es un par ordenado de números reales (a,b). Los números reales a y b se llaman componentes del vector v. El vector cero es
Más detallesMATEMÁTICAS I 2º EXAMEN PARCIAL 12 junio de 2009
Sólo una respuesta a cada cuestión es correcta. Respuesta correcta: 0.2 puntos. Respuesta incorrecta: -0.1 puntos Respuesta en blanco: 0 puntos 1.- Un sistema generador G de R 3 : a) Está constituido por
Más detallesEjemplos de funciones de covarianza
Capítulo 5 Ejemplos de funciones de covarianza De lo explicado hasta el momento, se concluye que la regresión basada en Procesos Gaussianos se reduce a calcular la matriz de covarianza C n a partir de
Más detallesUn conjunto E a,b,c, de elementos (llamados vectores) se dice que constituye. (a,b) (a',b') (a a',b b')
ESPACIOS VECTORIALES Un conjunto E a,b,c, de elementos (llamados vectores) se dice que constituye un espacio vectorial sobre un cuerpo conmutativo K (que generalmente es el cuerpo de los reales) si se
Más detallesMATRICES Y SISTEMAS DE ECUACIONES
MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n a A = 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales
Más detallesRelación 1. Espacios vectoriales
MATEMÁTICAS PARA LA EMPRESA Curso 2007/08 Relación 1. Espacios vectoriales 1. (a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy) Demuestra que IR
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesMÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Más detallesMétodo de mínimo cuadrados (continuación)
Clase No. 10: Método de mínimo cuadrados (continuación) MAT 251 Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/
Más detallesAlgebra Lineal. 1er. cuatrimestre 2006 PRACTICA 3. I) Ejercicio olvidado Práctica 2. Sea A = i) Comprobar que det(a) =
1er. cuatrimestre 2006 Algebra Lineal PRACTICA 3. I) Ejercicio olvidado Práctica 2. Sea A = 1 2 3 4 10 13 14 15 12 9 14 15 12 13 8 15 i) Comprobar que det(a) = 10648. ii) Hallar los cuerpos Z p tales que
Más detallesSOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO
SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO 013-014 1 0 Ejercicio 1º.- Dada la matriz: A 1 1 a) (1,5 puntos) Determina los valores de λ para los
Más detallesOpción A. 1. Calcular el valor de los parámetros c y d sabiendo que la gráfica de la función ff: R R
Nota sobre la puntuación de las preguntas: Los puntos asignados a las distintas preguntas son orientativos. En muchos casos, las preguntas pueden contestarse de varias formas distintas y el corrector debe
Más detallesTema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV
ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission
Más detallesALGEBRA LINEAL - Práctica N 1 - Segundo cuatrimestre de 2017 Espacios Vectoriales
Departamento de Matemática - Facultad de Ciencias Exactas y Naturales - UBA 1 ALGEBRA LINEAL - Práctica N 1 - Segundo cuatrimestre de 2017 Espacios Vectoriales Ejercicio 1. Resolver los siguientes sistemas
Más detallesÁgueda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1. Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación
Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 6 Espacios euclídeos 6.1 Producto escalar. Espacio euclídeo Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación
Más detallesALGEBRA LINEAL - Práctica N 2 - Segundo Cuatrimestre de 2016
Departamento de Matemática - Facultad de Ciencias Exactas y Naturales - UBA 1 ALGEBRA LINEAL - Práctica N 2 - Segundo Cuatrimestre de 2016 Espacios Vectoriales 1. Sea V un espacio vectorial sobre K k K
Más detallesMaterial para el examen parcial 1
Algebra Lineal 2, FAMAT-UG, aug-dic, 2009 Material para el examen parcial 1 (17 oct, 2009) Definiciones: Hay que saber las definiciones precisas de todos los siguientes términos, y conocer ejemplos concretos
Más detalles4.5 Algoritmo RLS (Recursive Least Squares)
4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de
Más detallesAP = A p 1 p 2 p n = Ap 1 Ap 2. λ 1 p 21 λ 2 p 22 λ n p 2n. .. = λ 1 p 1 λ 2 p 2
Capítulo 6 Diagonalización 6 Valores y vectores propios 6 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V, nos planteamos el problema
Más detallesAnuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales.
Anuladores Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales. Requisitos. Espacio dual, espacio bidual, base dual.. Definición (anulador de un subconjunto de un espacio
Más detalles6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
Más detalles11.SISTEMAS DE ECUACIONES LINEALES DEFINICIÓN DE ECUACIÓN LINEAL DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN
ÍNDICE 11SISTEMAS DE ECUACIONES LINEALES 219 111 DEFINICIÓN DE ECUACIÓN LINEAL 219 112 DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN 220 113 EQUIVALENCIA Y COMPATIBILIDAD 220 11 REPRESENTACIÓN MATRICIAL
Más detallesEduardo Morales, Jesús González, Hugo Jair Escalante
Eduardo Morales, Jesús González, Hugo Jair Escalante INAOE 2017 (INAOE) 1 / 83 Contenido 1 2 3 4 5 6 7 8 (INAOE) 2 / 83 Se presentó en COLT-92 (Boser, Guon, Vapnik) Por un tiempo desbancó a las redes neuronales
Más detallesDEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES
ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas
Más detallesTema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
Más detallesReconocimiento automático de rostros
Reconocimiento automático de rostros Ponente: Dr. Wilfrido Gómez Flores Investigador CINVESTAV wgomez@tamps.cinvestav.mx Ciudad Victoria,, 15 de junio de 2016 1 Introducción 2 Reconocimiento de rostros
Más detallesTema 7 (Resultados).- Matrices simétricas reales y formas cuadráticas.
Ingenierías: Aeroespacial, Civil y Química Matemáticas I - Departamento de Matemática Aplicada II Escuela Superior de Ingenieros Universidad de Sevilla Tema 7 (Resultados)- Matrices simtricas reales y
Más detallesTema 6: Funciones de varias variables
Tema 6: Funciones de varias variables de febrero de 6 Preliminares: derivadas parciales. Sea F una función de dos variables, como por ejemplo la función definida por F(x; y) = x y 3 Podemos derivarla con
Más detallesReconocimiento automático de rostros
Reconocimiento automático de rostros Ponente: Dr. Wilfrido Gómez Flores Investigador CINVESTAV wgomez@tamps.cinvestav.mx Ciudad Victoria,, 7 de junio de 2017 1 Introducción 2 Reconocimiento de rostros
Más detallesEjercicios desarrollados
Algebra FCE Primer Parcial EMA 3 6-0 - 7 Ejercicios desarrollados x 6 y a z ) Sea L : y el plano que contiene al punto P (4; 5;4) y es ortogonal al vector ( 3; ;) b a) Hallar a y b sabiendo que P (4; 5;4)
Más detallesSISTEMAS LINEALES DE ECUACIONES DIFERENCIALES HOMOGÉNEAS DE PRIMER ORDEN
SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES HOMOGÉNEAS DE PRIMER ORDEN Alejandro Lugon 26 de mayo de 2010 1. Ecuaciones planares: dos dimensiones El sistema homogéneo: ẋ a 11 x + a 12 y (1) ẏ a 21 x
Más detallesUD 1: NÚMEROS REALES Y COMPLEJOS
UD 1: NÚMEROS REALES Y COMPLEJOS 1. Qué es un número? Para qué sirve? 2. Haz una breve historia de los conjuntos numéricos, por qué surgen cada uno. 3. Cómo clasificarías todos los números que conoces?
Más detallesDiagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios
61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial
Más detallesDIAGRAMAS DE FASE DE SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
DIAGRAMAS DE FASE DE SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Alejandro Lugon 26 de mayo de 2010 1. Ecuaciones planares: dos dimensiones Las soluciones del sistema homogéneo: ẋ = ax
Más detallesGrado en Ciencias Ambientales. Matemáticas. Curso 11/12
Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Problemas Tema 1. Espacios Vectoriales. 1 Repaso de Estructuras Algebraicas 1.1. Construye explícitamente el conjunto A B, siendo A = {1, 2, 3},
Más detallesEJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES
EJERCICIOS DE ÁLGEBRA LINEAL TEMA ESPACIOS VECTORIALES Formas reducidas y escalonada de una matriz SISTEMAS DE ECUACIONES LINEALES ) Encuentre una sucesión de matrices elementales E, E,..., E k tal que
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial
Más detalles1. Determinantes de orden dos y tres:
1. Determinantes de orden dos y tres: TEMA 8: DETERMINANTES. A una matriz cuadrada le vamos a asociar un número que servirá para resolver sistemas, calcular matrices inversas y rangos de matrices. A det
Más detallesANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesDISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)
Más detalles(x x 0 ) y 0. O bien z z 0 = x 0. y notamos a este límite ᾱ (t 0 ) = dᾱ dt (t 0).
O bien z z 0 = x 0 z 0 (x x 0 ) y 0 z 0 (y y 0 ). Para obtener la ecuación cartesiana de este plano hacemos x 0 (x x 0 )+y 0 (y y 0 )+z 0 (z z 0 ) = 0, como x 0 + y0 + z0 = x 0 + y0 + r (x 0 + y0) = r
Más detallesÁlgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas
Álgebra Lineal Tema 3. Mínimos cuadrados Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Índice
Más detallesTema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
Más detallesExtensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f
1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x
Más detalles