Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores"

Transcripción

1 Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1

2 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características que aporta información discriminatoria relevante. La extracción de características es un enfoque de reducción de dimensionalidad para generar un subconjunto de nuevas características aplicando una función de mapeo a las características existentes, tal que se preserve la información o mejore la estructura del espacio original. El problema de extracción de características se define como: dado un espacio de características XX R 2 R M D, encontrar un mapeo Y xxxxxxxxxxxxxxxxx, = f(x) :R D! R E con E<D, tal que el espacio transformado Yxxxxxx 2 R E preserve la información o estructura en R M. R D 2

3 Introducción Dependiendo del criterio evaluado por la función de mapeo, las técnicas de extracción de características se dividen en dos categorías: Representación: mejorar la representación de los patrones de entrada en un espacio de baja dimensionalidad (análisis de componentes principales, PCA) Clasificación: mejorar la discriminación interclase en un espacio de baja dimensionalidad (análisis lineal discriminante, LDA). x 2 Representación (PCA) Clasificación (LDA) x 1 3

4 Análisis lineal discriminante El LDA fue desarrollado por R. A. Fisher en 1936*, también conocido como discriminante lineal de Fisher, es una técnica supervisada utilizada para clasificación de patrones en términos de reducción de dimensionalidad. Determina la combinación lineal de variables que mejor separe las clases al maximizar la relación entre las varianzas inter e intraclase. Sea X={x 1,,x N } un conjunto con N observaciones, donde cada muestra, xk = [x 1,,x D ] T, es un vector de patrones D-dimensional que pertenecen a la clase ω i, para i=1,2,,c. LDA transforma de xxxxxx, X! Y Y={y 1,,y N }, a través de la proyección de las muestras de X sobre un hiperplano con dimensión C 1. Por tanto, reduce la dimensionalidad de los datos de xx a xxxxx, de modo que para el caso de C=2 los patrones se proyectan sobre una recta. R D R C 1 *R. A. Fisher, The use of multiple measurements in taxonomic problems, Annals of Eugenics, vol. 7, no. 2, pp ,

5 Regresión lineal y proyecciones Una función de regresión lineal en el espacio 2D f (x k ;w) = w T x k, k (1) proyecta cada punto del conjunto de muestras x k en R Dd a una recta que es paralela a un vector de proyecciones w que pasa por el origen. y k x 2 x k w x 1 Un punto x k en R 2 es proyectado ortogonalmente en R como y k = w T x k. 5

6 Regresión lineal y proyecciones Considerando que el conjunto de datos está dividido en dos clases, si se varía el vector w se obtienen diferentes niveles de separación entre las clases de lo puntos proyectados. Optimizar la proyección indica que se debe encontrar el vector w que maximice la separación entre las clases proyectadas. LDA realiza una reducción de dimensionalidad preservando tanto como sea posible la información discriminatoria entre las clases. x 2 w x 1 x 2 w x 1 Dos vectores w que generan una mala separación (izquierda) y una separación óptima (derecha) entre dos clases proyectadas. 6

7 LDA para dos clases Sea y=w T x un punto proyectado que pertenece a la clase ω i, con i=1,2. Entonces, los vectores de medias para la clase ω i con N i elementos en los espacios original y proyectado son: y m i = 1 N i N i, i = 1,2 (2) k=1 x k N i!m i = 1 y N k = 1 w T x i N k i k=1 N i k=1 = w T m i (3) Para encontrar el vector de proyecciones óptimo, se puede definir una función objetivo que maximice la distancia entre las medias de las clases de los datos proyectados: J(w) = (!m 1!m 2 ) 2 (4) 7

8 LDA para dos clases x 2!m 1 m 1 buena separación, menor distancia m 2!m 2 distribución de los datos proyectados mayor distancia, mala separación La función objetivo J(w) basada en la distancia interclase no considera la dispersión de los datos. x 1 8

9 LDA para dos clases Para solucionar este inconveniente, la distancia interclase es normalizada por la dispersión intraclase como: J(w) = (!m 1!m 2 )2!s 1 2 +!s 2 2 (5) donde la varianza proyectada de la clase ω i con N i elementos es N i, i = 1,2 (6)!s i 2 = 1 N i (y k!m i ) 2 k=1 Por otro lado, la matriz de dispersión intraclase en el espacio original es S W = S 1 + S 2 (7) y se computa a partir de la matriz de covarianza de cada clase: S i = 1 N i N i (x k m i )(x k m i ) T, i = 1,2 (8) k=1 9

10 LDA para dos clases Entonces, la dispersión de los datos proyectados se puede definir en función de la matriz de dispersión en el espacio original como: N i N i k=1!s 2 i = (y k!m i ) 2 = (w T x k w T m i ) 2 k=1 N i k=1 = w T (x k m i )(x k m i ) T w = w T S i w, i = 1,2 por tanto!s 2 1 +!s 2 2 = w T S W w (10) De manera similar, la diferencia entre las medias proyectadas se puede expresar en términos del espacio original: (!m 1!m 2 ) 2 = (w T m 1 w T m 2 ) 2 = w T (m 1 m 2 )(m 1 m 2 ) T w = w T S B w donde S B es la matriz de dispersión interclase. (9) (11) 10

11 LDA para dos clases Finalmente, el discriminante lineal de Fisher en términos de S W y S B se define como: J(w) = wt S B w w T S W w (12) Para optimizar J(w) se deriva con respecto de w y se iguala a cero: J(w) w = S B w J(w)S W w = 0 y resolviendo el problema generalizado de valores propios S W 1 S B w = λw se tiene que el vector de pesos óptimo es (13) (14) w* = arg max w w T S B w w T S W w (15) 11

12 LDA para dos clases En el caso particular de dos clases, no es necesario resolver para los vectores propios y valores propios de S 1 W S B debido a que SBw siempre tiene en la misma pendiente que el vector m 1 m 2. Por tanto, dado que el factor de escala λ para w no es importante (sino sólo su orientación), se puede encontrar una solución inmediata para w que optimice J(w): w = S W 1 (m 1 m 2 ) (16) Por tanto, se obtiene w para el discriminante lineal de Fisher, de modo que se obtiene la máxima relación de dispersión interclase a dispersión intraclase. 12

13 LDA para dos clases x 2 m 1!m 1 m 2!m 2 w * Se busca la proyección donde los datos de una misma clase sean proyectados de manera compacta y al mismo tiempo que las medias proyectadas de clases distintas se encuentren lo más distante posible. x 1 13

14 LDA para dos clases Ejemplo: computar la proyección LDA para el siguiente conjunto de datos 2D con dos clases: ω 1 :[4,2] T,[2, 4] T,[2,3] T,[3,6] T,[4, 4] T ω 2 :[9,10] T,[6,8] T,[9,5] T,[8,7] T,[10,8] T Los estadísticos de ambas clases son: m 1 = [3.0,3.8] T y m 2 = [8.4,7.6] T S 1 = y S 2 = Las matrices de dispersión inter e intraclase son: S B = y S W = y la inversa de S W es: S W 1 =

15 LDA para dos clases Método 1: la proyección LDA se obtiene resolviendo el problema generalizado de valores propios en (14): S 1 W S B w = λw det( S 1 W S B λi ) = 0 1. Obtener las raíces del polinomio característico: det λ λ = 0 (11.52 λ)(3.72 λ) = 0 λ λ 0.04 = 0 λ 1 = y λ 2 = Resolver el sistema de ecuaciones lineales homogéneas (S W 1 S B λi)w=0 para cada raíz: w 1 = [0.90,0.41] T y w 2 = [0.57, 0.81] T 3. Maximizar el discriminante lineal de Fisher J(w) con los vectores de pesos encontrados: J(w 1 ) = y J(w 2 ) =

16 LDA para dos clases Método 2: la proyección LDA se obtiene de manera directa como: w = S W 1 (m 1 m 2 ) = = [ 2.13, 0.98] T p(y) x 2 ω 1 ω 2 Método 1 Método 2 x 1 y Izquierda: Vector de proyecciones óptimo en el espacio original. Derecha: Proyecciones LDA y sus densidades para cada clase. 16

17 LDA para C clases La generalización del LDA para C clases realiza C 1 proyecciones, de xi=[x 1,,x D ] a y i =[y 1,,y C 1 ], utilizando C 1 vectores de proyecciones, W=[w 1,, w C 1 ]. W 1 W 2 Distribuciones 3D con tres clases proyectadas en un espacio 2D, descrito por los vectores normales W 1 y W 2, donde W 1 obtiene la separación óptima entre las tres clases. 17

18 LDA para C clases La matriz de dispersión intraclase se define como: C S W = S i (17) donde la matriz de covarianza de la i-ésima clase es: i=1 S i = 1 N i N i k=1 y su respectivo vector de medias: (x k m i )(x k m i ) T, i = 1,,C (18) m i = 1 N i N i, i = 1,,C (19) La matriz de dispersión interclase se define como: S B = C i=1 k=1 x k N i (m i m)(m i m) T donde m es la media global de todo el conjunto de datos: m = 1 N N (21) k=1 x k (20) 18

19 LDA para C clases De manera similar, los vectores de medias y las matrices de dispersión de los datos proyectados se definen como: N i!m i = 1 y N k y SW! = (y k!m i )(y k!m i ) T i!m = 1 N N k=1 k=1 y k C i=1 C i=1 N i k=1 y! SB = N i (!m i!m)(!m i!m) T El discriminante lineal de Fisher en términos de S W y S B es: ( ) ( ) J(W) = det( S! B ) det( S! W ) = det W T S B W det W T S W W (22) (23) La matriz de proyecciones óptima es aquella cuyas columnas son los vectores propios generalizados que corresponden con los valores propios más grandes en S W 1 S B w i = λ i w i, i = 1,,C 1 (24) 19

20 p(y 1 ) LDA para C clases p(y) y 1 Proyecciones LDA del conjunto de datos Iris (3 clases y 4 atributos) creado por Fisher, así como sus distribuciones de densidad correspondientes. A la izquierda, proyección sobre la primera componente. A la derecha, proyección sobre las dos primeras componentes. y 1 y 2 20

21 Limitaciones del LDA LDA es un método paramétrico, ya que asume que los patrones presentan distribución normal, de modo que si las distribuciones son significativamente no-gaussianas, LDA no preservará ninguna estructura compleja de los datos. LDA fallará cuando la información discriminatoria no se encuentra en la media sino en la varianza de los datos. LDA produce a lo más C 1 proyecciones, de modo que si el estimado del error de clasificación establece que se requieren más características, se deben utilizar otros métodos que provean estas características adicionales. 21

22 Kernel LDA El LDA puede generalizarse al caso no lineal mediante el método del kernel, tal como se aplica en la SVM. Para realizar proyecciones no lineales, se realiza un mapeo no lineal a un espacio de alta dimensionalidad, H, y después se computa LDA en H. Sea Φ una función de mapeo no lineal hacia algún espacio H; para encontrar el discriminante lineal en H se maximiza J(w) = wt S Φ B w (25) w T S Φ W w Φ Φ w 2 H S B S W donde wwww y y son las matrices de dispersión en H: S B Φ = (m 1 Φ m 2 Φ )(m 1 Φ m 2 Φ ) T (26) S W Φ = N i i=1,2 k=1 (Φ(x k ) m i Φ )(Φ(x k ) m i Φ ) T (27) N i k=1 m i Φ = 1 N i Φ(x k ) (28) 22

23 Kernel LDA Si H es de muy alta, o inclusive infinita dimensionalidad, es imposible resolver el LDA directamente. En vez del mapeo explícito, los datos se mapean implícitamente hacia H mediante una función kernel como: K(a, b) = Φ(a) Φ(b) (29) donde las funciones kernel más comunes son las funciones Gaussiana y polinomial, definidas como: K(a, b) = (a T b + 1) q K(a, b) = exp( γ a b 2 2 ) donde las constantes q>0 y γ>0. (30) (31) El criterio de Fisher J(w) en el espacio H debe formularse en términos de productos escalares de los patrones de entrenamiento los cuales serán reemplazados por una función kernel. 23

24 Kernel LDA Para el caso de dos clases, encontrar el vector de proyecciones no lineal LDA a partir del conjunto de patrones de entrenamiento (y i,x i ), para i=1,,n y XXXXXXX. y i 2 { 1, 1} La proyección de un patrón arbitrario z sobre wwww 2 H está dada por: N i=1 w T Φ(z) = α i K(x i, z) = α T K(X, z) de modo que el criterio de Fisher se reescribe como: J(α) = αt S K B α α T S K W α = w T S Φ B w w T S Φ W w (32) (33) K K donde S B y S W son las matrices de dispersión inter e intraclase, respectivamente, mapeados implícitamente por una función kernel. 24

25 Kernel LDA Dado que el problema de optmización es encontrar el vector α óptimo, entonces una solución directa está dada por: α = (BK t + λi ) 1 y T (34) donde y=[y 1,,y N ] es el vector de salidas deseadas, K t es la matriz kernel de los datos de entrenamiento, λ es un parámetro de regularización, I es la matiz identidad y xxxxxxxxxxxxxxxxx B = M M + M donde M es una matriz diagonal computada como: 2N N si y M (35) ii = i = +1 2N + N si y i = 1 donde N + y N son el número de patrones en las clases +1 y 1, y las matrices M + y M se computan como: M ij + = M ij = 2N (NN + ) si y i = y j = +1 0 otro caso 2N + (NN ) si y i = y j = 1 0 otro caso (36) 25

26 Kernel LDA p(y) x 2 x 1 Izquierda: conjunto de datos 2D no linealmente separable. Derecha: función de densidad de los datos proyectados mediante LDA con kernel Gaussiano. Nótese que en el espacio proyectado a 1D las clases son linealmente separables. y 26

27 Clasificación con LDA Hasta ahora LDA se ha empleado como una técnica de reducción de dimensionalidad; aunque puede extenderse fácilmente para clasificar patrones. Para el caso de dos clases, se genera un hiperplano de decisión que sea ortogonal al vector de proyecciones w y que sea equidistante a las medias de cada clase m 1 y m 2. La función discriminante lineal está dada por: g(x) = (x 1 2 (m 1 + m 2 ))T S W 1 (m 1 m 2 ) (37) donde la regla de decisión es: Decidir ω 1 si g(x) > 0 ω 2 otro caso (38) 27

28 Clasificación con LDA g(x) = 0 x 2 x 2 w x 1 Clasificación con LDA para clases linealmente separables (izquierda) y no linealmente separables (derecha). x 1 28

29 Clasificación con KLDA Cuando el problema de clasificación no pueden ser resuelto usando funciones discriminante lineales directamente sobre el espacio de características original se pueden utilizar el método kernel LDA (KLDA). La regla de clasificación KLDA para un patrón arbitrario x' es: y = sgn(α T K(X, x ) b) (39) donde sgn( ) es la función signo, X es el conjunto de patrones de entrenamiento y el bias se calcula como: b = 1 2 αt K t e (40) donde K t es la matriz kernel de los datos de entrenamiento y el vector e=[e 1,,e N ] T se expresa como: e i = 1 N + si y i = +1 1 N si y i = 1 (41) 29

30 Clasificación con KLDA x 2 x 2 x 1 Clasificación con KLDA para clases no linealmente separables utilizando kernel Gaussiano (izquierda) y polinomial de orden 2 (derecha). x 1 30

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Máquinas de vectores de soporte Profesor: Dr. Wilfrido Gómez Flores 1 Introducción En el caso de clases linealmente separables, existen infinitos hiperplanos de decisión que separan correctamente

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:

Más detalles

Diagonalización de matrices

Diagonalización de matrices 7 Diagonalización de matrices 7.1. Matrices diagonalizables Existen diversos procesos en los que el estado en cada uno de sus pasos se puede representar por un determinado vector y en los que, además,

Más detalles

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Métodos de mínimos cuadrados. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Métodos de mínimos cuadrados Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Recordemos que los clasificadores lineales se utilizan ampliamente debido a que son computacionalmente

Más detalles

MATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden.

MATEMÁTICAS ESPECIALES II PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. MATEMÁTICAS ESPECIALES II - 8 PRÁCTICA 5 Parte I - Sistemas de ecuaciones diferenciales de primer orden. Considere el sistema de ecuaciones diferenciales ordinarias (EDOs) de primer orden dx dt = f (t,

Más detalles

A = [a 1 a 2 a 3. El sistema Ax = c tiene infinitas soluciones N. Existe un único vector x tal que T (x) = c X. T es suprayectiva

A = [a 1 a 2 a 3. El sistema Ax = c tiene infinitas soluciones N. Existe un único vector x tal que T (x) = c X. T es suprayectiva Asignatura: ÁLGEBRA LINEAL Fecha: 6 de Julio de Fecha publicación notas: 6 de Julio de Fecha revisión examen: de Julio de Duración del examen: horas y media APELLIDOS Y NOMBRE: DNI: Titulación:. ( punto:,

Más detalles

APÉNDICE A. Algebra matricial

APÉNDICE A. Algebra matricial APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10

Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas. Curso 2009/10 Problemas de Álgebra Ingeniería Técnica en Informática de Sistemas Curso 2009/10 Hoja 1 Preliminares 1 Resuelve los siguientes sistemas de ecuaciones de números complejos: { z 1 + iz 2 = 1 i 3z 1 + (1

Más detalles

MATRICES Y SISTEMAS DE ECUACIONES

MATRICES Y SISTEMAS DE ECUACIONES MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n A = a 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales

Más detalles

Eigenvalores y eigenvectores

Eigenvalores y eigenvectores Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

Máquinas de Vectores de Soporte

Máquinas de Vectores de Soporte Máquinas de Vectores de Soporte Support Vector Machines (SVM) Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería, UdelaR 2018 Schölkopf

Más detalles

COMPONENTES PRINCIPALES

COMPONENTES PRINCIPALES COMPONENTES PRINCIPALES Jorge Galbiati R. El método de Componentes Principales tiene por objeto reducir la dimensionalidad de un problema de múltiples variables, aplicando una sucesión de transformaciones

Más detalles

TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS

TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS Procesado y Análisis de Datos Ambientales. Curso 2009-2010. José D. Martín, Emilio Soria, Antonio J. Serrano TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS ÍNDICE Introducción. Selección de variables.

Más detalles

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística Álgebra Lineal Ejercicios resueltos- Mayo de 2018 I. Sistemas homogéneos, subespacios, dependencia e independencia lineal 1. En cada caso

Más detalles

Práctica 1: Sistemas de Ecuaciones Lineales - Matrices

Práctica 1: Sistemas de Ecuaciones Lineales - Matrices ALGEBRA LINEAL Primer Cuatrimestre 2017 Práctica 1: Sistemas de Ecuaciones Lineales - Matrices En todas las prácticas, K es un cuerpo; en general K = Q (los números racionales, R (los números reales o

Más detalles

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

Podemos pues formular los dos problemas anteriores en términos de matrices.

Podemos pues formular los dos problemas anteriores en términos de matrices. Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur Aprendizaje de distancias Kilian Q. Weinberger, Lawrence K. Saul: Distance Metric Learning for Large Margin

Más detalles

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL

UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL 1. Definiciones básicas. UNIVERSIDAD DEL NORTE Departamento de Matemáticas y Estadística. Álgebra Lineal. RESUMEN DE TEMAS DEL EXAMEN FINAL I. Sistemas homogéneos y subespacios de R n. (a) Para el sistema

Más detalles

Ejercicios resueltos de Álgebra, hoja 2. Beatriz Graña Otero

Ejercicios resueltos de Álgebra, hoja 2. Beatriz Graña Otero Ejercicios resueltos de Álgebra, hoja 2. Beatriz Graña Otero 11 de Diciembre de 2008 2 B.G.O. 104.- Determina si los siguientes subconjuntos del espacio vectorial correspondiente son subvariedades afines:

Más detalles

Modelos de Scoring para Riesgo de Crédito

Modelos de Scoring para Riesgo de Crédito Modelos de Scoring para Riesgo de Crédito Los modelos de scoring de riesgo, dentro del proceso de otorgamiento de crédito, están orientados a anticipar comportamiento futuro. Podemos dividirlos en tres

Más detalles

Se pide: (b) Ecuaciones que permiten obtener las coordenadas cartesianas en R en función de las de R.

Se pide: (b) Ecuaciones que permiten obtener las coordenadas cartesianas en R en función de las de R. ÁLGEBRA Práctica 13 Espacios afines E 2 y E 3 (Curso 2004 2005) 1. En un espacio afín real de dimensión 3, se consideran dos sistemas de referencia R = {O, ē 1, ē 2, ē 3 } y R = {P, ū 1, ū 2, ū 3 }, donde

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n. Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................

Más detalles

MATRICES Y SISTEMAS DE ECUACIONES

MATRICES Y SISTEMAS DE ECUACIONES MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n a A = 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales

Más detalles

Ejercicios de Ampliación de Geometría. Hoja 2

Ejercicios de Ampliación de Geometría. Hoja 2 Ejercicios de Ampliación de Geometría Licenciatura en Ciencias Matemáticas, 2 Curso 27 de Octubre de 2008 Hoja 2 Dualidad y radiaciones. 1. Formular y resolver en el espacio proyectivo dual los siguientes

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales

Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales Álgebra y Álgebra II - Segundo Cuatrimestre 2017 Práctico 4 - Espacios Vectoriales (1) Sea n N. Mostrar que el conjunto de polinomios sobre R de grado menor que n es un subespacio vectorial de R[x]. Este

Más detalles

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n ) Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder

Más detalles

2 + c c 4. Solución: Nótese que la ecuación vectorial que verifican los pesos se puede escribir matricialmente como.

2 + c c 4. Solución: Nótese que la ecuación vectorial que verifican los pesos se puede escribir matricialmente como. Asignatura: ÁLGEBRA LIEAL Fecha: 9 de Julio de 0 Fecha publicación notas: 5 de Julio de 0 Fecha revisión examen: 8 de Julio de 0 Duración del examen: horas APELLIDO Y OMBRE: DI: Titulación:. (0,5 puntos)

Más detalles

a) Lo primero que hacemos es buscar las imágenes de los vectores de la base canónica: f(1,0,0) = (3, 5, 6) f(0,1,0) = ( 2, 3, 4) f(0,0,1) = (1, 2, 3)

a) Lo primero que hacemos es buscar las imágenes de los vectores de la base canónica: f(1,0,0) = (3, 5, 6) f(0,1,0) = ( 2, 3, 4) f(0,0,1) = (1, 2, 3) . Sea f: R 3 R 3 la aplicación lineal definida por las ecuaciones: f(x, y, z) = (3x y + z, 5x 3y + z, 6x 4y + 3z) a) Encontrar la matriz A de f en las bases canónicas. b) Es f biyectiva? Si lo es, encontrar

Más detalles

INTRODUCCIÓN A LOS ESPACIOS DE FUNCIONES. Problemas

INTRODUCCIÓN A LOS ESPACIOS DE FUNCIONES. Problemas Problemas Curso 2013-2014 Problemas 1. Sea E un espacio normado. Si a, b son elementos de E, probar: (a) 1 2 (a + b) 2 1 2 a 2 + 1 2 b 2. (b) a max{ a + b, a b }. 2. Demostrar que en un espacio normado,

Más detalles

PRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I. Soluciones. Suponer que x, y, z y t son escalares tales que, xh + yi + ze + tf = T.

PRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I. Soluciones. Suponer que x, y, z y t son escalares tales que, xh + yi + ze + tf = T. PRIMER EXAMEN PARCIAL ÁLGEBRA LINEAL I Soluciones Sea W un espacio vectorial real de dimensión 2 y sea {u, u 2 } una base dada. Considerar las transformaciones lineales H, I, E, F EndW ) definidas de la

Más detalles

ÁLGEBRA LINEAL. EXAMEN EXTRAORDINARIO 5 de Julio de T (e 1 ) = e 1 e 2 + 2e 3 T (e 2 ) = e 1 + 2e 2 3e 3. [T (e 1 ) T (e 2 )] =

ÁLGEBRA LINEAL. EXAMEN EXTRAORDINARIO 5 de Julio de T (e 1 ) = e 1 e 2 + 2e 3 T (e 2 ) = e 1 + 2e 2 3e 3. [T (e 1 ) T (e 2 )] = ÁLGEBRA LINEAL EXAMEN EXTRAORDINARIO 5 de Julio de Apellidos y Nombre: Ejercicio. Sea T : R R 3 una transformación lineal definida como: T (e ) = e e + e 3 T (e ) = e + e 3e 3 donde {e, e }, {e, e, e 3}

Más detalles

Matemáticas para la Empresa

Matemáticas para la Empresa Matemáticas para la Empresa 1 o L. A. D. E. Curso 2008/09 Relación 1. Espacios Vectoriales 1. a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy)

Más detalles

Ejercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y

Ejercicios tipo test de las lecciones 1 y El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1, 2, 1) y Álgebra lineal y Geometría I Gloria Serrano Sotelo Departamento de MATEMÁTICAS Ejercicios tipo test de las lecciones 1 y 2. 1. El vector e = ( 1, 0, λ) está en el plano generado por los vectores u = (1,

Más detalles

Álgebra y Álgebra II - Primer Cuatrimestre 2018 Práctico 4 - Espacios Vectoriales

Álgebra y Álgebra II - Primer Cuatrimestre 2018 Práctico 4 - Espacios Vectoriales Álgebra y Álgebra II - Primer Cuatrimestre 2018 Práctico 4 - Espacios Vectoriales (1) Decidir si los siguientes conjuntos son R-espacios vectoriales con las operaciones abajo denidas. (a) R n con v w =

Más detalles

14 Sistemas lineales de ecuaciones diferenciales con coeficientes

14 Sistemas lineales de ecuaciones diferenciales con coeficientes Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 14 Sistemas lineales de ecuaciones diferenciales con coeficientes constantes 14.1 Definición Se llama sistema lineal con coeficientes constantes al

Más detalles

TERCER EXAMEN PARCIAL ALGEBRA LINEAL I 23 DE MAYO DE 2014 (CON SOLUCIONES)

TERCER EXAMEN PARCIAL ALGEBRA LINEAL I 23 DE MAYO DE 2014 (CON SOLUCIONES) TERCER EXAMEN PARCIAL ALGEBRA LINEAL I 23 DE MAYO DE 2014 (CON SOLUCIONES) Instrucciones: Resolver los 5 problemas justificando todas sus afirmaciones y presentando todos sus cálculos. 1. Sea F un campo.

Más detalles

Matrices. Operaciones con matrices.

Matrices. Operaciones con matrices. Matrices. Operaciones con matrices. Ejercicio. Dadas las matrices ( ) ( ) 4 A = B = ( ) C = D = 4 5 ( ) 4 E = F = seleccione las que se pueden sumar y súmelas. Ejercicio. Dadas las matrices ( ) ( ) A =

Más detalles

REPASO DE ALGEBRA VECTORIAL

REPASO DE ALGEBRA VECTORIAL REPASO DE ALGEBRA VECTORIAL Vectores en R 2 : Un vector v en el plano R 2 = XY es un par ordenado de números reales (a,b). Los números reales a y b se llaman componentes del vector v. El vector cero es

Más detalles

MATEMÁTICAS I 2º EXAMEN PARCIAL 12 junio de 2009

MATEMÁTICAS I 2º EXAMEN PARCIAL 12 junio de 2009 Sólo una respuesta a cada cuestión es correcta. Respuesta correcta: 0.2 puntos. Respuesta incorrecta: -0.1 puntos Respuesta en blanco: 0 puntos 1.- Un sistema generador G de R 3 : a) Está constituido por

Más detalles

Ejemplos de funciones de covarianza

Ejemplos de funciones de covarianza Capítulo 5 Ejemplos de funciones de covarianza De lo explicado hasta el momento, se concluye que la regresión basada en Procesos Gaussianos se reduce a calcular la matriz de covarianza C n a partir de

Más detalles

Un conjunto E a,b,c, de elementos (llamados vectores) se dice que constituye. (a,b) (a',b') (a a',b b')

Un conjunto E a,b,c, de elementos (llamados vectores) se dice que constituye. (a,b) (a',b') (a a',b b') ESPACIOS VECTORIALES Un conjunto E a,b,c, de elementos (llamados vectores) se dice que constituye un espacio vectorial sobre un cuerpo conmutativo K (que generalmente es el cuerpo de los reales) si se

Más detalles

MATRICES Y SISTEMAS DE ECUACIONES

MATRICES Y SISTEMAS DE ECUACIONES MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n a A = 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales

Más detalles

Relación 1. Espacios vectoriales

Relación 1. Espacios vectoriales MATEMÁTICAS PARA LA EMPRESA Curso 2007/08 Relación 1. Espacios vectoriales 1. (a) En IR 2 se consideran las operaciones habituales: (x, y) + (x, y ) = (x + x, y + y ) λ(x, y) = (λx, λy) Demuestra que IR

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Método de mínimo cuadrados (continuación)

Método de mínimo cuadrados (continuación) Clase No. 10: Método de mínimo cuadrados (continuación) MAT 251 Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/

Más detalles

Algebra Lineal. 1er. cuatrimestre 2006 PRACTICA 3. I) Ejercicio olvidado Práctica 2. Sea A = i) Comprobar que det(a) =

Algebra Lineal. 1er. cuatrimestre 2006 PRACTICA 3. I) Ejercicio olvidado Práctica 2. Sea A = i) Comprobar que det(a) = 1er. cuatrimestre 2006 Algebra Lineal PRACTICA 3. I) Ejercicio olvidado Práctica 2. Sea A = 1 2 3 4 10 13 14 15 12 9 14 15 12 13 8 15 i) Comprobar que det(a) = 10648. ii) Hallar los cuerpos Z p tales que

Más detalles

SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO

SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO SOLUCIONES A LOS EJERCICIOS DE LOS EXÁMENES DEL COLEGIO DE ÁLGEBRA Y GEOMETRÍA DE MATEMÁTICAS II CURSO 013-014 1 0 Ejercicio 1º.- Dada la matriz: A 1 1 a) (1,5 puntos) Determina los valores de λ para los

Más detalles

Opción A. 1. Calcular el valor de los parámetros c y d sabiendo que la gráfica de la función ff: R R

Opción A. 1. Calcular el valor de los parámetros c y d sabiendo que la gráfica de la función ff: R R Nota sobre la puntuación de las preguntas: Los puntos asignados a las distintas preguntas son orientativos. En muchos casos, las preguntas pueden contestarse de varias formas distintas y el corrector debe

Más detalles

Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV

Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission

Más detalles

ALGEBRA LINEAL - Práctica N 1 - Segundo cuatrimestre de 2017 Espacios Vectoriales

ALGEBRA LINEAL - Práctica N 1 - Segundo cuatrimestre de 2017 Espacios Vectoriales Departamento de Matemática - Facultad de Ciencias Exactas y Naturales - UBA 1 ALGEBRA LINEAL - Práctica N 1 - Segundo cuatrimestre de 2017 Espacios Vectoriales Ejercicio 1. Resolver los siguientes sistemas

Más detalles

Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1. Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación

Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1. Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 6 Espacios euclídeos 6.1 Producto escalar. Espacio euclídeo Se llama producto escalar sobre un espacio vectorial real V a cualquier aplicación

Más detalles

ALGEBRA LINEAL - Práctica N 2 - Segundo Cuatrimestre de 2016

ALGEBRA LINEAL - Práctica N 2 - Segundo Cuatrimestre de 2016 Departamento de Matemática - Facultad de Ciencias Exactas y Naturales - UBA 1 ALGEBRA LINEAL - Práctica N 2 - Segundo Cuatrimestre de 2016 Espacios Vectoriales 1. Sea V un espacio vectorial sobre K k K

Más detalles

Material para el examen parcial 1

Material para el examen parcial 1 Algebra Lineal 2, FAMAT-UG, aug-dic, 2009 Material para el examen parcial 1 (17 oct, 2009) Definiciones: Hay que saber las definiciones precisas de todos los siguientes términos, y conocer ejemplos concretos

Más detalles

4.5 Algoritmo RLS (Recursive Least Squares)

4.5 Algoritmo RLS (Recursive Least Squares) 4.5 Algoritmo RLS (Recursive Least Squares) Método de mínimos cuadrados (LS) Ecuaciones normales Pseudoinversa Variantes del LS Algoritmo RLS (Recursive Least Squares) Introducción Cálculo recursivo de

Más detalles

AP = A p 1 p 2 p n = Ap 1 Ap 2. λ 1 p 21 λ 2 p 22 λ n p 2n. .. = λ 1 p 1 λ 2 p 2

AP = A p 1 p 2 p n = Ap 1 Ap 2. λ 1 p 21 λ 2 p 22 λ n p 2n. .. = λ 1 p 1 λ 2 p 2 Capítulo 6 Diagonalización 6 Valores y vectores propios 6 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V, nos planteamos el problema

Más detalles

Anuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales.

Anuladores. Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales. Anuladores Objetivos. Definir el concepto de anuladores y estudiar sus propiedades principales. Requisitos. Espacio dual, espacio bidual, base dual.. Definición (anulador de un subconjunto de un espacio

Más detalles

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas... Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................

Más detalles

11.SISTEMAS DE ECUACIONES LINEALES DEFINICIÓN DE ECUACIÓN LINEAL DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN

11.SISTEMAS DE ECUACIONES LINEALES DEFINICIÓN DE ECUACIÓN LINEAL DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN ÍNDICE 11SISTEMAS DE ECUACIONES LINEALES 219 111 DEFINICIÓN DE ECUACIÓN LINEAL 219 112 DEFINICIÓN DE SISTEMA LINEAL Y CONJUNTO SOLUCIÓN 220 113 EQUIVALENCIA Y COMPATIBILIDAD 220 11 REPRESENTACIÓN MATRICIAL

Más detalles

Eduardo Morales, Jesús González, Hugo Jair Escalante

Eduardo Morales, Jesús González, Hugo Jair Escalante Eduardo Morales, Jesús González, Hugo Jair Escalante INAOE 2017 (INAOE) 1 / 83 Contenido 1 2 3 4 5 6 7 8 (INAOE) 2 / 83 Se presentó en COLT-92 (Boser, Guon, Vapnik) Por un tiempo desbancó a las redes neuronales

Más detalles

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas

Más detalles

Tema 2 Datos multivariantes

Tema 2 Datos multivariantes Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,

Más detalles

Reconocimiento automático de rostros

Reconocimiento automático de rostros Reconocimiento automático de rostros Ponente: Dr. Wilfrido Gómez Flores Investigador CINVESTAV wgomez@tamps.cinvestav.mx Ciudad Victoria,, 15 de junio de 2016 1 Introducción 2 Reconocimiento de rostros

Más detalles

Tema 7 (Resultados).- Matrices simétricas reales y formas cuadráticas.

Tema 7 (Resultados).- Matrices simétricas reales y formas cuadráticas. Ingenierías: Aeroespacial, Civil y Química Matemáticas I - Departamento de Matemática Aplicada II Escuela Superior de Ingenieros Universidad de Sevilla Tema 7 (Resultados)- Matrices simtricas reales y

Más detalles

Tema 6: Funciones de varias variables

Tema 6: Funciones de varias variables Tema 6: Funciones de varias variables de febrero de 6 Preliminares: derivadas parciales. Sea F una función de dos variables, como por ejemplo la función definida por F(x; y) = x y 3 Podemos derivarla con

Más detalles

Reconocimiento automático de rostros

Reconocimiento automático de rostros Reconocimiento automático de rostros Ponente: Dr. Wilfrido Gómez Flores Investigador CINVESTAV wgomez@tamps.cinvestav.mx Ciudad Victoria,, 7 de junio de 2017 1 Introducción 2 Reconocimiento de rostros

Más detalles

Ejercicios desarrollados

Ejercicios desarrollados Algebra FCE Primer Parcial EMA 3 6-0 - 7 Ejercicios desarrollados x 6 y a z ) Sea L : y el plano que contiene al punto P (4; 5;4) y es ortogonal al vector ( 3; ;) b a) Hallar a y b sabiendo que P (4; 5;4)

Más detalles

SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES HOMOGÉNEAS DE PRIMER ORDEN

SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES HOMOGÉNEAS DE PRIMER ORDEN SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES HOMOGÉNEAS DE PRIMER ORDEN Alejandro Lugon 26 de mayo de 2010 1. Ecuaciones planares: dos dimensiones El sistema homogéneo: ẋ a 11 x + a 12 y (1) ẏ a 21 x

Más detalles

UD 1: NÚMEROS REALES Y COMPLEJOS

UD 1: NÚMEROS REALES Y COMPLEJOS UD 1: NÚMEROS REALES Y COMPLEJOS 1. Qué es un número? Para qué sirve? 2. Haz una breve historia de los conjuntos numéricos, por qué surgen cada uno. 3. Cómo clasificarías todos los números que conoces?

Más detalles

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios 61 Matemáticas I : Álgebra Lineal Tema 6 Diagonalización 61 Valores y vectores propios 611 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial

Más detalles

DIAGRAMAS DE FASE DE SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

DIAGRAMAS DE FASE DE SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN DIAGRAMAS DE FASE DE SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Alejandro Lugon 26 de mayo de 2010 1. Ecuaciones planares: dos dimensiones Las soluciones del sistema homogéneo: ẋ = ax

Más detalles

Grado en Ciencias Ambientales. Matemáticas. Curso 11/12

Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Grado en Ciencias Ambientales. Matemáticas. Curso 11/12 Problemas Tema 1. Espacios Vectoriales. 1 Repaso de Estructuras Algebraicas 1.1. Construye explícitamente el conjunto A B, siendo A = {1, 2, 3},

Más detalles

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES EJERCICIOS DE ÁLGEBRA LINEAL TEMA ESPACIOS VECTORIALES Formas reducidas y escalonada de una matriz SISTEMAS DE ECUACIONES LINEALES ) Encuentre una sucesión de matrices elementales E, E,..., E k tal que

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial

Más detalles

1. Determinantes de orden dos y tres:

1. Determinantes de orden dos y tres: 1. Determinantes de orden dos y tres: TEMA 8: DETERMINANTES. A una matriz cuadrada le vamos a asociar un número que servirá para resolver sistemas, calcular matrices inversas y rangos de matrices. A det

Más detalles

ANALISIS FACTORIAL. Jorge Galbiati R.

ANALISIS FACTORIAL. Jorge Galbiati R. ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)

Más detalles

(x x 0 ) y 0. O bien z z 0 = x 0. y notamos a este límite ᾱ (t 0 ) = dᾱ dt (t 0).

(x x 0 ) y 0. O bien z z 0 = x 0. y notamos a este límite ᾱ (t 0 ) = dᾱ dt (t 0). O bien z z 0 = x 0 z 0 (x x 0 ) y 0 z 0 (y y 0 ). Para obtener la ecuación cartesiana de este plano hacemos x 0 (x x 0 )+y 0 (y y 0 )+z 0 (z z 0 ) = 0, como x 0 + y0 + z0 = x 0 + y0 + r (x 0 + y0) = r

Más detalles

Álgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Tema 13. Mínimos cuadrados. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Tema 3. Mínimos cuadrados Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Índice

Más detalles

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2. Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané

Más detalles

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f

Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) x u + f 1 228 Extensión de la regla de la cadena Funciones diferenciables. z = f(x, y), x = x(u, v, w), y = y(u, v, w) z = f ( x(u, v, w), y(u, v, w) ) z u = f x x u + f y y u z v = f x x v + f y y v z w = f x

Más detalles