Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV
|
|
- Mercedes Carrasco Acosta
- hace 6 años
- Vistas:
Transcripción
1 ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission of the authors Febrero-Mayo 007
2 INDICE INRODUCCIÓN FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN 3 CASO SEPARABLE DE CAEGORÍAS 4 ALGORIMO DE GRADIENE DESCENDENE Función Perceptron Procedimientos De Mínimo Error Cuadrático 5 SV: Support Vector Classifier Caso Lineal Funciones de Kernel SV Non Linear Classifier 6 CONCLUSIONES
3 INRODUCCIÓN Se asume: No se conocen las f.d.p. Se deciden las funciones discriminates salvo parámetros: Funciones lineales respecto al vector de características (como lqd: MAP con distribuciones gaussianas y matrices de covarianza iguales) No lineales: Funciones lineales respecto a conjunto de funciones que a su vez dependen del vector de características de forma no lineal La función discriminante se diseña como resultado de minimizar una función criterio. Propiedades de interés: Eficiencia computacional Convergencia rápida con procedimientos de gradiente descendente, (al utilizar la base de datos de entrenamiento para estimar los parámetros de dichas funciones). 3
4 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Definición de función lineal. g( x) = w x+ w 0 Vector de características Vector de pesos Offset w 0 w x Parámetros a ajustar w w 0 C clases: C funciones discriminantes g ( x) i i 0 i i =.. c = w x+ w 4
5 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Clasificador de c categorías: g ( x) x x x : xd = g ( x) Max(.) Clase A la que pertenece x g ( ) c x 5
6 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Clasificador de categorías: DICOOMIZADOR ω > g( x) 0 < ω 6
7 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN INERPREACIONES GEOMÉRICAS: Las superficies de decisión son hiperplanos. El vector w es ortogonal al hiperplano que separa las zonas de decisión, y por tanto a través de él se determina la orientación de la superficie. El bias w 0 fija la superficie en un punto determinado. La función g(x) da una medida de distancia del vector x al hiperplano: Hiperplano H s : x H g( x) = 0 s x = xp + r w w Proyección de x sobre H s : x p Distancia de x a H s : s 0 ( ) w p w g( x) = w x+ w = w x + r + w = 0 0 w wx + w + wr = g( x) + r = 0+ r w= p ± d( x,h ) w w p w w r = ± d( x,h s) 7
8 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN x x = x + r w p w H s r = d( x,h s) x p x 8
9 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Medida de distancia del vector x al hiperplano: x= xp + r w w g( x) = d( x,h ) w s 9
10 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN w = x w0 = g x+ x = 0 x x Clase Cálculo de las siguientes distancias: ( ) ( ) ( ) d(,0,h ) d(0,0,h) d(,,h ) s s s Clase w s x H : x + x = 0 0
11 FUNCIONES DL y SD: MULICAEGORY CASE Formas de extender el problema a c> clases Multicategory Case: I) c wo class problem II) c(c-)/ two class problems
12 FUNCIONES DL y SD: MULICAEGORY CASE Definitivamente el número de fronteras es <= c(c-)/ hiperplanos ( g x ) ˆ ω = max ( ) i i i
13 3 CASO SEPARABLE DE CAEGORÍAS Caso de dos categorías: ω, ω Augmented Feature Vector: Vector de características aumentado a dimensión+ dˆ = d + y x = dˆ W a = w 0 Función lineal Regla de Decisión: Estrategia para simplificar el algoritmo de búsqueda de la solución. Ejemplo : d =, dˆ = g ( y) = a y ay > < ω ω 0 ω ay > 0 ω ay < 0 y = y ay > 0 k k k k k 3
14 4 ALGORIMO DE GRADIENE DESCENDENE Estrategia de búsqueda del Vector solución o Vector separador: Minimizar una función que depende del vector a mediante un algoritmo de gradiente descendente: CORRECCIÓN PROPORCIONAL AL ERROR ( J( ay )) yn = a J( a) [ k+ ] = [ k] η [ k] ( J( )) min,.. min a ( ) a a a 4
15 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Funciones a Minimizar: FUNCIÓN PERCEPRON. Adecuada para casos Separables E: Conjunto de vectores mal clasificados por a). Batch Algorithm: J p ( a) = ( a y) Jp = ( y) y Ε [ k+ ] = [ k] + η [ k] ( ) a a y y Ε y Ε SIMPLIFICACIÓN: Fixed increment (η constant) single sample perceptron a [ k ] [ k] [ k] [ k] a[ k] y[ k] a + y y Ε + = Ε 5
16 4. ALG. de GRAD. : FUNCIÓN PERCEPRON SIMPLIFICACIÓN: Fixed increment (η constant) single sample perceptron 6
17 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =) single sample perceptron Ejemplo BPSK SNR=5dB ldc Fixed Increment Single Sample Batch Perceptron (4 adapt.) 7
18 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =) single sample perceptron Ejemplo BPSK SNR=0dB ldc η η ( k) = k0 Fixed Increment Single Sample Batch Perceptron (38 adapt.) 8
19 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =0.5) single sample perceptron Ejemplo BPSK SNR=0dB (56 Iteraciones) 9
20 4. ALG. de GRAD. : FUNCIÓN PERCEPRON FUNCIÓN PERCEPRON: FIXED INCREMEN PARA C CLASES. (c(c-)/ funciones) ( ) ( ) ( ) a ; i =.. c a y t a y t > 0 with y t D i i j i y () t = x() t Fixed increment rule (Casos Separables) y( t) Di ai y( t) aj y( t) [ t+ ] = i[ t] + () t [ t+ ] = [ t] () t if and < a a y i a a y j j 0
21 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Función Objetivo: Matriz de vectores Vector de margen b Ya - b 0 s N ( i) ( ) ( ) ( ) [] J a = a y i b = Ya - b = Ya - b Ya - b i= [ ] x [ ] x : d y : : : : : X x[ N] : xd [ N] y [ N] Y = = = X x [] : xd [] y [ N + ] : : : : : x[ N] : xd [ N] [ N+ N] y [ ] Gradiente: J s ( ) a = a Y Ya-b Ya a Y b+ bb s ( ) ( ) ( ) # 0 J a = Y Ya-Y b = a= Y Y Y b= Y b
22 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Solución depende del vector b: Eligiendo el siguiente vector para definir el margen N X w N N Y a b 0 = ; = ; = N X w N N El resultado es equivalente a la Función Discriminante Lineal de Fisher (MDA) ( ) ( ) w 0 = m+ m w w = αsc m m = α' SCS B mi = Ni x c { D D },..., c c ( )( ) S = x m x m = x ( )( ) S + N m m m m = S + S Ci, i i i C B i= i= i i Suma de matrices de dispersión intra-clases Matriz de distancia inter-clases
23 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Solución depende del vector b: Eligiendo el siguiente vector para definir el margen X w0 Y= ; a= ; = b X w El resultado es equivalente a la solución MAP (lqd) N 3
24 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Aplicando el Algoritmo LMS: Función a minimizar s N N ( i) ( []) ( a) a y[] i= i= J = i b = e i Estimación del gradiente ( k) [ ] [ ] [ ] [ ] [ ] J, w k = ayk b yk = e k yk s Ecuación de adaptación a [ k ] a[ k] η [ k] Js, w [ k] [ ] + η [ ] [ ] [ ] + = = ( ) k [ ] a k k b a k y k y k 4
25 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) 5
26 5 SV: Support Vector Classifier Con datos lineales, el SVC es muy similar al algoritmo que minimiza la función de mínimo error cuadrático medio. : Se elige la solución que maximiza el margen de separación entre la frontera y los datos. El margen se define como el ancho del tubo que no contiene muestras y se halla alrededor de la frontera de decisión. El nombre del algoritmo (Support Vector) se debe a que en la solución final hay muy pocas muestras multiplicadas por un factor (multiplicador de Lagrange para el caso no lineal) diferente de cero. Estas muestras corresponden a las más próximas a la frontera. Referencias SV: Pattern Recognition and Machine Learning, Christopher M. BishopSpringer (006). EMAS 6y7 F. Pérez-Cruz and O. Bousquet, (004). Kernel methods and their potential use in signal processing. IEEE SignalProcessing Magazine, (3):57-65, May. 6
27 5. SVC: Caso lineal Función a diseñar: Condiciones a cumplir g( x) = w x+ w 0 wxk + w0 ; if xk D; ck = wxk + w0 ; if xk D; ck = Restricciones: c k ( wx ) k w + 0 Se utilizan multiplicadores de Lagrange: N k = ( ( w x ) ) 0 L= w α c + w ; α 0 k k k k 7
28 5. SVC: Caso lineal En forma Matricial (): Gradiente respecto a los parámetros de lla función: L α c N c w0 c αk k = = ww αφw+ α 0 αc x = : ; Φ = : α Nc N xn L = w αφ = 0 w = αφ w L = α = w c c c 0 () ; Sustituyendo las expresiones anteriores en () se obtiene la forma dual que es la que se debe optimizar (minimizar) respecto a los multiplicadores de Lagrange y con la restricción () L = α αφφα c c α α = : α N 8
29 5. SVC: Funciones de Kernel. Función de Kernel NO lineal: Previamente al diseño de la función discriminante, se realiza una transformación no lineal φ sobre los datos, llamada función base. Se pasa de un espacio vectorial a un espacio de Hilbert, de dimensión mayor d >=d. φ( xn ) φ ( x) φ( xn ) = : ; Φ = : φ x φ x ( ) ( ) d' n N La función de Kernel es igual al producto escalar de los vectores tranformados y a la vez cumple la propiedad: de que depende del producto escalar (inner product) de los vectores de datos. ( xk xn) φ( xk) φ( xn) ( xk xn) K : R d R K, = = f La matriz de Kernel (NxN) contiene todos los productos escalares entre los N datos. En general la matriz de Kernel debe marcar diferencias entre productos de elementos de una misma clase y productos de elementos de clases diferentes. ( x, x ) : K( x, x ) K N K = : : : = ΦΦ K( N, ) : K( N, N) x x x x 9
30 30
31 5. SVC: Funciones de Kernel. Ejemplos: ransformación no lineal φ sobre los datos Gaussiana: Función base polinomio de segundo grado K ( ) φ x ( xn [] ) x [] x [ ] x [ d] xn [] = φ = xn [ ] ( n ) n n n ( xk, xn) = φ ( xk) φ( xn) = ( x xn) Kernel Gaussiano (Función base radial ya que solo depende de la distancia eucídea). K ( ) ( ) ( ) ( ) xk, xn = φ xk φ xn = exp xk xn La mayor dificultad al aplicar SVC no lineal, consiste en hallar la función de Kernel decuada que trasnsforme los datos a un nuevo espacio en el que si sean separables linealmente. El tipo de función depende de la aplicación. k σ 3
32 5.3 SVC: Non Linear Classifier El clasificador SV no lineal se diseña en dos etapas:.- ransformación no lineal sobre los datos.- Desarrollo del algoritmo SV de forma lineal sobre los nuevos vectores de datos transformados. Función a diseñar: g( x) ( ) w0 = w φ x + Función a minimizar (): N = ww αφw c + 0αc k k = L w α ; Operando de forma análoga que con el método lineal: L = α αφφα = α α Kα α 0 c c c c c = 3
33 6 CONCLUSIONES BÚSQUEDA DE DISCRIMINANE LINEAL INERPREACIONES GEOMÉRICAS: El discriminante lineal mide la distancia de los vectores al hiperplano separador C= categorías separables: Algoritmo de Gradiente descendente mediante la función perceptron, Generalizable a más categorías. C= categorías NO separables: Algoritmo de MMSE LMS,Generalizable a más categorías C> Categorías: Se plantea el problema como c(c-)/ problemas de dos clases. SV Classifier: NO Lineal: Es útil especialmente en casos no separables linealmente. Dificultad: Hallar la función de Kernel adecuada 33
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Más detallesPROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).
PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP. Optimización con restricciones La presencia de restricciones reduce la región en la cual buscamos el óptimo. Los criterios
Más detallesSVM: Máquinas de Vectores Soporte. Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid
SVM: Máquinas de Vectores Soporte Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Clasificación lineal con modelos lineales 2. Regresión
Más detallesEJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES
EJERCICIOS DE ÁLGEBRA LINEAL TEMA ESPACIOS VECTORIALES Formas reducidas y escalonada de una matriz SISTEMAS DE ECUACIONES LINEALES ) Encuentre una sucesión de matrices elementales E, E,..., E k tal que
Más detallesGUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior
Más detallesIdentificación Paramétrica
Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T11: Métodos Kernel: Máquinas de vectores soporte {jdiez, juanjo} @ aic.uniovi.es Índice Funciones y métodos kernel Concepto: representación de datos Características y ventajas Funciones
Más detallesOPTIMIZACIÓN VECTORIAL
OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de
Más detalles1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE
Practica 1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE I. INTRODUCCION Las planillas de cálculo se han
Más detallesSupport Vector Machine
Juan Carlos Caicedo Juan Carlos Mendivelso Maestria en Ingenieria de Sistemas y Computacion Universidad Nacional de Colombia 20 de marzo de 2007 Agenda 1 2 3 4 Outline 1 2 3 4 Clasificador lineal que utiliza
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesDepartamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c
Programación lineal (+ extensiones). Objetivos y panorama del curso. Departamento de Matemáticas. ITAM. 2008. Introducción Programación lineal http://allman.rhon.itam.mx/ jmorales La programación lineal
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detallesDEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES
ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas
Más detallesTema 2 Datos multivariantes
Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,
Más detallesComparación de métodos de clasificación aplicados a textos Científicos y No Científicos
I. Barbona - Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos Comparison among
Más detallesMÁQUINA DE VECTORES DE SOPORTE
MÁQUINA DE VECTORES DE SOPORTE La teoría de las (SVM por su nombre en inglés Support Vector Machine) fue desarrollada por Vapnik basado en la idea de minimización del riesgo estructural (SRM). Algunas
Más detallesEl método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.
El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.
Más detallesIntroducción a los métodos Kernel
p. 1/3 Introducción a los métodos Kernel Universidad Autónoma de Madrid 29 de abril de 2008 Manel Martínez Ramón Universidad Carlos III de Madrid Departamento de Teoría de la Señal y Comunicaciones Transparencias
Más detallesMáquinas de Vectores de Soporte
Máquinas de Vectores de Soporte Support Vector Machines (SVM) Introducción al Reconocimiento de Patrones IIE - FING - UdelaR 2015 Bishop, Cap. 7 Schölkopf & Smola, Cap 7 Motivación Limitantes del perceptrón:
Más detallesMétodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones
Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Dr. Gonzalo Hernández Oliva UChile - Departamento de Ingeniería Matemática 07 de Mayo 2006 Abstract En este apunte veremos
Más detallesProblemas de Espacios Vectoriales
Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial
Más detallesAlgebra lineal y conjuntos convexos
Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar
Más detallesCálculo en varias variables
Cálculo en varias variables Dpto. Matemática Aplicada Universidad de Málaga Resumen Límites y continuidad Funciones de varias variables Límites y continuidad en varias variables 1 Límites y continuidad
Más detallesELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano
ELEMENTOS DE GEOMETRÍA Eduardo P. Serrano Este Apunte de Clase está dirigido a los alumnos de la materia Elementos de Cálculo Numérico para Biólogos. Tiene por objeto exponer algunos conceptos básicos
Más detallesCombinación lineal, Independencia Lineal, y Vectores que generan (Sección 6.3 pág. 291)
Combinación lineal, Independencia Lineal, y Vectores que generan (Sección 6.3 pág. 291) I. Combinación Lineal Definición: Sean v 1, v 2, v 3,, v n vectores en el espacio vectorial V. Entonces cualquier
Más detallesMAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES
MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.
Más detallesSolución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel
Solución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel Ing Jesús Javier Cortés Rosas M en A Miguel Eduardo González Cárdenas M en A Víctor D Pinilla Morán Facultad de Ingeniería,
Más detallesADALINE Y PERCEPTRON
Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.
Más detallesGrado en Química Bloque 1 Funciones de una variable
Grado en Química Bloque Funciones de una variable Sección.7: Aproximación de funciones. Desarrollo de Taylor. Aproximación lineal. La aproximación lineal de una función y = f(x) en un punto x = a es la
Más detallesProblemas métricos. Ángulo entre rectas y planos
Problemas métricos Ángulo entre rectas y planos Ángulo entre dos rectas El ángulo que forman dos rectas es el ángulo agudo que determinan entre sí sus vectores directores. Dos rectas son perpendiculares
Más detallesOPTIMIZACIÓN EXPERIMENTAL. Ing. José Luis Zamorano E.
OPTIMIZACIÓN EXPERIMENTAL Ing. José Luis Zamorano E. Introducción n a la metodología de superficies de respuesta EXPERIMENTACIÓN: Significa variar deliberadamente las condiciones habituales de trabajo
Más detallesPROGRAMACIÓN NO LINEAL INTRODUCCIÓN
PROGRAMACIÓN NO LINEAL Conceptos generales INTRODUCCIÓN Una suposición importante de programación lineal es que todas sus funciones Función objetivo y funciones de restricción son lineales. Aunque, en
Más detallesRepresentación en el espacio de estado. Sistemas Control Embebidos e Instrumentación Electrónica UNIVERSIDAD EAFIT
Representación en el espacio de estado Representación en espacio de estado Control clásico El modelado y control de sistemas basado en la transformada de Laplace, es un enfoque muy sencillo y de fácil
Más detallesCapítulo 8. Análisis Discriminante
Capítulo 8 Análisis Discriminante Técnica de clasificación donde el objetivo es obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables
Más detallesProblemas métricos. 1. Problemas afines y problemas métricos
. Problemas afines y problemas métricos Al trabajar en el espacio (o análogamente en el plano) se nos pueden presentar dos tipos de problemas con los elementos habituales (puntos, rectas y planos): Problemas
Más detalles4.7 Igualación de canal (no ciega)
4.7 Igualación de canal (no ciega) Introducción Clasificaciones Estructuras de Igualación Igualación de secuencias Igualación símbolo a símbolo Igualación como clasificación Igualación adaptativa Modo
Más detallesDISEÑO CURRICULAR ALGEBRA LINEAL
DISEÑO CURRICULAR ALGEBRA LINEAL FACULTAD (ES) CARRERA (S) Ingeniería Computación y Sistemas CÓDIGO HORAS TEÓRICAS HORAS PRÁCTICAS UNIDADES DE CRÉDITO SEMESTRE 122443 02 02 03 II PRE-REQUISITO ELABORADO
Más detallesMétodo de cuadrados mínimos
REGRESIÓN LINEAL Gran parte del pronóstico estadístico del tiempo está basado en el procedimiento conocido como regresión lineal. Regresión lineal simple (RLS) Describe la relación lineal entre dos variables,
Más detallesFormulación variacional de la estimación del movimiento en uidos incompresibles a partir de secuencias PIV
Formulación variacional de la estimación del movimiento en uidos incompresibles a partir de secuencias PIV Luis Alvarez Univ. Las Palmas de G.C. Mayo 2009 Luis Alvarez (Univ. Las Palmas de G.C. ) Modelos
Más detallesEcuaciones de la recta en el espacio
Ecuaciones de la recta en el espacio Ecuación vectorial de la recta Sea P(x 1, y 1 ) es un punto de la recta r y uu su vector director, el vector PPXX tiene igual dirección que uu, luego es igual a uu
Más detallesMatrices y determinantes
Matrices y determinantes 1 Ejemplo Cuál es el tamaño de las siguientes matrices? Cuál es el elemento a 21, b 23, c 42? 2 Tipos de matrices Matriz renglón o vector renglón Matriz columna o vector columna
Más detallesFASCÍCULO: SISTEMAS DE ECUACIONES LINEALES
FASCÍCULO: SISTEMAS DE ECUACIONES LINEALES Una de las aplicaciones más famosas del concepto de determinante es el método para resolver sistemas de m ecuaciones con n incógnitas, aparece en en la publicación
Más detallesTema 3: Espacios vectoriales
Tema 3: Espacios vectoriales K denotará un cuerpo. Definición. Se dice que un conjunto no vacio V es un espacio vectorial sobre K o que es un K-espacio vectorial si: 1. En V está definida una operación
Más detallesNombre de la asignatura : Matemáticas III (Algebra Lineal) Carrera : Ingeniería en Sistemas Computacionales. Clave de la asignatura : ACM-9303
1. D A T O S D E L A A S I G N A T U R A Nombre de la asignatura : Matemáticas III (Algebra Lineal) Carrera : Ingeniería en Sistemas Computacionales Clave de la asignatura : ACM-9303 Horas teoría-horas
Más detallesResumen de Análisis Matemático IV
Resumen de Análisis Matemático IV 1. Funciones inversas e implícitas y extremos condicionados 1.1. Teorema de la función inversa Teorema de la función inversa: Sea A abierto de R n, f : A R n tal que f
Más detallesInteligencia Artificial. Grado en INFORMÁTICA 4º curso. Modalidad: Presencial
Grado en INFORMÁTICA 4º curso Modalidad: Presencial Sumario Datos básicos 3 Breve descripción de la asignatura 4 Requisitos previos 4 Objetivos 4 Competencias 5 Contenidos 6 Metodología 6 Criterios de
Más detallesClase 10: Extremos condicionados y multiplicadores de Lagrange
Clase 10: Extremos condicionados y multiplicadores de Lagrange C.J. Vanegas 7 de abril de 008 1. Extremos condicionados y multiplicadores de Lagrange Estamos interesados en maximizar o minimizar una función
Más detallesRepaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Más detallesEstadística Espacial en Ecología del Paisaje
Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas
Más detallesx^new = x^old + K(b new A new x^old )
El Filtro de Kalman: La idea fundamental del filtro de Kalman es la actualización La llegada de una nueva observación supone un cambio en la mejor estimación mínimo cuatrática del parámetro x Se desea
Más detallesTema 1. Espacios Vectoriales Definición de Espacio Vectorial
Tema 1 Espacios Vectoriales. 1.1. Definición de Espacio Vectorial Notas 1.1.1. Denotaremos por N, Z, Q, R, C, a los conjuntos de los números Naturales, Enteros, Racionales, Reales y Complejos, respectivamente.
Más detallesUNIVERSIDAD DE CANTABRIA TESIS DOCTORAL
UNIVERSIDAD DE CANTABRIA DEPARTAMENTO DE INGENIERÍA DE COMUNICACIONES TESIS DOCTORAL ESTIMACIÓN ÓPTIMA DE SECUENCIAS CAÓTICAS CON APLICACIÓN EN COMUNICACIONES Autor : David Luengo García Directores : Carlos
Más detallesANEXO 1 EJEMPLO DE CALCULO DE RESISTIVIDAD APARENTE. Subestaciones de Media Tensión Curso Fernando Berrutti Staino
ANEXO 1 EJEMPLO DE CALCULO DE RESISTIVIDAD APARENTE Subestaciones de Media Tensión Curso 015 Fernando Berrutti Staino Planteo del problema Se realizan mediciones con un telurímetro en el terreno de una
Más detallesTema 1: Espacios vectoriales
PROBLEMAS DE MATEMÁTICAS Parte I: Álgebra Primero de Ingeniería Química FACULTAD DE CIENCIAS QUÍMICAS Departamento de Matemáticas Universidad de Castilla-La Mancha Tema 1: Espacios vectoriales 1 Determina
Más detallesRectas, planos e hiperplanos
Semestre -8, Algebra Lineal 37 Rectas, planos e hiperplanos Recta P punto de la recta L, d vector no nulo de R n (vector director de la recta) X punto de la recta L PX paralelo a d (PX = td) PX = OX OP
Más detallesMÁQUINAS DE VECTORES DE SOPORTE
MÁQUINAS DE VECTORES DE SOPORTE Introducción Se tiene información de N individuos codificada de la forma Las variables X son vectores que reúnen información numérica del individuo, las variables Y indican
Más detallesUNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA 1272-416/ALGEBRA DE ESTRUCTURAS SEMESTRE:
GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA PROGRAMA: ALGEBRA LINEAL CÓDIGO ASIGNATURA: 1272-521 PRE-REQUISITO: 1272-416/ALGEBRA DE ESTRUCTURAS SEMESTRE: 90-II UNIDADES DE CRÉDITO:
Más detallesPROGRAMA INSTRUCCIONAL
UNIVERSIDAD FERMÍN TORO VICE RECTORADO ACADÉMICO FACULTAD DE INGENIERÍA PROGRAMA INSTRUCCIONAL DATOS BÁSICOS DE LA ASIGNATURA Nombre de la asignatura: Código Semestre U.C. Pre- Requisito ALGEBRA LINEAL
Más detallesDeterminantes. Determinante de orden uno. a 11 = a 11 5 = 5
DETERMINANTES Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno
Más detallesAplicando máquinas de soporte vectorial al análisis de pérdidas no técnicas de energía eléctrica
Facultad de Matemática, Astronomía, Física y Computación Universidad Nacional de Córdoba Trabajo Especial Aplicando máquinas de soporte vectorial al análisis de pérdidas no técnicas de energía eléctrica
Más detallesModelos Estadísticos de Crimen
Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos
Más detallesGuía. Álgebra II. Examen parcial III. Transformaciones lineales. Teoremas los más importantes cuyas demostraciones se pueden incluir en el examen
Guía. Álgebra II. Examen parcial III. Transformaciones lineales. Teoremas los más importantes cuyas demostraciones se pueden incluir en el examen 1. Teorema de la representación matricial de una transformación
Más detallesEstudio e Implementación de una Máquina de Soporte Vectorial.
Estudio e Implementación de una Máquina de Soporte Vectorial. Lázaro Bustio Martínez, Alejandro Mesa Rodríguez lbustio@ccc.inaoep.mx, amesa@ccc.inaoep.mx Resumen. En este trabajo se presentan las Máquinas
Más detallesSupport Vector Machines
Support Vector Machines Separadores lineales Clasificacion binaria puede ser vista como la tarea de separar clases en el espacio de caracteristicas w T x + b > 0 w T x + b = 0 w T x + b < 0 f(x) = sign(w
Más detallesALGEBRA. Escuela Politécnica Superior de Málaga
ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.
Más detallesMétodos Predictivos en Minería de Datos
Métodos Predictivos en Minería de Datos Tutor: El curso será impartido por Dr. Oldemar Rodríguez graduado de la Universidad de París IX y con un postdoctorado de la Universidad de Stanford. Duración: Cuatro
Más detallesExpresiones Regulares y Derivadas Formales
y Derivadas Formales Las Derivadas Sucesivas. Universidad de Cantabria Esquema 1 2 3 Derivadas Sucesivas Recordemos que los lenguajes de los prefijos dan información sobre los lenguajes. Derivadas Sucesivas
Más detallesMICRODISEÑO CURRICULAR FACULTAD DE CIENCIAS EXACTAS Y APLICADA. Créditos 4 TPS 4 TIS 8 TPT 64 TIT 128
FACULTAD DE CIENCIAS EXACTAS Y APLICADA 1. IDENTIFICACIÓN Asignatura Algebra Lineal Área Ciencias Básicas Código ALX04 Correquisitos Prerrequisitos Créditos 4 TPS 4 TIS 8 TPT 64 TIT 128 2. JUSTIFICACIÓN
Más detallesESPACIOS VECTORIALES
MATEMÁTICA I - - Capítulo 8 ------------------------------------------------------------------------------------ ESPACIOS VECTORIALES.. Espacios Vectoriales y Subespacios... Definición. Un espacio vectorial
Más detallesFACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R.
FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R. PROGRAMA ANALÍTICO DE LA ASIGNATURA: ALGEBRA LINEAL Código L2.07.1 PLAN DE ESTUDIOS: 2002 CARRERA: Licenciatura en Matemática DEPARTAMENTO:
Más detallesRobusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico
Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,
Más detallesPráctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función.
Práctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función. Se suele llamar método de Newton-Raphson al método de Newton cuando se utiliza para calcular los ceros
Más detallesTeoría de la decisión
1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia
Más detallesIntroducción al Diseño de Filtros Digitales
Introducción al Diseño de Filtros Digitales Diego Milone Procesamiento Digital de Señales Ingeniería Informática FICH-UNL 3 de mayo de 2012 Organización de la clase Introducción Concepto y clasificación
Más detallesCIRCUITOS ELÉCTRICOS. Temas:
CIRCUITOS ELÉCTRICOS Temas: - Conceptos generales de circuitos eléctricos, ley de Ohm y de Kirchhoff. - Energía almacenada en bobinas y capacitores. - Teoremas de redes: Thevenin, Norton, superposición,
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detallesEJERCICIOS DE DETERMINANTES
EJERCICIOS DE 1) Si m n = 5, cuál es el valor de cada uno de estos determinantes? Justifica las p q respuestas: 2) Resuelve las siguientes ecuaciones: 3) Calcula el valor de estos determinantes: 4) Halla
Más detallesLas medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la distribución.
CONTENIDO: MEDIDAS DE DISPERSIÓN INDICADOR DE LOGRO: Determinarás y aplicarás, con perseverancia las medidas de dispersión para datos no agrupados y agrupados Guía de trabajo: Las medidas de dispersión
Más detallesESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA
ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA Rubén Solera Ureña, Fernando Pérez-Cruz, Fernando Díaz de María Universidad Carlos III de Madrid Departamento
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detalles4. Control Vectorial. 1. Modelo dinámico del motor de inducción. 2. Control vectorial del motor de inducción. 3. Control vectorial Directo
4. Control Vectorial Control de Máquinas Eléctricas Primavera 2009 1. Modelo dinámico del motor de inducción 2. Control vectorial del motor de inducción 3. Control vectorial Directo 4. Control vectorial
Más detallesEcuaciones Cuadráticas Las ecuaciones cuadráticas se pueden resolver por el método de factorización o utilizando la fórmula cuadrática.
Ejemplos de Ecuaciones Cuadráticas e Inecuaciones Cuadráticas Ecuaciones Cuadráticas Las ecuaciones cuadráticas se pueden resolver por el método de factorización o utilizando la fórmula cuadrática. El
Más detallesAplicación de PCA y técnicas bayesianas a la clasificación de píxeles basada en color
Aplicación de PCA y técnicas bayesianas a la clasificación de píxeles basada en color José M. Soto Hidalgo 1, Jesús Chamorro 2, José M. Palomares 1, Juan Carlos Gámez 1, Joaquín Olivares 1 1 Departamento
Más detallesTeoría Tema 6 Ecuaciones de la recta
página 1/14 Teoría Tema 6 Ecuaciones de la recta Índice de contenido Base canónica en dos dimensiones como sistema referencial...2 Ecuación vectorial de la recta...4 Ecuación paramétrica de la recta...6
Más detallesINTRODUCCION- FILTRO DE WIENER
FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener
Más detallesTema 2 Resolución de EcuacionesNo Lineales
Tema 2 Resolución de Ecuaciones No Lineales E.T.S.I. Informática Indice Introducción 1 Introducción 2 Algoritmo del método de Bisección Análisis del 3 4 5 6 Algoritmo de los métodos iterativos Interpretación
Más detallesÓrdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple
Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.
Más detallesDETERMINANTES Profesor: Fernando Ureña Portero
: CONCEPTO, CÁLCULO DE. Definición: A cada matriz cuadrada A=a ij, de orden n, se le asigna un número real, denominado determinante de A, denotado por A o por det (A). A =det (A)= 1.-Determinante de orden
Más detallesProblemas Tema 3 Solución a problemas de Derivabilidad - Hoja 11 - Todos resueltos
Asignatura: Matemáticas II ºBachillerato página 1/10 Problemas Tema 3 Solución a problemas de Derivabilidad - Hoja 11 - Todos resueltos Hoja 11. Problema 1 1. Se tiene un alambre de 1 m de longitud y se
Más detallesSistem as de ecuaciones lineales
Sistem as de ecuaciones lineales. Concepto, clasificación y notación Un sistema de m ecuaciones lineales con n incógnitas se puede escribir del siguiente modo: a x + a 2 x 2 + a 3 x 3 + + a n x n = b a
Más detallesEstimación de homografías
Estimación de homografías Visión en Robótica 1er cuatrimestre de 2013 1 Introducción del problema Una homografía es una transformación proyectiva que determina una correspondencia entre puntos El problema
Más detallesRESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES
RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 0 REFLEXION Y RESUELVE Resolución de sistemas Ò mediante determinantes y Resuelve, aplicando x x e y, los siguientes sistemas de ecuaciones: 3x 5y 73 a
Más detallesPROGRAMA DE CURSO. Resultados de Aprendizaje
PROGRAMA DE CURSO Código Nombre MA1102 Algebra Lineal Nombre en Inglés Linear Algebra SCT es Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3,0 2,0 5,0 Requisitos MA1101
Más detallesLuis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín.
Bogotá 15 y 16 de Agosto de 2008 EXTRACCIÓN DE PATRONES DE LA ENCUESTA ANUAL MANUFACTURERA COLOMBIANA EMPLEANDO INTELIGENCIA ARTIFICIAL Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica.
Más detallesInstituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal
Instituto tecnológico de Minatitlán Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Alejandra de la cruz francisco Ingeniería en sistemas computacionales
Más detallesUNIVERSIDAD NACIONAL DE RÍO CUARTO FACULTAD DE CIENCIAS EXACTAS, FÍSICO-QUÍMICAS Y NATURALES DEPARTAMENTO DE MATEMÁTICA
UNIVERSIDAD NACIONAL DE RÍO CUARTO FACULTAD DE CIENCIAS EXACTAS, FÍSICO-QUÍMICAS Y NATURALES DEPARTAMENTO DE MATEMÁTICA CARRERA: Licenciatura en Química PLAN DE ESTUDIOS: 2010 ASIGNATURA: Matemática III
Más detalles5 Métodos iterativos para resolver sistemas de ecuaciones lineales
94 5 Métodos iterativos para resolver sistemas de ecuaciones lineales La resolución de sistemas de ecuaciones lineales también puede hacerse con fórmulas iterativas que permiten acercarse a la respuesta
Más detalles1. Lección 9 - Continuidad y Derivabilidad
1. Lección 9 - Continuidad y Derivabilidad 1.1. Continuidad El concepto de continuación es el mismo que el visto en el primer cuatrimestre pero generalizado al caso de los campos escalares. Así, sea la
Más detallesALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República
ALN Repaso matrices In. Co. Facultad de Ingeniería Universidad de la República Definiciones básicas - Vectores Definiciones básicas - Vectores Construcciones Producto interno: ( x, y n i x y i i ' α Producto
Más detalles