Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV"

Transcripción

1 ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission of the authors Febrero-Mayo 007

2 INDICE INRODUCCIÓN FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN 3 CASO SEPARABLE DE CAEGORÍAS 4 ALGORIMO DE GRADIENE DESCENDENE Función Perceptron Procedimientos De Mínimo Error Cuadrático 5 SV: Support Vector Classifier Caso Lineal Funciones de Kernel SV Non Linear Classifier 6 CONCLUSIONES

3 INRODUCCIÓN Se asume: No se conocen las f.d.p. Se deciden las funciones discriminates salvo parámetros: Funciones lineales respecto al vector de características (como lqd: MAP con distribuciones gaussianas y matrices de covarianza iguales) No lineales: Funciones lineales respecto a conjunto de funciones que a su vez dependen del vector de características de forma no lineal La función discriminante se diseña como resultado de minimizar una función criterio. Propiedades de interés: Eficiencia computacional Convergencia rápida con procedimientos de gradiente descendente, (al utilizar la base de datos de entrenamiento para estimar los parámetros de dichas funciones). 3

4 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Definición de función lineal. g( x) = w x+ w 0 Vector de características Vector de pesos Offset w 0 w x Parámetros a ajustar w w 0 C clases: C funciones discriminantes g ( x) i i 0 i i =.. c = w x+ w 4

5 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Clasificador de c categorías: g ( x) x x x : xd = g ( x) Max(.) Clase A la que pertenece x g ( ) c x 5

6 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Clasificador de categorías: DICOOMIZADOR ω > g( x) 0 < ω 6

7 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN INERPREACIONES GEOMÉRICAS: Las superficies de decisión son hiperplanos. El vector w es ortogonal al hiperplano que separa las zonas de decisión, y por tanto a través de él se determina la orientación de la superficie. El bias w 0 fija la superficie en un punto determinado. La función g(x) da una medida de distancia del vector x al hiperplano: Hiperplano H s : x H g( x) = 0 s x = xp + r w w Proyección de x sobre H s : x p Distancia de x a H s : s 0 ( ) w p w g( x) = w x+ w = w x + r + w = 0 0 w wx + w + wr = g( x) + r = 0+ r w= p ± d( x,h ) w w p w w r = ± d( x,h s) 7

8 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN x x = x + r w p w H s r = d( x,h s) x p x 8

9 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN Medida de distancia del vector x al hiperplano: x= xp + r w w g( x) = d( x,h ) w s 9

10 FUNCIONES DISCRIMINANES LINEALES Y SUPERFICIES DE DECISIÓN w = x w0 = g x+ x = 0 x x Clase Cálculo de las siguientes distancias: ( ) ( ) ( ) d(,0,h ) d(0,0,h) d(,,h ) s s s Clase w s x H : x + x = 0 0

11 FUNCIONES DL y SD: MULICAEGORY CASE Formas de extender el problema a c> clases Multicategory Case: I) c wo class problem II) c(c-)/ two class problems

12 FUNCIONES DL y SD: MULICAEGORY CASE Definitivamente el número de fronteras es <= c(c-)/ hiperplanos ( g x ) ˆ ω = max ( ) i i i

13 3 CASO SEPARABLE DE CAEGORÍAS Caso de dos categorías: ω, ω Augmented Feature Vector: Vector de características aumentado a dimensión+ dˆ = d + y x = dˆ W a = w 0 Función lineal Regla de Decisión: Estrategia para simplificar el algoritmo de búsqueda de la solución. Ejemplo : d =, dˆ = g ( y) = a y ay > < ω ω 0 ω ay > 0 ω ay < 0 y = y ay > 0 k k k k k 3

14 4 ALGORIMO DE GRADIENE DESCENDENE Estrategia de búsqueda del Vector solución o Vector separador: Minimizar una función que depende del vector a mediante un algoritmo de gradiente descendente: CORRECCIÓN PROPORCIONAL AL ERROR ( J( ay )) yn = a J( a) [ k+ ] = [ k] η [ k] ( J( )) min,.. min a ( ) a a a 4

15 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Funciones a Minimizar: FUNCIÓN PERCEPRON. Adecuada para casos Separables E: Conjunto de vectores mal clasificados por a). Batch Algorithm: J p ( a) = ( a y) Jp = ( y) y Ε [ k+ ] = [ k] + η [ k] ( ) a a y y Ε y Ε SIMPLIFICACIÓN: Fixed increment (η constant) single sample perceptron a [ k ] [ k] [ k] [ k] a[ k] y[ k] a + y y Ε + = Ε 5

16 4. ALG. de GRAD. : FUNCIÓN PERCEPRON SIMPLIFICACIÓN: Fixed increment (η constant) single sample perceptron 6

17 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =) single sample perceptron Ejemplo BPSK SNR=5dB ldc Fixed Increment Single Sample Batch Perceptron (4 adapt.) 7

18 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =) single sample perceptron Ejemplo BPSK SNR=0dB ldc η η ( k) = k0 Fixed Increment Single Sample Batch Perceptron (38 adapt.) 8

19 4. ALG. de GRAD. : FUNCIÓN PERCEPRON Fixed increment (η =0.5) single sample perceptron Ejemplo BPSK SNR=0dB (56 Iteraciones) 9

20 4. ALG. de GRAD. : FUNCIÓN PERCEPRON FUNCIÓN PERCEPRON: FIXED INCREMEN PARA C CLASES. (c(c-)/ funciones) ( ) ( ) ( ) a ; i =.. c a y t a y t > 0 with y t D i i j i y () t = x() t Fixed increment rule (Casos Separables) y( t) Di ai y( t) aj y( t) [ t+ ] = i[ t] + () t [ t+ ] = [ t] () t if and < a a y i a a y j j 0

21 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Función Objetivo: Matriz de vectores Vector de margen b Ya - b 0 s N ( i) ( ) ( ) ( ) [] J a = a y i b = Ya - b = Ya - b Ya - b i= [ ] x [ ] x : d y : : : : : X x[ N] : xd [ N] y [ N] Y = = = X x [] : xd [] y [ N + ] : : : : : x[ N] : xd [ N] [ N+ N] y [ ] Gradiente: J s ( ) a = a Y Ya-b Ya a Y b+ bb s ( ) ( ) ( ) # 0 J a = Y Ya-Y b = a= Y Y Y b= Y b

22 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Solución depende del vector b: Eligiendo el siguiente vector para definir el margen N X w N N Y a b 0 = ; = ; = N X w N N El resultado es equivalente a la Función Discriminante Lineal de Fisher (MDA) ( ) ( ) w 0 = m+ m w w = αsc m m = α' SCS B mi = Ni x c { D D },..., c c ( )( ) S = x m x m = x ( )( ) S + N m m m m = S + S Ci, i i i C B i= i= i i Suma de matrices de dispersión intra-clases Matriz de distancia inter-clases

23 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Solución depende del vector b: Eligiendo el siguiente vector para definir el margen X w0 Y= ; a= ; = b X w El resultado es equivalente a la solución MAP (lqd) N 3

24 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) Aplicando el Algoritmo LMS: Función a minimizar s N N ( i) ( []) ( a) a y[] i= i= J = i b = e i Estimación del gradiente ( k) [ ] [ ] [ ] [ ] [ ] J, w k = ayk b yk = e k yk s Ecuación de adaptación a [ k ] a[ k] η [ k] Js, w [ k] [ ] + η [ ] [ ] [ ] + = = ( ) k [ ] a k k b a k y k y k 4

25 4. ALG. de GRA: MÍNIMO ERROR CUADRÁICO (A aplicar en casos no separables) 5

26 5 SV: Support Vector Classifier Con datos lineales, el SVC es muy similar al algoritmo que minimiza la función de mínimo error cuadrático medio. : Se elige la solución que maximiza el margen de separación entre la frontera y los datos. El margen se define como el ancho del tubo que no contiene muestras y se halla alrededor de la frontera de decisión. El nombre del algoritmo (Support Vector) se debe a que en la solución final hay muy pocas muestras multiplicadas por un factor (multiplicador de Lagrange para el caso no lineal) diferente de cero. Estas muestras corresponden a las más próximas a la frontera. Referencias SV: Pattern Recognition and Machine Learning, Christopher M. BishopSpringer (006). EMAS 6y7 F. Pérez-Cruz and O. Bousquet, (004). Kernel methods and their potential use in signal processing. IEEE SignalProcessing Magazine, (3):57-65, May. 6

27 5. SVC: Caso lineal Función a diseñar: Condiciones a cumplir g( x) = w x+ w 0 wxk + w0 ; if xk D; ck = wxk + w0 ; if xk D; ck = Restricciones: c k ( wx ) k w + 0 Se utilizan multiplicadores de Lagrange: N k = ( ( w x ) ) 0 L= w α c + w ; α 0 k k k k 7

28 5. SVC: Caso lineal En forma Matricial (): Gradiente respecto a los parámetros de lla función: L α c N c w0 c αk k = = ww αφw+ α 0 αc x = : ; Φ = : α Nc N xn L = w αφ = 0 w = αφ w L = α = w c c c 0 () ; Sustituyendo las expresiones anteriores en () se obtiene la forma dual que es la que se debe optimizar (minimizar) respecto a los multiplicadores de Lagrange y con la restricción () L = α αφφα c c α α = : α N 8

29 5. SVC: Funciones de Kernel. Función de Kernel NO lineal: Previamente al diseño de la función discriminante, se realiza una transformación no lineal φ sobre los datos, llamada función base. Se pasa de un espacio vectorial a un espacio de Hilbert, de dimensión mayor d >=d. φ( xn ) φ ( x) φ( xn ) = : ; Φ = : φ x φ x ( ) ( ) d' n N La función de Kernel es igual al producto escalar de los vectores tranformados y a la vez cumple la propiedad: de que depende del producto escalar (inner product) de los vectores de datos. ( xk xn) φ( xk) φ( xn) ( xk xn) K : R d R K, = = f La matriz de Kernel (NxN) contiene todos los productos escalares entre los N datos. En general la matriz de Kernel debe marcar diferencias entre productos de elementos de una misma clase y productos de elementos de clases diferentes. ( x, x ) : K( x, x ) K N K = : : : = ΦΦ K( N, ) : K( N, N) x x x x 9

30 30

31 5. SVC: Funciones de Kernel. Ejemplos: ransformación no lineal φ sobre los datos Gaussiana: Función base polinomio de segundo grado K ( ) φ x ( xn [] ) x [] x [ ] x [ d] xn [] = φ = xn [ ] ( n ) n n n ( xk, xn) = φ ( xk) φ( xn) = ( x xn) Kernel Gaussiano (Función base radial ya que solo depende de la distancia eucídea). K ( ) ( ) ( ) ( ) xk, xn = φ xk φ xn = exp xk xn La mayor dificultad al aplicar SVC no lineal, consiste en hallar la función de Kernel decuada que trasnsforme los datos a un nuevo espacio en el que si sean separables linealmente. El tipo de función depende de la aplicación. k σ 3

32 5.3 SVC: Non Linear Classifier El clasificador SV no lineal se diseña en dos etapas:.- ransformación no lineal sobre los datos.- Desarrollo del algoritmo SV de forma lineal sobre los nuevos vectores de datos transformados. Función a diseñar: g( x) ( ) w0 = w φ x + Función a minimizar (): N = ww αφw c + 0αc k k = L w α ; Operando de forma análoga que con el método lineal: L = α αφφα = α α Kα α 0 c c c c c = 3

33 6 CONCLUSIONES BÚSQUEDA DE DISCRIMINANE LINEAL INERPREACIONES GEOMÉRICAS: El discriminante lineal mide la distancia de los vectores al hiperplano separador C= categorías separables: Algoritmo de Gradiente descendente mediante la función perceptron, Generalizable a más categorías. C= categorías NO separables: Algoritmo de MMSE LMS,Generalizable a más categorías C> Categorías: Se plantea el problema como c(c-)/ problemas de dos clases. SV Classifier: NO Lineal: Es útil especialmente en casos no separables linealmente. Dificultad: Hallar la función de Kernel adecuada 33

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP).

PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP). PROBLEMAS DE OPTIMIZACIÓN CON RESTRICCIONES. PROBLEMA DE PROGRAMACIÓN NO- LINEAL (NLP. Optimización con restricciones La presencia de restricciones reduce la región en la cual buscamos el óptimo. Los criterios

Más detalles

SVM: Máquinas de Vectores Soporte. Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid

SVM: Máquinas de Vectores Soporte. Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid SVM: Máquinas de Vectores Soporte Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Clasificación lineal con modelos lineales 2. Regresión

Más detalles

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES

EJERCICIOS DE ÁLGEBRA LINEAL TEMA 1 ESPACIOS VECTORIALES EJERCICIOS DE ÁLGEBRA LINEAL TEMA ESPACIOS VECTORIALES Formas reducidas y escalonada de una matriz SISTEMAS DE ECUACIONES LINEALES ) Encuentre una sucesión de matrices elementales E, E,..., E k tal que

Más detalles

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior

Más detalles

Identificación Paramétrica

Identificación Paramétrica Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T11: Métodos Kernel: Máquinas de vectores soporte {jdiez, juanjo} @ aic.uniovi.es Índice Funciones y métodos kernel Concepto: representación de datos Características y ventajas Funciones

Más detalles

OPTIMIZACIÓN VECTORIAL

OPTIMIZACIÓN VECTORIAL OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de

Más detalles

1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE

1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE Practica 1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE I. INTRODUCCION Las planillas de cálculo se han

Más detalles

Support Vector Machine

Support Vector Machine Juan Carlos Caicedo Juan Carlos Mendivelso Maestria en Ingenieria de Sistemas y Computacion Universidad Nacional de Colombia 20 de marzo de 2007 Agenda 1 2 3 4 Outline 1 2 3 4 Clasificador lineal que utiliza

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c

Departamento de Matemáticas. ITAM Programación lineal (+ extensiones). Objetivos y panorama del c Programación lineal (+ extensiones). Objetivos y panorama del curso. Departamento de Matemáticas. ITAM. 2008. Introducción Programación lineal http://allman.rhon.itam.mx/ jmorales La programación lineal

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES ALGEBRA DE MATRICES DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES DEFINICIONES 2 Las matrices y los determinantes son herramientas

Más detalles

Tema 2 Datos multivariantes

Tema 2 Datos multivariantes Aurea Grané Máster en Estadística Universidade Pedagógica 1 Aurea Grané Máster en Estadística Universidade Pedagógica 2 Tema 2 Datos multivariantes 1 Matrices de datos 2 Datos multivariantes 2 Medias,

Más detalles

Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos

Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos I. Barbona - Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos Comparación de métodos de clasificación aplicados a textos Científicos y No Científicos Comparison among

Más detalles

MÁQUINA DE VECTORES DE SOPORTE

MÁQUINA DE VECTORES DE SOPORTE MÁQUINA DE VECTORES DE SOPORTE La teoría de las (SVM por su nombre en inglés Support Vector Machine) fue desarrollada por Vapnik basado en la idea de minimización del riesgo estructural (SRM). Algunas

Más detalles

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex. El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.

Más detalles

Introducción a los métodos Kernel

Introducción a los métodos Kernel p. 1/3 Introducción a los métodos Kernel Universidad Autónoma de Madrid 29 de abril de 2008 Manel Martínez Ramón Universidad Carlos III de Madrid Departamento de Teoría de la Señal y Comunicaciones Transparencias

Más detalles

Máquinas de Vectores de Soporte

Máquinas de Vectores de Soporte Máquinas de Vectores de Soporte Support Vector Machines (SVM) Introducción al Reconocimiento de Patrones IIE - FING - UdelaR 2015 Bishop, Cap. 7 Schölkopf & Smola, Cap 7 Motivación Limitantes del perceptrón:

Más detalles

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones

Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Métodos Clásicos de Optimización para Problemas No-Lineales sin Restricciones Dr. Gonzalo Hernández Oliva UChile - Departamento de Ingeniería Matemática 07 de Mayo 2006 Abstract En este apunte veremos

Más detalles

Problemas de Espacios Vectoriales

Problemas de Espacios Vectoriales Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Cálculo en varias variables

Cálculo en varias variables Cálculo en varias variables Dpto. Matemática Aplicada Universidad de Málaga Resumen Límites y continuidad Funciones de varias variables Límites y continuidad en varias variables 1 Límites y continuidad

Más detalles

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano

ELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano ELEMENTOS DE GEOMETRÍA Eduardo P. Serrano Este Apunte de Clase está dirigido a los alumnos de la materia Elementos de Cálculo Numérico para Biólogos. Tiene por objeto exponer algunos conceptos básicos

Más detalles

Combinación lineal, Independencia Lineal, y Vectores que generan (Sección 6.3 pág. 291)

Combinación lineal, Independencia Lineal, y Vectores que generan (Sección 6.3 pág. 291) Combinación lineal, Independencia Lineal, y Vectores que generan (Sección 6.3 pág. 291) I. Combinación Lineal Definición: Sean v 1, v 2, v 3,, v n vectores en el espacio vectorial V. Entonces cualquier

Más detalles

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.

Más detalles

Solución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel

Solución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel Solución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel Ing Jesús Javier Cortés Rosas M en A Miguel Eduardo González Cárdenas M en A Víctor D Pinilla Morán Facultad de Ingeniería,

Más detalles

ADALINE Y PERCEPTRON

ADALINE Y PERCEPTRON Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.

Más detalles

Grado en Química Bloque 1 Funciones de una variable

Grado en Química Bloque 1 Funciones de una variable Grado en Química Bloque Funciones de una variable Sección.7: Aproximación de funciones. Desarrollo de Taylor. Aproximación lineal. La aproximación lineal de una función y = f(x) en un punto x = a es la

Más detalles

Problemas métricos. Ángulo entre rectas y planos

Problemas métricos. Ángulo entre rectas y planos Problemas métricos Ángulo entre rectas y planos Ángulo entre dos rectas El ángulo que forman dos rectas es el ángulo agudo que determinan entre sí sus vectores directores. Dos rectas son perpendiculares

Más detalles

OPTIMIZACIÓN EXPERIMENTAL. Ing. José Luis Zamorano E.

OPTIMIZACIÓN EXPERIMENTAL. Ing. José Luis Zamorano E. OPTIMIZACIÓN EXPERIMENTAL Ing. José Luis Zamorano E. Introducción n a la metodología de superficies de respuesta EXPERIMENTACIÓN: Significa variar deliberadamente las condiciones habituales de trabajo

Más detalles

PROGRAMACIÓN NO LINEAL INTRODUCCIÓN

PROGRAMACIÓN NO LINEAL INTRODUCCIÓN PROGRAMACIÓN NO LINEAL Conceptos generales INTRODUCCIÓN Una suposición importante de programación lineal es que todas sus funciones Función objetivo y funciones de restricción son lineales. Aunque, en

Más detalles

Representación en el espacio de estado. Sistemas Control Embebidos e Instrumentación Electrónica UNIVERSIDAD EAFIT

Representación en el espacio de estado. Sistemas Control Embebidos e Instrumentación Electrónica UNIVERSIDAD EAFIT Representación en el espacio de estado Representación en espacio de estado Control clásico El modelado y control de sistemas basado en la transformada de Laplace, es un enfoque muy sencillo y de fácil

Más detalles

Capítulo 8. Análisis Discriminante

Capítulo 8. Análisis Discriminante Capítulo 8 Análisis Discriminante Técnica de clasificación donde el objetivo es obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables

Más detalles

Problemas métricos. 1. Problemas afines y problemas métricos

Problemas métricos. 1. Problemas afines y problemas métricos . Problemas afines y problemas métricos Al trabajar en el espacio (o análogamente en el plano) se nos pueden presentar dos tipos de problemas con los elementos habituales (puntos, rectas y planos): Problemas

Más detalles

4.7 Igualación de canal (no ciega)

4.7 Igualación de canal (no ciega) 4.7 Igualación de canal (no ciega) Introducción Clasificaciones Estructuras de Igualación Igualación de secuencias Igualación símbolo a símbolo Igualación como clasificación Igualación adaptativa Modo

Más detalles

DISEÑO CURRICULAR ALGEBRA LINEAL

DISEÑO CURRICULAR ALGEBRA LINEAL DISEÑO CURRICULAR ALGEBRA LINEAL FACULTAD (ES) CARRERA (S) Ingeniería Computación y Sistemas CÓDIGO HORAS TEÓRICAS HORAS PRÁCTICAS UNIDADES DE CRÉDITO SEMESTRE 122443 02 02 03 II PRE-REQUISITO ELABORADO

Más detalles

Método de cuadrados mínimos

Método de cuadrados mínimos REGRESIÓN LINEAL Gran parte del pronóstico estadístico del tiempo está basado en el procedimiento conocido como regresión lineal. Regresión lineal simple (RLS) Describe la relación lineal entre dos variables,

Más detalles

Formulación variacional de la estimación del movimiento en uidos incompresibles a partir de secuencias PIV

Formulación variacional de la estimación del movimiento en uidos incompresibles a partir de secuencias PIV Formulación variacional de la estimación del movimiento en uidos incompresibles a partir de secuencias PIV Luis Alvarez Univ. Las Palmas de G.C. Mayo 2009 Luis Alvarez (Univ. Las Palmas de G.C. ) Modelos

Más detalles

Ecuaciones de la recta en el espacio

Ecuaciones de la recta en el espacio Ecuaciones de la recta en el espacio Ecuación vectorial de la recta Sea P(x 1, y 1 ) es un punto de la recta r y uu su vector director, el vector PPXX tiene igual dirección que uu, luego es igual a uu

Más detalles

Matrices y determinantes

Matrices y determinantes Matrices y determinantes 1 Ejemplo Cuál es el tamaño de las siguientes matrices? Cuál es el elemento a 21, b 23, c 42? 2 Tipos de matrices Matriz renglón o vector renglón Matriz columna o vector columna

Más detalles

FASCÍCULO: SISTEMAS DE ECUACIONES LINEALES

FASCÍCULO: SISTEMAS DE ECUACIONES LINEALES FASCÍCULO: SISTEMAS DE ECUACIONES LINEALES Una de las aplicaciones más famosas del concepto de determinante es el método para resolver sistemas de m ecuaciones con n incógnitas, aparece en en la publicación

Más detalles

Tema 3: Espacios vectoriales

Tema 3: Espacios vectoriales Tema 3: Espacios vectoriales K denotará un cuerpo. Definición. Se dice que un conjunto no vacio V es un espacio vectorial sobre K o que es un K-espacio vectorial si: 1. En V está definida una operación

Más detalles

Nombre de la asignatura : Matemáticas III (Algebra Lineal) Carrera : Ingeniería en Sistemas Computacionales. Clave de la asignatura : ACM-9303

Nombre de la asignatura : Matemáticas III (Algebra Lineal) Carrera : Ingeniería en Sistemas Computacionales. Clave de la asignatura : ACM-9303 1. D A T O S D E L A A S I G N A T U R A Nombre de la asignatura : Matemáticas III (Algebra Lineal) Carrera : Ingeniería en Sistemas Computacionales Clave de la asignatura : ACM-9303 Horas teoría-horas

Más detalles

Resumen de Análisis Matemático IV

Resumen de Análisis Matemático IV Resumen de Análisis Matemático IV 1. Funciones inversas e implícitas y extremos condicionados 1.1. Teorema de la función inversa Teorema de la función inversa: Sea A abierto de R n, f : A R n tal que f

Más detalles

Inteligencia Artificial. Grado en INFORMÁTICA 4º curso. Modalidad: Presencial

Inteligencia Artificial. Grado en INFORMÁTICA 4º curso. Modalidad: Presencial Grado en INFORMÁTICA 4º curso Modalidad: Presencial Sumario Datos básicos 3 Breve descripción de la asignatura 4 Requisitos previos 4 Objetivos 4 Competencias 5 Contenidos 6 Metodología 6 Criterios de

Más detalles

Clase 10: Extremos condicionados y multiplicadores de Lagrange

Clase 10: Extremos condicionados y multiplicadores de Lagrange Clase 10: Extremos condicionados y multiplicadores de Lagrange C.J. Vanegas 7 de abril de 008 1. Extremos condicionados y multiplicadores de Lagrange Estamos interesados en maximizar o minimizar una función

Más detalles

Repaso de conceptos de álgebra lineal

Repaso de conceptos de álgebra lineal MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso

Más detalles

Estadística Espacial en Ecología del Paisaje

Estadística Espacial en Ecología del Paisaje Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas

Más detalles

x^new = x^old + K(b new A new x^old )

x^new = x^old + K(b new A new x^old ) El Filtro de Kalman: La idea fundamental del filtro de Kalman es la actualización La llegada de una nueva observación supone un cambio en la mejor estimación mínimo cuatrática del parámetro x Se desea

Más detalles

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial Tema 1 Espacios Vectoriales. 1.1. Definición de Espacio Vectorial Notas 1.1.1. Denotaremos por N, Z, Q, R, C, a los conjuntos de los números Naturales, Enteros, Racionales, Reales y Complejos, respectivamente.

Más detalles

UNIVERSIDAD DE CANTABRIA TESIS DOCTORAL

UNIVERSIDAD DE CANTABRIA TESIS DOCTORAL UNIVERSIDAD DE CANTABRIA DEPARTAMENTO DE INGENIERÍA DE COMUNICACIONES TESIS DOCTORAL ESTIMACIÓN ÓPTIMA DE SECUENCIAS CAÓTICAS CON APLICACIÓN EN COMUNICACIONES Autor : David Luengo García Directores : Carlos

Más detalles

ANEXO 1 EJEMPLO DE CALCULO DE RESISTIVIDAD APARENTE. Subestaciones de Media Tensión Curso Fernando Berrutti Staino

ANEXO 1 EJEMPLO DE CALCULO DE RESISTIVIDAD APARENTE. Subestaciones de Media Tensión Curso Fernando Berrutti Staino ANEXO 1 EJEMPLO DE CALCULO DE RESISTIVIDAD APARENTE Subestaciones de Media Tensión Curso 015 Fernando Berrutti Staino Planteo del problema Se realizan mediciones con un telurímetro en el terreno de una

Más detalles

Tema 1: Espacios vectoriales

Tema 1: Espacios vectoriales PROBLEMAS DE MATEMÁTICAS Parte I: Álgebra Primero de Ingeniería Química FACULTAD DE CIENCIAS QUÍMICAS Departamento de Matemáticas Universidad de Castilla-La Mancha Tema 1: Espacios vectoriales 1 Determina

Más detalles

Rectas, planos e hiperplanos

Rectas, planos e hiperplanos Semestre -8, Algebra Lineal 37 Rectas, planos e hiperplanos Recta P punto de la recta L, d vector no nulo de R n (vector director de la recta) X punto de la recta L PX paralelo a d (PX = td) PX = OX OP

Más detalles

MÁQUINAS DE VECTORES DE SOPORTE

MÁQUINAS DE VECTORES DE SOPORTE MÁQUINAS DE VECTORES DE SOPORTE Introducción Se tiene información de N individuos codificada de la forma Las variables X son vectores que reúnen información numérica del individuo, las variables Y indican

Más detalles

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA 1272-416/ALGEBRA DE ESTRUCTURAS SEMESTRE:

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA 1272-416/ALGEBRA DE ESTRUCTURAS SEMESTRE: GERENCIA ACADEMICA COORDINACION DE PREGRADO PROYECTO INGENIERIA PROGRAMA: ALGEBRA LINEAL CÓDIGO ASIGNATURA: 1272-521 PRE-REQUISITO: 1272-416/ALGEBRA DE ESTRUCTURAS SEMESTRE: 90-II UNIDADES DE CRÉDITO:

Más detalles

PROGRAMA INSTRUCCIONAL

PROGRAMA INSTRUCCIONAL UNIVERSIDAD FERMÍN TORO VICE RECTORADO ACADÉMICO FACULTAD DE INGENIERÍA PROGRAMA INSTRUCCIONAL DATOS BÁSICOS DE LA ASIGNATURA Nombre de la asignatura: Código Semestre U.C. Pre- Requisito ALGEBRA LINEAL

Más detalles

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5 DETERMINANTES Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno

Más detalles

Aplicando máquinas de soporte vectorial al análisis de pérdidas no técnicas de energía eléctrica

Aplicando máquinas de soporte vectorial al análisis de pérdidas no técnicas de energía eléctrica Facultad de Matemática, Astronomía, Física y Computación Universidad Nacional de Córdoba Trabajo Especial Aplicando máquinas de soporte vectorial al análisis de pérdidas no técnicas de energía eléctrica

Más detalles

Modelos Estadísticos de Crimen

Modelos Estadísticos de Crimen Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos

Más detalles

Guía. Álgebra II. Examen parcial III. Transformaciones lineales. Teoremas los más importantes cuyas demostraciones se pueden incluir en el examen

Guía. Álgebra II. Examen parcial III. Transformaciones lineales. Teoremas los más importantes cuyas demostraciones se pueden incluir en el examen Guía. Álgebra II. Examen parcial III. Transformaciones lineales. Teoremas los más importantes cuyas demostraciones se pueden incluir en el examen 1. Teorema de la representación matricial de una transformación

Más detalles

Estudio e Implementación de una Máquina de Soporte Vectorial.

Estudio e Implementación de una Máquina de Soporte Vectorial. Estudio e Implementación de una Máquina de Soporte Vectorial. Lázaro Bustio Martínez, Alejandro Mesa Rodríguez lbustio@ccc.inaoep.mx, amesa@ccc.inaoep.mx Resumen. En este trabajo se presentan las Máquinas

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Separadores lineales Clasificacion binaria puede ser vista como la tarea de separar clases en el espacio de caracteristicas w T x + b > 0 w T x + b = 0 w T x + b < 0 f(x) = sign(w

Más detalles

ALGEBRA. Escuela Politécnica Superior de Málaga

ALGEBRA. Escuela Politécnica Superior de Málaga ALGEBRA. Escuela Politécnica Superior de Málaga Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Espacio vectorial. Espacios vectoriales R n. Dependencia e independencia lineal. Base. Matrices y determinantes.

Más detalles

Métodos Predictivos en Minería de Datos

Métodos Predictivos en Minería de Datos Métodos Predictivos en Minería de Datos Tutor: El curso será impartido por Dr. Oldemar Rodríguez graduado de la Universidad de París IX y con un postdoctorado de la Universidad de Stanford. Duración: Cuatro

Más detalles

Expresiones Regulares y Derivadas Formales

Expresiones Regulares y Derivadas Formales y Derivadas Formales Las Derivadas Sucesivas. Universidad de Cantabria Esquema 1 2 3 Derivadas Sucesivas Recordemos que los lenguajes de los prefijos dan información sobre los lenguajes. Derivadas Sucesivas

Más detalles

MICRODISEÑO CURRICULAR FACULTAD DE CIENCIAS EXACTAS Y APLICADA. Créditos 4 TPS 4 TIS 8 TPT 64 TIT 128

MICRODISEÑO CURRICULAR FACULTAD DE CIENCIAS EXACTAS Y APLICADA. Créditos 4 TPS 4 TIS 8 TPT 64 TIT 128 FACULTAD DE CIENCIAS EXACTAS Y APLICADA 1. IDENTIFICACIÓN Asignatura Algebra Lineal Área Ciencias Básicas Código ALX04 Correquisitos Prerrequisitos Créditos 4 TPS 4 TIS 8 TPT 64 TIT 128 2. JUSTIFICACIÓN

Más detalles

ESPACIOS VECTORIALES

ESPACIOS VECTORIALES MATEMÁTICA I - - Capítulo 8 ------------------------------------------------------------------------------------ ESPACIOS VECTORIALES.. Espacios Vectoriales y Subespacios... Definición. Un espacio vectorial

Más detalles

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R.

FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R. FACULTAD DE CIENCIAS EXACTAS, INGENIERÍA Y AGRIMENSURA U.N.R. PROGRAMA ANALÍTICO DE LA ASIGNATURA: ALGEBRA LINEAL Código L2.07.1 PLAN DE ESTUDIOS: 2002 CARRERA: Licenciatura en Matemática DEPARTAMENTO:

Más detalles

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,

Más detalles

Práctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función.

Práctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función. Práctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función. Se suele llamar método de Newton-Raphson al método de Newton cuando se utiliza para calcular los ceros

Más detalles

Teoría de la decisión

Teoría de la decisión 1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia

Más detalles

Introducción al Diseño de Filtros Digitales

Introducción al Diseño de Filtros Digitales Introducción al Diseño de Filtros Digitales Diego Milone Procesamiento Digital de Señales Ingeniería Informática FICH-UNL 3 de mayo de 2012 Organización de la clase Introducción Concepto y clasificación

Más detalles

CIRCUITOS ELÉCTRICOS. Temas:

CIRCUITOS ELÉCTRICOS. Temas: CIRCUITOS ELÉCTRICOS Temas: - Conceptos generales de circuitos eléctricos, ley de Ohm y de Kirchhoff. - Energía almacenada en bobinas y capacitores. - Teoremas de redes: Thevenin, Norton, superposición,

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

EJERCICIOS DE DETERMINANTES

EJERCICIOS DE DETERMINANTES EJERCICIOS DE 1) Si m n = 5, cuál es el valor de cada uno de estos determinantes? Justifica las p q respuestas: 2) Resuelve las siguientes ecuaciones: 3) Calcula el valor de estos determinantes: 4) Halla

Más detalles

Las medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la distribución.

Las medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la distribución. CONTENIDO: MEDIDAS DE DISPERSIÓN INDICADOR DE LOGRO: Determinarás y aplicarás, con perseverancia las medidas de dispersión para datos no agrupados y agrupados Guía de trabajo: Las medidas de dispersión

Más detalles

ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA

ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA ESTIMACIÓN DE PROBABILIDADES A POSTERIORI EN SVMS MULTICLASE PARA RECONOCIMIENTO DE HABLA CONTINUA Rubén Solera Ureña, Fernando Pérez-Cruz, Fernando Díaz de María Universidad Carlos III de Madrid Departamento

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

4. Control Vectorial. 1. Modelo dinámico del motor de inducción. 2. Control vectorial del motor de inducción. 3. Control vectorial Directo

4. Control Vectorial. 1. Modelo dinámico del motor de inducción. 2. Control vectorial del motor de inducción. 3. Control vectorial Directo 4. Control Vectorial Control de Máquinas Eléctricas Primavera 2009 1. Modelo dinámico del motor de inducción 2. Control vectorial del motor de inducción 3. Control vectorial Directo 4. Control vectorial

Más detalles

Ecuaciones Cuadráticas Las ecuaciones cuadráticas se pueden resolver por el método de factorización o utilizando la fórmula cuadrática.

Ecuaciones Cuadráticas Las ecuaciones cuadráticas se pueden resolver por el método de factorización o utilizando la fórmula cuadrática. Ejemplos de Ecuaciones Cuadráticas e Inecuaciones Cuadráticas Ecuaciones Cuadráticas Las ecuaciones cuadráticas se pueden resolver por el método de factorización o utilizando la fórmula cuadrática. El

Más detalles

Aplicación de PCA y técnicas bayesianas a la clasificación de píxeles basada en color

Aplicación de PCA y técnicas bayesianas a la clasificación de píxeles basada en color Aplicación de PCA y técnicas bayesianas a la clasificación de píxeles basada en color José M. Soto Hidalgo 1, Jesús Chamorro 2, José M. Palomares 1, Juan Carlos Gámez 1, Joaquín Olivares 1 1 Departamento

Más detalles

Teoría Tema 6 Ecuaciones de la recta

Teoría Tema 6 Ecuaciones de la recta página 1/14 Teoría Tema 6 Ecuaciones de la recta Índice de contenido Base canónica en dos dimensiones como sistema referencial...2 Ecuación vectorial de la recta...4 Ecuación paramétrica de la recta...6

Más detalles

INTRODUCCION- FILTRO DE WIENER

INTRODUCCION- FILTRO DE WIENER FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener

Más detalles

Tema 2 Resolución de EcuacionesNo Lineales

Tema 2 Resolución de EcuacionesNo Lineales Tema 2 Resolución de Ecuaciones No Lineales E.T.S.I. Informática Indice Introducción 1 Introducción 2 Algoritmo del método de Bisección Análisis del 3 4 5 6 Algoritmo de los métodos iterativos Interpretación

Más detalles

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.

Más detalles

DETERMINANTES Profesor: Fernando Ureña Portero

DETERMINANTES Profesor: Fernando Ureña Portero : CONCEPTO, CÁLCULO DE. Definición: A cada matriz cuadrada A=a ij, de orden n, se le asigna un número real, denominado determinante de A, denotado por A o por det (A). A =det (A)= 1.-Determinante de orden

Más detalles

Problemas Tema 3 Solución a problemas de Derivabilidad - Hoja 11 - Todos resueltos

Problemas Tema 3 Solución a problemas de Derivabilidad - Hoja 11 - Todos resueltos Asignatura: Matemáticas II ºBachillerato página 1/10 Problemas Tema 3 Solución a problemas de Derivabilidad - Hoja 11 - Todos resueltos Hoja 11. Problema 1 1. Se tiene un alambre de 1 m de longitud y se

Más detalles

Sistem as de ecuaciones lineales

Sistem as de ecuaciones lineales Sistem as de ecuaciones lineales. Concepto, clasificación y notación Un sistema de m ecuaciones lineales con n incógnitas se puede escribir del siguiente modo: a x + a 2 x 2 + a 3 x 3 + + a n x n = b a

Más detalles

Estimación de homografías

Estimación de homografías Estimación de homografías Visión en Robótica 1er cuatrimestre de 2013 1 Introducción del problema Una homografía es una transformación proyectiva que determina una correspondencia entre puntos El problema

Más detalles

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 0 REFLEXION Y RESUELVE Resolución de sistemas Ò mediante determinantes y Resuelve, aplicando x x e y, los siguientes sistemas de ecuaciones: 3x 5y 73 a

Más detalles

PROGRAMA DE CURSO. Resultados de Aprendizaje

PROGRAMA DE CURSO. Resultados de Aprendizaje PROGRAMA DE CURSO Código Nombre MA1102 Algebra Lineal Nombre en Inglés Linear Algebra SCT es Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3,0 2,0 5,0 Requisitos MA1101

Más detalles

Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín.

Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín. Bogotá 15 y 16 de Agosto de 2008 EXTRACCIÓN DE PATRONES DE LA ENCUESTA ANUAL MANUFACTURERA COLOMBIANA EMPLEANDO INTELIGENCIA ARTIFICIAL Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica.

Más detalles

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Instituto tecnológico de Minatitlán Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Alejandra de la cruz francisco Ingeniería en sistemas computacionales

Más detalles

UNIVERSIDAD NACIONAL DE RÍO CUARTO FACULTAD DE CIENCIAS EXACTAS, FÍSICO-QUÍMICAS Y NATURALES DEPARTAMENTO DE MATEMÁTICA

UNIVERSIDAD NACIONAL DE RÍO CUARTO FACULTAD DE CIENCIAS EXACTAS, FÍSICO-QUÍMICAS Y NATURALES DEPARTAMENTO DE MATEMÁTICA UNIVERSIDAD NACIONAL DE RÍO CUARTO FACULTAD DE CIENCIAS EXACTAS, FÍSICO-QUÍMICAS Y NATURALES DEPARTAMENTO DE MATEMÁTICA CARRERA: Licenciatura en Química PLAN DE ESTUDIOS: 2010 ASIGNATURA: Matemática III

Más detalles

5 Métodos iterativos para resolver sistemas de ecuaciones lineales

5 Métodos iterativos para resolver sistemas de ecuaciones lineales 94 5 Métodos iterativos para resolver sistemas de ecuaciones lineales La resolución de sistemas de ecuaciones lineales también puede hacerse con fórmulas iterativas que permiten acercarse a la respuesta

Más detalles

1. Lección 9 - Continuidad y Derivabilidad

1. Lección 9 - Continuidad y Derivabilidad 1. Lección 9 - Continuidad y Derivabilidad 1.1. Continuidad El concepto de continuación es el mismo que el visto en el primer cuatrimestre pero generalizado al caso de los campos escalares. Así, sea la

Más detalles

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República ALN Repaso matrices In. Co. Facultad de Ingeniería Universidad de la República Definiciones básicas - Vectores Definiciones básicas - Vectores Construcciones Producto interno: ( x, y n i x y i i ' α Producto

Más detalles