Máquinas de Vectores de Soporte

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Máquinas de Vectores de Soporte"

Transcripción

1 Máquinas de Vectores de Soporte Support Vector Machines (SVM) Introducción al Reconocimiento de Patrones IIE - FING - UdelaR 2015 Bishop, Cap. 7 Schölkopf & Smola, Cap 7

2 Motivación Limitantes del perceptrón: Sólo contempla el caso linealmente separable No hay unicidad de la solución Limitantes de los métodos de Kernel: En training: irrealizable si se requiere evaluar k(x n, x m ) para todo par de muestras de entrenamiento En testing o clasificación de nuevo x: costo computacional de evaluar k(x, x n ) para todo x n de entrenamiento puede ser excesivo.

3 Cualidades de SVM Veremos que: Además: SVM busca el hiperplano separador (en el espacio transformado) que maximiza el margen SVM permite contemplar el caso no linealmente separable SVM permite controlar trade-off entre margen y errores en training Los parámetros del clasificador se determinan fácilmente, resolviendo un problema de optimización convexa En SVM la clasificación de nuevas muestras x depende de las k(x, x n ) sólo para un subconjunto extremadamente reducido del conjunto de entrenamiento

4 Problema de dos clases {(x 1, t 1 ), (x 2, t 2 ),..., (x N, t N )} conjunto de entrenamiento, x n X espacio de características, t n { 1, +1} etiqueta de clase. φ : X Y mapeo no lineal a un espacio de dimensión mayor, dim(y) > dim(x ). Superficie de decisión: g(x) = w T φ(x) + b, S = {x : g(x) = 0}. w b En el espacio Y: hiperplano de normal w y sesgo w. Clasificación: nueva muestra x se clasifica según signo(g(x)).

5 Conjunto de aprendizaje linealmente separables Problema linealmente separable Existe al menos un par (w, b) para el cual todas las muestras están bien clasificadas, i.e. n = 1,..., N, t n g(x n ) > 0. SVM: entre los (w, b) posibles, elegir aquél que corresponde al hiperplano separador de margen máximo. y g= 1 y g= 0 y g= 1

6 Clasificador de máximo margen Por qué? Maximizar el margen minimiza el error de generalización del clasificador (es intuitivo y se puede demostrar [Vapnik, 1996]) Tenemos: Distancia de un punto y = φ(x) al plano {g(x) = 0}: g(x) w. para cualquier hiperplano separador, g(x n ) = t n g(x n ), n = 1,..., N. Solución de máximo margen: { ( tn w T φ(x n ) + b ) } (P ) max w,b min n {1,...,N} w

7 Optimización del clasificador de máximo margen (P ) problema de optimización complejo. Se puede transformar en un problema equivalente (P ) sencillo de optimizar, observando que f n (w, b) = tn(wt φ(x n)+b) w es invariante ante escalados: λ > 0, f n (λw, λb) = f n (w, b). Podemos re-escalar para que t k (w T φ(x k ) + b) = 1 para el (o los) x k que realizan el margen. Con esa normalización, n = 1,..., N, t n (w T φ(x n ) + b) 1.

8 Optimización del clasificador de máximo margen Problema equivalente para clasificador de máximo margen: (P ) { minw,b 1 2 w 2 sujeto a t n (w T φ(x n ) + b) 1, n = 1,..., N. Puntos activos/inactivos: { = 1 si t n (w T xn punto activo φ(x n ) + b) > 1 x n punto inactivo. Al maximizar el margen habrá al menos dos puntos activos. (P ) es un problema de programación cuadrática fácil de resolver (e.g. solvers de Matlab, CVX, etc). (P ) (problema primal) admite una formulación aún más sencilla (problema dual) via las condiciones de KKT.

9 Paréntesis: condiciones de Karush-Kuhn-Tucker Consideramos el problema Dos posibilidades para la solución: { min f(x) s.t. g(x) 0 (i) x {g > 0}: entonces x mínimo local de f f(x) = 0. (ii) x {g = 0}: entonces debe ser f(x) {g = 0}, de lo contrario existiría x {g = 0} vecino de x con f(x ) < f(x). Como g(x) {g = 0}, λ 0 t.q. f(x) = λ g(x). Además debe ser λ > 0, de lo contrario existiría x {g > 0} vecino de x con f(x ) < f(x).

10 Paréntesis: condiciones de Karush-Kuhn-Tucker Definimos el Lagrangeano L(x, λ) = f(x) λg(x). Las dos situaciones de solución se resumen en una única (KKT): L = 0, λ 0, λg(x) = 0 x Obs.1: La solución (x, λ ) es un punto silla de L(x, λ): Ejercicio Demostrar (x, λ), L(x, λ) L(x, λ ) L(x, λ ). Obs.2: De Obs.1, la optimización correspondiente es (x, λ ) = arg min x max L(x, λ). λ 0

11 Vuelta al clasificador de máximo margen (caso separable) Teníamos (P ) { minw,b 1 2 w 2 sujeto a t n (w T φ(x n ) + b) 1, n = 1,..., N. Llamamos a = (a 1, a 2,..., a N ) a los multiplicadores de Lagrange: L(w, b, a) = 1 N ( 2 w 2 a n tn (w T φ(x n ) + b) 1 ). L N w = 0 w = a n t n φ(x n ) ( ) L b = 0 N a n t n = 0 ( ) Prob. equivalente: { minw,b max a L(w, b, a) s.t. N a nt n = 0, a n 0, n = 1,..., N

12 Optimización del clasificador de máximo margen (separable) Ejercicio Demostrar que L(w, b, a) = L(a) = N a n 1 2 N N m=1 El nuevo problema (llamado problema dual) queda: a n a m t n t m φ T (x n )φ ( x m ) } {{ } k(x n,x m) (D ) { maxa L(a) sujeto a N a nt n = 0, a n 0, n = 1,..., N. Problema de programación cuadrática más sencillo (involucra únicamente a los multiplicadores)

13 Clasificador de máximo margen (caso separable) Clasificación de una nueva muestra x: se evalúa el signo de g(x) = w T φ(x n ) + b ( ) = N a n t n k(x n, x) + b (veremos luego cómo calcular el margen b). Vectores de soporte: De las condiciones KKT, a n 0, t n g(x n ) 1 = 0, a n (t n g(x n ) 1) = 0. Dos tipos de muestra: (i) a n = 0 No influyen en la clasificación de una nueva muestra: g(x) = a n 0 a nt n k(x n, x) + b (ii) t n g(x n ) = 1 muestras que caen sobre los hiperplanos de máximo margen. Se llaman vectores de soporte (SV).

14 Clasificador de máximo margen (caso separable) Obs: en general #SV N etapa de testing muy rápida. Cuánto vale el margen b? Ejercicio Usando la def. de SV, mostrar que ( b = 1 t n ) a m t m k(x n, x m ). #SV x nsv x msv

15 Ejemplo XOR Ejercicio Queremos diseñar un clasificador para el problema XOR, en donde los puntos ( 1, 1) y (1, 1) son de la clase ω 1, y ( 1, 1) y (1, 1) son de la clase ω 2. Considerando el mapeo φ : R 2 R 6, y = φ(x 1, x 2 ) = [1, 2x 1, 2x 2, 2x 1 x 2, x 2 1, x2 2 ]T, demostrar que el problema se vuelve separable en el espacio transformado. Diseñar un clasificador de máximo margen para el problem. Especificar los hiperplanos (separador, y de márgenes) y el margen.

16 Ejemplo XOR Maximizar: L(a) = 4 a k a n a m t n t m (x T n x m + 1) 2, m=1 sujeto a: a 1 a 2 + a 3 a 4 = 0, a n 0, n {1, 2, 3, 4}. La solución es a 1 = a 2 = a 3 = a 4 = 1/8 y b = 2. La función discriminante es g(x) = x 1 x 2.

17 Motivación Problema de dos clases Extensión multi-clase Caso no separable linealmente Caso no separable linealmente Idea: modificar la formulación anterior para autorizar algunos puntos mal clasificados en entrenamiento. Obs.: Definiendo una penalización para los errores, habrá un compromiso entre mayor margen (mejor generalización) y mayor cantidad de errores en entrenamiento. 0 si xn bien clasificado Penalización: ξn = tn g(xn ) si no Puntos en la frontera: g(xn ) = 0 ξn = 1 Puntos mal clasificados: ξn > 1

18 Caso no separable linealmente Caso no separable linealmente: C-SVM Remplazamos la condición de clasificación perfecta (hard margin): t n (w T φ(x n ) + b) 1, n = 1,..., N por la condición relajada (soft margin): t n (w T φ(x n ) + b) 1 ξ n, ξ n 0, n = 1,..., N Objetivo: maximizar el margen penalizando errores: { min 1 w,b 2 w 2 + C } N ξ n, C > 0 { tn (w s.t. T φ(x n ) + b) 1 ξ n, ξ n 0, n = 1,..., N. Pregunta Qué representa C? C?, C?

19 Caso no separable linealmente Optimización de C-SVM Ejercicio Demostrar que el Lagrangeano para C-SVM se escribe: L(w, b, a, µ) = 1 N 2 w 2 + C ξ n N ( a n tn (w T ) N φ(x n ) + b) 1 + ξ n µ n ξ n. Escribir las condiciones de optimalidad y KKT. Demostrar que el Lagrangeano del problema dual es: N L(a) = a n 1 N N a n a m t n t m k(x n, x m ), 2 con m=1 N a n t n, 0 a n C, n = 1,..., N.

20 Caso no separable linealmente C-SVM Clasificación de una nueva muestra x: se evalúa el signo de g(x) = N a n t n k(x n, x) + b. Vectores de soporte: verifican a n > 0, t n g(x n ) = 1 ξ n. Dos casos: (i) a n < C µ n > 0 µnξn=0 ξ n = 0: SV del lado correcto, fuera del margen (ii) a n = C Puede ser µ n = 0 si ξ n 1 bien clasificado; si ξ n > 1 mal clasificado.

21 Caso no separable linealmente C-SVM Margen: 0 < a n < C ξ n = 0 t n g(x n ) = 1 Idem que para hard margin, ( b = 1 t n ) a m t m k(x n, x m ), #SV x nsv x msv con SV = {x n : 0 < a n < C, n = 1,..., N}. Elección de parámetros: usualmente C y los parámetros del kernel se estiman conjuntamente usando Grid Search y validación cruzada, sobre el conjunto de entrenamiento.

22 Extensión multi-clase No hay una única forma de extender SVM. 1 Uno contra el resto: M clasificadores binarios, una clase y el resto para cada clase, g j (x) = w j T x + w j 0, j = 1,..., c. Luego una muestra nueva x se asigna a la clase con mayor discriminante, arg max j=1,...,c g j (x). Poco simétrico o balanceado. Regiones indefinidas. 2 Clasificación por pares: se consideran los c(c 1)/2 pares de clases, y para cada una se diseña un clasificador. Nueva muestra: se pasa por todos los clasificadores, y se asigna a la clase más votada. Hay que resolver más problemas, pero con menos muestras. Regiones indefinidas. 3 Error Correcting Output Coding: se generan L = log 2 c particiones binarias del conjunto de clases. A cada clase le corresponde un único código binario d = (d 1, d 2,..., d L) { 1, 1} L. Para cada partición se entrena un clasificador g 1,..., g L. Clasificación de nueva muestra x: a la clase más cercana a (g 1 (x),..., g L (x)) en distancia de Hamming.

23 Extensión multi-clase Ejemplo para Error Correcting Output Coding Ejercicio Aplicar esta metodología para clasificar los dígitos de la base USPS en 0, 1, 2,..., 9.

Máquinas de Vectores de Soporte

Máquinas de Vectores de Soporte Máquinas de Vectores de Soporte Support Vector Machines (SVM) Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería, UdelaR 2018 Schölkopf

Más detalles

Introducción a los métodos Kernel

Introducción a los métodos Kernel p. 1/3 Introducción a los métodos Kernel Universidad Autónoma de Madrid 29 de abril de 2008 Manel Martínez Ramón Universidad Carlos III de Madrid Departamento de Teoría de la Señal y Comunicaciones Transparencias

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Métodos basados en Kernels para el Procesamiento de Lenguaje Natural

Métodos basados en Kernels para el Procesamiento de Lenguaje Natural para el Procesamiento de Lenguaje Natural Métodos basados en para el Procesamiento de Lenguaje Natural G. Moncecchi 1 Grupo PLN, Instituto de Computación, Facultad de Ingeniería, Universidad de la República,

Más detalles

PROGRAMACIÓN LINEAL ENTERA

PROGRAMACIÓN LINEAL ENTERA PROGRAMACIÓN LINEAL ENTERA Programación lineal: hipótesis de perfecta divisibilidad Así pues decimos que un problema es de programación lineal entera, cuando prescindiendo de las condiciones de integridad,

Más detalles

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:

Más detalles

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Instituto tecnológico de Minatitlán Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Alejandra de la cruz francisco Ingeniería en sistemas computacionales

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales 1 Sistemas de ecuaciones y matrices Definición 1 Una ecuación lineal en las variables x 1, x 2,..., x n es una ecuación de la forma con a 1, a 2... y b números reales. a

Más detalles

Polinomios. 1.- Funciones cuadráticas

Polinomios. 1.- Funciones cuadráticas Polinomios 1.- Funciones cuadráticas Definición 1 (Función polinomial) Sea n un entero no negativo y sean a n, a n 1,..., a, a 1, a 0 número s reales con a n 0. La función se denomina función polinomial

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Separadores lineales Clasificacion binaria puede ser vista como la tarea de separar clases en el espacio de caracteristicas w T x + b > 0 w T x + b = 0 w T x + b < 0 f(x) = sign(w

Más detalles

Santiago, Abril 2009

Santiago, Abril 2009 cvalle@inf.utfsm.cl Departamento de Informática - Universidad Técnica Federico Santa María Santiago, Abril 2009 1 / 94 Temario 1 2 3 Transformación implícita usando Funciones de Kernels 4 5 6 7 8 9 2 /

Más detalles

PROGRAMACIÓN LINEAL. 1. Introducción

PROGRAMACIÓN LINEAL. 1. Introducción PROGRAMACIÓN LINEAL 1. Introducción La programación lineal es una técnica matemática relativamente reciente (siglo XX), que consiste en una serie de métodos y procedimientos que permiten resolver problemas

Más detalles

Si el objetivo es maximizar, entonces se tiene la forma estándar de maximización y, si el objetivo es minimizar, la forma estándar de minimización.

Si el objetivo es maximizar, entonces se tiene la forma estándar de maximización y, si el objetivo es minimizar, la forma estándar de minimización. Tema El método simplex Los modelos lineales con dos o tres variables se pueden resolver gráficamente. En el Tema hemos visto la solución gráfica de modelos lineales de dos variables. Sin embargo, este

Más detalles

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

Uso de Weka desde un script

Uso de Weka desde un script Uso de Weka desde un script Script para hacer una curva de aprendizaje Cómo usar Weka desde la línea de comandos para, por ejemplo, hacer una curva de aprendizaje Probar con: 20% de los datos, validación

Más detalles

Modelos de Scoring para Riesgo de Crédito

Modelos de Scoring para Riesgo de Crédito Modelos de Scoring para Riesgo de Crédito Los modelos de scoring de riesgo, dentro del proceso de otorgamiento de crédito, están orientados a anticipar comportamiento futuro. Podemos dividirlos en tres

Más detalles

Práctica 2 Métodos de búsqueda para funciones de una variable

Práctica 2 Métodos de búsqueda para funciones de una variable Práctica 2 Métodos de búsqueda para funciones de una variable Introducción Definición 1. Una función real f se dice que es fuertemente cuasiconvexa en el intervalo (a, b) si para cada par de puntos x 1,

Más detalles

P. A. U. LAS PALMAS 2005

P. A. U. LAS PALMAS 2005 P. A. U. LAS PALMAS 2005 OPCIÓN A: J U N I O 2005 1. Hallar el área encerrada por la gráfica de la función f(x) = x 3 4x 2 + 5x 2 y la rectas y = 0, x = 1 y x = 3. x 3 4x 2 + 5x 2 es una función polinómica

Más detalles

Definición de problemas de programación lineal. Método gráfico. Método del SIMPLEX. Método de las dos fases. Análisis de sensibilidad y problema dual

Definición de problemas de programación lineal. Método gráfico. Método del SIMPLEX. Método de las dos fases. Análisis de sensibilidad y problema dual 7. Programación lineal y SIMPLEX Definición de problemas de programación lineal. Método gráfico. Método del SIMPLEX. Método de las dos fases. Análisis de sensibilidad y problema dual Programación Lineal

Más detalles

Cristián Bravo R.

Cristián Bravo R. Cristián Bravo R. cbravo@dii.uchile.cl Banco de Crédito e Inversiones 2 al 5 de Julio, 2011 1 Preparación de datos para generación de scorecards. Selección de Variables. Transformaciones Notables. Segmentación

Más detalles

Eduardo Morales, Jesús González, Hugo Jair Escalante

Eduardo Morales, Jesús González, Hugo Jair Escalante Eduardo Morales, Jesús González, Hugo Jair Escalante INAOE 2017 (INAOE) 1 / 83 Contenido 1 2 3 4 5 6 7 8 (INAOE) 2 / 83 Se presentó en COLT-92 (Boser, Guon, Vapnik) Por un tiempo desbancó a las redes neuronales

Más detalles

Luego, en el punto crítico

Luego, en el punto crítico Matemáticas Grado en Química Ejercicios propuestos Tema 5 Problema 1. Obtenga y clasique los puntos críticos de las siguientes funciones: a fx, y = x +y, b fx, y = x y, c fx, y = x 3 + y. Solución del

Más detalles

Ejemplo : PROGRAMACIÓN LINEAL

Ejemplo : PROGRAMACIÓN LINEAL PROGRAMACIÓN LINEAL Los problemas de Programación Lineal son aquellos donde se trata de encontrar el óptimo de una función, por ejemplo máximo de beneficios, o mínimo de costos, siendo esta función lineal.

Más detalles

CÁLCULO DIFERENCIAL Muestras de examen

CÁLCULO DIFERENCIAL Muestras de examen CÁLCULO DIFERENCIAL Muestras de examen Febrero 2012 T1. [2] Demostrar que la imagen continua de un conjunto compacto es compacto. T2. [2.5] Definir la diferencial de una función en un punto y demostrar

Más detalles

Aprendizaje Supervisado Máquinas Vectoriales de Soporte

Aprendizaje Supervisado Máquinas Vectoriales de Soporte Aprendizaje Supervisado Máquinas Vectoriales de Soporte Tipos de Variables 10 10 Modelo general de los métodos de Clasificación Id Reembolso Estado Civil Ingresos Anuales 1 Sí Soltero 125K No 2 No Casado

Más detalles

Computación Científica

Computación Científica Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2012 1 / 19 Capítulo 2 Métodos Gradientes 2 / 19 1 Métodos Gradiente Introducción El método del gran descenso "steepest descent") Criterios

Más detalles

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Aprendizaje Automático Segundo Cuatrimestre de 2016 Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Naive Bayes Naive Bayes Dada una nueva instancia con valores de atributos a 1, a 2,..., a n, su

Más detalles

DUALIDAD EN PROGRAMACION LINEAL

DUALIDAD EN PROGRAMACION LINEAL DUALIDAD EN PROGRAMACION LINEAL Relaciones primal-dual Asociado a cada problema lineal existe otro problema de programación lineal denominado problema dual (PD), que posee importantes propiedades y relaciones

Más detalles

Support Vector Machine

Support Vector Machine Juan Carlos Caicedo Juan Carlos Mendivelso Maestria en Ingenieria de Sistemas y Computacion Universidad Nacional de Colombia 20 de marzo de 2007 Agenda 1 2 3 4 Outline 1 2 3 4 Clasificador lineal que utiliza

Más detalles

315 M/R Versión 1 Integral 1/13 2009/1 UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA INGENIERÍA

315 M/R Versión 1 Integral 1/13 2009/1 UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA INGENIERÍA 35 M/R Versión Integral /3 29/ UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADÉMICO ÁREA INGENIERÍA MODELO DE RESPUESTA (VERSION.2) ASIGNATURA: Investigación de Operaciones I CÓDIGO: 35 MOMENTO: Prueba

Más detalles

Métodos Numéricos: Resumen y ejemplos Tema 5: Resolución aproximada de ecuaciones

Métodos Numéricos: Resumen y ejemplos Tema 5: Resolución aproximada de ecuaciones Métodos Numéricos: Resumen y ejemplos Tema 5: Resolución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Abril 009,

Más detalles

Aplicaciones de las Derivadas

Aplicaciones de las Derivadas Tema 4 Aplicaciones de las Derivadas 4.1 Introducción Repasaremos en este Tema algunas de las aplicaciones fundamentales de las derivadas. Muchas de ellas son ya conocidas por tratarse de conceptos explicados

Más detalles

Métodos basados en instancias. K-vecinos, variantes

Métodos basados en instancias. K-vecinos, variantes Métodos basados en instancias K-vecinos, variantes Contenido 1. Caracterización 2. K-vecinos más próximos 3. Mejoras al algoritmo básico 4. Bibliografía 2 1. Caracterización Forma más sencilla de aprendizaje:

Más detalles

Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte

Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte Resumen En este trabajo se usó Máquinas de Vectores de Soporte (SVM, por sus siglas

Más detalles

TEMA 4: Espacios y subespacios vectoriales

TEMA 4: Espacios y subespacios vectoriales TEMA 4: Espacios y subespacios vectoriales 1. Espacios vectoriales Sea K un cuerpo. Denominaremos a los elementos de K escalares. Definición 1. Un espacio vectorial sobre K es un conjunto V cuyos elementos

Más detalles

Optimización lineal con R José R. Berrendero

Optimización lineal con R José R. Berrendero Optimización lineal con R José R. Berrendero Introducción Veamos cómo se pueden resolver problemas de optimización lineal con R a través de algunos ejemplos sencillos. La mayor parte de las funciones necesarias

Más detalles

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características

Más detalles

1. DIFERENCIABILIDAD EN VARIAS VARIABLES

1. DIFERENCIABILIDAD EN VARIAS VARIABLES 1 1. DIFERENCIABILIDAD EN VARIAS VARIABLES 1.1. DERIVADAS DIRECCIONALES Y PARCIALES Definición 1.1. Sea f : R n R, ā R n y v R n. Se define la derivada direccional de f en ā y en la dirección de v como:

Más detalles

Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV

Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission

Más detalles

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F.

Introducción a la optimización con algoritmos. Ejercicios. 0 2 f(x + t(y x))(y x)dt. J(x + t(y x))(y x)dt siendo J la matriz Jacobiana de F. Introducción a la optimización con algoritmos Ejercicios Preliminares 1. Demostrar que si f C 2 (IR n ), f : IR n IR entonces f(y) f(x) = 1 0 2 f(x + t(y x))(y x)dt. 2. Demostrar que si F C 1 (IR n ),

Más detalles

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Máquinas de vectores de soporte. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Máquinas de vectores de soporte Profesor: Dr. Wilfrido Gómez Flores 1 Introducción En el caso de clases linealmente separables, existen infinitos hiperplanos de decisión que separan correctamente

Más detalles

Resolución. Resolución gráfica de problemas de optimización

Resolución. Resolución gráfica de problemas de optimización Resolución de problemas de optimización Para resolver mente un problema de optimización como éste empezamos representando sus restricciones con igualdad. (0, 4) (0, 4) (4, 0) Para resolver mente un problema

Más detalles

Tema 1. Cálculo diferencial

Tema 1. Cálculo diferencial Tema 1. Cálculo diferencial 1 / 57 Una función es una herramienta mediante la que expresamos la relación entre una causa (variable independiente) y un efecto (variable dependiente). Las funciones nos permiten

Más detalles

APRENDIZAJE BASADO EN INSTANCIAS. Eduardo Morales y Jesús González

APRENDIZAJE BASADO EN INSTANCIAS. Eduardo Morales y Jesús González APRENDIZAJE BASADO EN INSTANCIAS Eduardo Morales y Jesús González Aprendizaje basado en Instancias 2 Diferente al tipo de aprendizaje que hemos visto Se almacenan los ejemplos de entrenamiento Para clasificar

Más detalles

3. Métodos clásicos de optimización lineal

3. Métodos clásicos de optimización lineal 3. Métodos clásicos de optimización lineal Uso del método Simplex El problema que pretende resolverse es un problema de optimización lineal sujeto a restricciones. Para el modelo construido para el problema

Más detalles

Aprendizaje Basado en Instancias

Aprendizaje Basado en Instancias Capítulo 8 Aprendizaje Basado en Instancias En este tipo de aprendizaje, se almacenan los ejemplos de entrenamiento y cuando se quiere clasificar un nuevo objeto, se extraen los objetos más parecidos y

Más detalles

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas. TEMA 11 F MATEMÁTICOS TEMA 11 Autovalores y autovectores Diagonalización y formas canónicas 1 Introducción Definición 1 (Matrices semejantes) Sean A y B dos matrices cuadradas de orden n Decimos que A

Más detalles

Complementos de Matemáticas, ITT Telemática

Complementos de Matemáticas, ITT Telemática Introducción Métodos de punto fijo Complementos de Matemáticas, ITT Telemática Tema 1. Solución numérica de ecuaciones no lineales Departamento de Matemáticas, Universidad de Alcalá Introducción Métodos

Más detalles

Segmentación de una cartera de clientes usando aprendizaje de máquina

Segmentación de una cartera de clientes usando aprendizaje de máquina Inicio Segmentación de una cartera de clientes usando aprendizaje de máquina Universidad San Ignacio de Loyola I encuentro interdisciplinario de investigación desarrollo y tecnología USIL 2014 Inicio Inicio

Más detalles

1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO

1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO 1 1. PRODUCTO ESCALAR. ESPACIO EUCLÍDEO Muchos de los fenómenos que se investigan en la geometría utilizan nociones como las de longitud de un vector y ángulo entre vectores. Para introducir estos dos

Más detalles

Pasos en el Método Simplex

Pasos en el Método Simplex Pontificia Universidad Católica Escuela de Ingeniería Departamento de Ingeniería Industrial y de Sistemas Clase 20 El Método Simplex ICS 1102 Optimización Profesor : Claudio Seebach 16 de octubre de 2006

Más detalles

Capítulo 6. Análisis bivariante de variables

Capítulo 6. Análisis bivariante de variables Contenidos: Capítulo 6 Análisis bivariante de variables Distribución bidimensional de frecuencias ( tabla de correlación o contingencia ) Distribuciones marginales Coeficientes de Asociación Análisis de

Más detalles

1.4 SISTEMAS HOMOGÉNEOS DE ECUACIONES. 36 CAPÍTULO 1 Sistemas de ecuaciones lineales y matrices

1.4 SISTEMAS HOMOGÉNEOS DE ECUACIONES. 36 CAPÍTULO 1 Sistemas de ecuaciones lineales y matrices 36 CAPÍTULO Sistemas de ecuaciones lineales y matrices Escriba, en un comentario, la ecuación del polinomio cúbico que se ajusta a los cuatro puntos. Sea x el vector columna que contiene las coordenadas

Más detalles

1. Mínimos Cuadrados.

1. Mínimos Cuadrados. Departamento de Matemática Aplicada CÁLCULO COMPUTACIONAL. Licenciatura en Química (Curso 2009-10) Análisis de Datos Práctica 7 Escribe en la línea de comandos las órdenes necesarias para resolver estas

Más detalles

UNIVERSIDAD NACIONAL DE INGENIERÍA UNI RUACS ESTELI

UNIVERSIDAD NACIONAL DE INGENIERÍA UNI RUACS ESTELI Estelí, 13 de Agosto del 2012 EL METODO SIMPLEX El método simplex es el más generalizado para resolver problemas de programación lineal. Se puede utilizar para cualquier número razonable de productos y

Más detalles

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p

Más detalles

40 Matemáticas I. Parte II. Álgebra Lineal. I.T.I. en Electricidad. Prof: José Antonio Abia Vian

40 Matemáticas I. Parte II. Álgebra Lineal. I.T.I. en Electricidad. Prof: José Antonio Abia Vian 40 Matemáticas I Parte II Álgebra Lineal 41 Matemáticas I : Álgebra Lineal Tema 4 Espacios vectoriales reales 4.1 Espacios vectoriales Definición 88.- Un espacio vectorial real V es un conjunto de elementos

Más detalles

La programación lineal hace referencia al uso eficiente o distribución de recursos limitados, para alcanzar unos objetivos determinados.

La programación lineal hace referencia al uso eficiente o distribución de recursos limitados, para alcanzar unos objetivos determinados. Programación lineal La programación lineal hace referencia al uso eficiente o distribución de recursos limitados, para alcanzar unos objetivos determinados. El nombre de programación no se refiere a la

Más detalles

Dirección de Operaciones. SESIÓN # 5: El método simplex. Segunda parte.

Dirección de Operaciones. SESIÓN # 5: El método simplex. Segunda parte. Dirección de Operaciones SESIÓN # 5: El método simplex. Segunda parte. Contextualización Qué más hay que conocer del método simplex? En la sesión anterior dimos inicio a la explicación del método simplex.

Más detalles

Ejemplo 1. Ejemplo introductorio

Ejemplo 1. Ejemplo introductorio . -Jordan. Ejemplo 1. Ejemplo introductorio. -Jordan Dos especies de insectos se crían juntas en un recipiente de laboratorio. Todos los días se les proporcionan dos tipos de alimento A y B. 1 individuo

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T8: Aprendizaje basado en instancias www.aic.uniovi.es/ssii Índice Aprendizaje basado en instancias Métricas NN Vecino más próximo: Regiones de Voronoi El parámetro K Problemas de

Más detalles

TEST IO-I T1. CONCEPTOS PREVIOS. C1.1. Cualquier conjunto convexo tiene al menos un punto extremo?

TEST IO-I T1. CONCEPTOS PREVIOS. C1.1. Cualquier conjunto convexo tiene al menos un punto extremo? TEST IO-I T1. CONCEPTOS PREVIOS C1.1. Cualquier conjunto convexo tiene al menos un punto extremo? a) Puede tener puntos extremos. b) Puede no tener puntos extremos. c) Puede tener vértices. C1.2. Es convexo

Más detalles

El Método Simplex. H. R. Alvarez A., Ph. D. 1

El Método Simplex. H. R. Alvarez A., Ph. D. 1 El Método Simplex H. R. Alvarez A., Ph. D. 1 El Método Simplex Desarrollado en 1947 por George Dantzig como parte de un proyecto para el Departamento de Defensa Se basa en la propiedad de la solución esquina

Más detalles

Ecuaciones de segundo grado

Ecuaciones de segundo grado Ecuaciones de segundo grado 11 de noviembre 009 Ecuaciones de segundo grado con una incógnita método de solución, formula general e incompletas Algebra Ecuaciones de segundo grado con una incógnita Las

Más detalles

Distribución normal. Cajón de Ciencias. www.cajondeciencias.com. Qué es una variable estadística?

Distribución normal. Cajón de Ciencias. www.cajondeciencias.com. Qué es una variable estadística? Distribución normal Cajón de Ciencias Qué es una variable estadística? Una variable estadística es un parámetro que puede variar de manera aleatoria dentro de un rango de valores. Por ejemplo, la variable

Más detalles

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 4 Optimización no Lineal ORGANIZACIÓN DEL TEMA Sesiones: El caso sin restricciones: formulación, ejemplos Condiciones de optimalidad, métodos Caso con restricciones:

Más detalles

En este capítulo obtendremos los resultados básicos del cálculo diferencial para funciones reales definidas sobre R o sobre intervalos.

En este capítulo obtendremos los resultados básicos del cálculo diferencial para funciones reales definidas sobre R o sobre intervalos. Capítulo 6 Derivadas 61 Introducción En este capítulo obtendremos los resultados básicos del cálculo diferencial para funciones reales definidas sobre R o sobre intervalos Definición 61 Sea I R, I, f :

Más detalles

Espacios de Hilbert: problemas propuestos

Espacios de Hilbert: problemas propuestos Espacios de Hilbert: problemas propuestos ISABEL MARRERO Departamento de Análisis Matemático Universidad de La Laguna imarrero@ull.es Índice 6. Problemas propuestos 1 6.1. Espacios con producto interior..................................

Más detalles

Práctico de Optimización

Práctico de Optimización Práctico de Optimización Modelado de Redes de Telecomunicaciones 24 de mayo de 2011 1. Repaso Minimización sin restricciones de una función cuadrática. Encontrar el gradiente, el Hessiano, los puntos estacionarios

Más detalles

Métodos kernel para clasificación

Métodos kernel para clasificación Métodos kernel para clasificación S. Van Vaerenbergh, I. Santamaría GTAS, Universidad de Cantabria 20 de marzo de 2018 Contents Aprendizaje Estadístico Métodos Kernel Introducción SVM lineal Introducción

Más detalles

Forman base cuando p 0 y 1.

Forman base cuando p 0 y 1. 1 VECTORES: cuestiones y problemas Preguntas de tipo test 1. (E11). Los vectores u = (p, 0, p), v = (p, p, 1) y w = (0, p, ) forman una base de R : a) Sólo si p = 1 b) Si p 1 c) Ninguna de las anteriores,

Más detalles

1. RESOLVER el siguiente problema de programación lineal. max z =15x 1 + 10x 2 suj.a : 2x 1 + x 2 1500 x 1 + x 2 1200 0 x 1 500

1. RESOLVER el siguiente problema de programación lineal. max z =15x 1 + 10x 2 suj.a : 2x 1 + x 2 1500 x 1 + x 2 1200 0 x 1 500 1. RESOLVER el siguiente problema de programación lineal max z =15x 1 + 10x 2 suj.a : 2x 1 + x 2 1500 x 1 + x 2 1200 0 x 1 500 x 2 0 2 RESOLVER el siguiente problema de P.L.: max z = 2x 1 + 3x 2 2x 3

Más detalles

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través

Más detalles

Curso Propedéutico de Cálculo Sesión 2: Límites y Continuidad

Curso Propedéutico de Cálculo Sesión 2: Límites y Continuidad y Laterales Curso Propedéutico de Cálculo Sesión 2: y Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico y Esquema Laterales 1 Laterales 2 y Esquema Laterales

Más detalles

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado IO04001 Investigación de Operaciones I Tema # 6 Introducción al método simplex matricial o revisado Objetivos de aprendizaje Al finalizar el tema serás capaz de: Emplear el Método simplex Matricial para

Más detalles

PROBLEMAS DE HOMOTECIAS Y SEMEJANZAS EN EL ESPACIO

PROBLEMAS DE HOMOTECIAS Y SEMEJANZAS EN EL ESPACIO PROBLEMAS DE HOMOTECIAS Y SEMEJANZAS EN EL ESPACIO 82 Sea T una transformación afín definida por sus ecuaciones: = 2+ 2x y ' = 2+ 2y z' = 2+ 2z a) Clasificar T y hallar sus elementos característicos b)

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Sistemas Lineales / 8 Contenidos Introducción Métodos directos Gauss Gauss

Más detalles

Ecuaciones diferenciales de orden superior

Ecuaciones diferenciales de orden superior Tema 6 Ecuaciones diferenciales de orden superior Es frecuente, en numerosos problemas de mecánica o teoría de circuitos eléctricos, que las ecuaciones que rigen los procesos sean de orden mayor que uno.

Más detalles

Matrices, determinantes, sistemas de ecuaciones lineales.

Matrices, determinantes, sistemas de ecuaciones lineales. UNIVERSIDAD DE MURCIA Departamento de Matemáticas Óptica y Optometría Resúmenes Curso 2007-2008 Matrices, determinantes, sistemas de ecuaciones lineales. Una matriz A de orden m n es una colección de m

Más detalles

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL 3.1 INTRODUCCIÓN Como ya sabes, una distribución de probabilidad es un modelo matemático que nos ayuda a explicar los

Más detalles

Qué es la programación lineal?

Qué es la programación lineal? Qué es la programación lineal? En infinidad de aplicaciones de la industria, la economía, la estrategia militar, etc... Se presentan situaciones en las que se exige maximizar o minimizar algunas funciones

Más detalles

2.1. Objetivo de la Planeación Agregada

2.1. Objetivo de la Planeación Agregada Unidad II Planeación Agregada 2.1. Objetivo de la Planeación Agregada La planeación agregada denominada también planeación combinada, se encuentra ubicada en el nivel táctico del proceso jerárquico de

Más detalles

Función descriptiva. Función descriptiva p.1/20

Función descriptiva. Función descriptiva p.1/20 Función descriptiva En análisis de sistemas lineales el método de respuesta en frecuencia permite en forma simple: Análisis del comportamiento del sistema (estabilidad, respuesta a entradas sinusoidales).

Más detalles

Universidad de Jaén Departamento de Matemáticas Ingeniería Técnica en Informática de Gestión.

Universidad de Jaén Departamento de Matemáticas Ingeniería Técnica en Informática de Gestión. Universidad de Jaén Departamento de Matemáticas Ingeniería Técnica en Informática de Gestión. Algebra I I Relación de problemas 3. Espacios vectoriales. 1.-Estudiar si los siguientes conjuntos forman o

Más detalles

Clasificación Mediante Modelos Lineales

Clasificación Mediante Modelos Lineales Clasificación Mediante Modelos Lineales Reconocimiento de Patrones Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica Facultad de Ingeniería, UdelaR 2018 Bishop, Cap. 4 Duda et

Más detalles

Por Sustitución: y= 2x+6 x + 3 (2x+6) = 4 x + 6x + 18 = 4 7x = -14 x= -2 y=2 (-2)+6 y=2. Por Igualación: 6x+18=4-x 7x=-14 x= -2 y=2 (-2)+6 y=2

Por Sustitución: y= 2x+6 x + 3 (2x+6) = 4 x + 6x + 18 = 4 7x = -14 x= -2 y=2 (-2)+6 y=2. Por Igualación: 6x+18=4-x 7x=-14 x= -2 y=2 (-2)+6 y=2 Tema 5: Sistemas de Ecuaciones y de Inecuaciones. Programación lineal. 5.1 Sistemas de dos ecuaciones con dos incógnitas. Un sistema de dos ecuaciones con dos incógnitas es de la forma: Un par de valores

Más detalles

Formulación de un Modelo de Programación Lineal

Formulación de un Modelo de Programación Lineal Formulación de un Modelo de Programación Lineal Para facilitar el planteamiento del modelo matemático general de la PL considere el siguiente problema: La planta HBB fabrica 4 productos que requieren para

Más detalles

Tema 5: Sistemas de Ecuaciones Lineales

Tema 5: Sistemas de Ecuaciones Lineales Tema 5: Sistemas de Ecuaciones Lineales Eva Ascarza-Mondragón Helio Catalán-Mogorrón Manuel Vega-Gordillo Índice 1 Definición 3 2 Solución de un sistema de ecuaciones lineales 4 21 Tipos de sistemas ecuaciones

Más detalles

Tema 9. Espacio de Estados : Representación y propiedades importantes

Tema 9. Espacio de Estados : Representación y propiedades importantes Ingeniería de Control Tema 9. Espacio de Estados : Representación y propiedades importantes Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Esquema del tema 9.1. Representación de sistemas discretos en

Más detalles

Matrices. p ij = a ik b kj = a i1 b 1j + a i2 b 2j + + a in b nj.

Matrices. p ij = a ik b kj = a i1 b 1j + a i2 b 2j + + a in b nj. Matrices Introducción Una matriz de m filas y n columnas con elementos en el cuerpo K es un rectángulo de elementos de K (es decir, números) del tipo a a 2 a n a 2 a 22 a 2n A = (a ij ) = a m a m2 a mn

Más detalles

Cada grupo de alumnos entregará un guión con los resultados. Preparación de la práctica

Cada grupo de alumnos entregará un guión con los resultados. Preparación de la práctica Práctica Optimización de Procesos Químicos Uso de funciones de la Toolbo de optimización de Matlab Objetivo: El objetivo de esta práctica es doble: Familiarizarse con la Toolbo de Optimización de Matlab

Más detalles

Algoritmos. Diseño de algoritmos por inducción. Alberto Valderruten. alberto.valderruten@udc.es. Dept. de Computación, Universidade da Coruña

Algoritmos. Diseño de algoritmos por inducción. Alberto Valderruten. alberto.valderruten@udc.es. Dept. de Computación, Universidade da Coruña Divide y Vencerás Diseño de algoritmos por inducción Dept. de Computación, Universidade da Coruña alberto.valderruten@udc.es Contenido Divide y Vencerás 1 Divide y Vencerás 2 Índice Divide y Vencerás 1

Más detalles

7. Forma de Lagrange para el polinomio interpolador. 9. Forma de Newton para el polinomio interpolador

7. Forma de Lagrange para el polinomio interpolador. 9. Forma de Newton para el polinomio interpolador Métodos Numéricos: Resumen y ejemplos Tema 2: Aproximación e interpolación Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Febrero 2008, Version

Más detalles

4. Métodos de Solución PPL : Solución Algebraica: METODO SIMPLEX Primera Parte

4. Métodos de Solución PPL : Solución Algebraica: METODO SIMPLEX Primera Parte 4. Métodos de Solución PPL : Solución Algebraica: METODO SIMPLEX Primera Parte Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co En PL un sistema de producción se representa

Más detalles

Tema # 7. método simplex matricial o revisado

Tema # 7. método simplex matricial o revisado IO04001 Investigación de Operaciones I Tema # 7 Solución de problemas mediante el método simplex matricial o revisado Objetivos de aprendizaje Al finalizar el tema serás capaz de: Emplear el Método simplex

Más detalles

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos Tema 3: Repaso de Álgebra Lineal Parte I Virginia Mazzone Contenidos Vectores y Matrices Bases y Ortonormailizaciòn Norma de Vectores Ecuaciones Lineales Algenraicas Ejercicios Vectores y Matrices Los

Más detalles

En el siguiente capítulo se hará un repaso de algunas propiedades básicas de conjuntos convexos, para después explicar el método simplex.

En el siguiente capítulo se hará un repaso de algunas propiedades básicas de conjuntos convexos, para después explicar el método simplex. Capitulo 2 Método Simplex Para explicar el método de generación de columnas se explicaran a continuación conceptos básicos de la programación lineal y el método simplex. En especial, el concepto de costo

Más detalles