Métodos No Lineales. Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Agosto de 2017
|
|
- Agustín Lucero Calderón
- hace 6 años
- Vistas:
Transcripción
1 Alvaro J. Riascos Villegas Universidad de los Andes y Quantil Agosto de 2017
2 Contenido 1 Introducción
3 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).
4 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).
5 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).
6 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.
7 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.
8 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.
9 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.
10 Contenido 1 Introducción
11 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
12 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
13 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
14 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
15 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
16 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.
17 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1
18 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1
19 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1
20 Splines: Polinomios a trozos Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Piecewise Constant Piecewise Linear Continuous Piecewise Linear Piecewise-linear Basis Function ξ 1 ξ 1 ξ 1 ξ 1 ξ 2 ξ 2 ξ 2 ξ 2 (X ξ 1) +
21 Splines: suavizando Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Discontinuous Continuous Continuous First Derivative Continuous Second Derivative Piecewise Cubic Polynomials ξ 1 ξ 1 ξ 1 ξ 1 ξ 2 ξ 2 ξ 2 ξ 2
22 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.
23 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.
24 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.
25 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.
26 Splines de suavización Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Age Relative Change in Spinal BMD Male Female FIGURE 5.6. The response is the relative change in bone mineral density measured at the spine in adolescents, as a function of age. A separate smoothing spline was fit to the males and females, with λ This choice corresponds to about 12 degrees of freedom.
27 Contenido 1 Introducción
28 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.
29 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.
30 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.
31 Introducción Métodos de Kernels Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 6 El vecino más cercano puede introducir discontinuidades innecesarias. Nearest-Neighbor Kernel Epanechnikov Kernel ˆf(x0) ˆf(x0) x0 x0 FIGURE 6.1. In each panel 100 pairs xi, yi are generated at random from the blue curve with Gaussian errors: Y = sin(4x) +ε, X U[0, 1], ε N(0, 1/3). In the left panel the green curve is the result of a 30-nearest-neighbor running-mean smoother. The red point is the fitted constant ˆf(x0), and the red circles indicate those observations contributing to the fit at x0. The solid yellow region indicates the weights assigned to observations. In the right panel, the green curve is the kernel-weighted average, using an Epanechnikov kernel with (half) window width λ =0.2.
32 Métodos de Kernels Una forma de suavizar es usando el método de Nadaraya-Watson con función el Kernel cuadrático de Epanechnikov: f (x 0 ) = N i=1 K λ(x 0, x i )y i N i=1 K λ(x 0, x i ) (5) K λ (x 0, x i ) = D( x i x 0 ) (6) λ D(t) = 3 4 (1 t2 ) si t 1 (7)
33 Elements Métodos of Statistical de Kernels: Learning Aprendizaje (2nd Ed.) no supervisado c Hastie, Tibshirani & Friedman 2009 Chap 6 Métodos de Kernels λ controla la varianza de la función de aprendizaje. Entre mayor sea λ menor es la varianza. Kernels comúnes: Kλ(x0,x) Epanechnikov Tri-cube Gaussian FIGURE 6.2. A comparison of three popular kernels for local smoothing. Each has been calibrated to integrate to 1. The tri-cube kernel is compact and has two continuous derivatives at the boundary of its support, while the Epanechnikov kernel has none. The Gaussian kernel is continuously differentiable, but has infinite support.
34 Contenido 1 Introducción
35 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)
36 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)
37 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)
38 Estimación de densidades En forma reducida: En p dimensiones: f X (x) = 1 Nλ N ψ λ (x x i ) (10) i=1 f X (x) = 1 Nλ(2λ 2 π) p 2 N i=1 exp( 1 2 (x x i λ )2 ) (11)
39 Estimación de densidades En forma reducida: En p dimensiones: f X (x) = 1 Nλ N ψ λ (x x i ) (10) i=1 f X (x) = 1 Nλ(2λ 2 π) p 2 N i=1 exp( 1 2 (x x i λ )2 ) (11)
40 Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 6 Estimación de densidades Density Estimate Systolic Blood Pressure (for CHD group) FIGURE A kernel density estimate for systolic blood pressure (for the CHD group). The density estimate at each point is the average contribution from each of the kernels at that point. We have scaled the kernels down by a factor of 10 to make the graph readable.
41 Contenido 1 Introducción
42 Usando las estimaciones de Kernel de las densidades por clase f j, el clasificador óptimo se puede escribir (usando la regla de Bayes): π j f j (x 0 ) P(G = j X = x 0 ) = J k=1 π (12) kf k (x 0 ) donde π j son las frecuencias relativas de cada clase.
43 Estimación de densidades Density Estimates CHD no CHD Posterior Estimate Systolic Blood Pressure Systolic Blood Pressure FIGURE The left panel shows the two separate density estimates for systolic blood pressure in the CHD versus no-chd groups, using a Gaussian kernel density estimate in each. The right panel shows the estimated posterior probabilities for CHD, using (6.25).
44 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.
45 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.
46 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.
47 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.
48 Contenido 1 Introducción
49 Predicción del crimen en Bogotá. El problema de causalidad y predicción.
Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Septiembre de 2017
Análisis No Supervisado Reglas de Asociación K Medias K - Medoids Selección del Número de Clusters Componentes Principales Métodos de Kernels: Aprendizaje no supervisado Análisis No Supervisado Alvaro
Técnicas Multivariadas Avanzadas
Más alla de la linealidad Universidad Nacional Agraria La Molina 2014-2 Introducción Introducción Las relaciones entre variables casi nunca son lineales. Sin embargo el supuesto de linealidad casi siempre
PROGRAMA OFICIAL DE POSTGRADO EN ESTADÍSTICA E INVESTIGACIÓN OPERATIVA
PROGRAMA OFICIAL DE POSTGRADO EN ESTADÍSTICA E INVESTIGACIÓN OPERATIVA DATOS IDENTIFICATIVOS DE LA MATERIA Código de la materia: P1061101 Nombre de la materia: Modelos de Regresión Número de créditos ECTS:
Clasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.
Revista de Epistemología y Ciencias Humanas 37 MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS. Supervised Classification Method Support
Cálculo Numérico III Curso 2010/11
Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los
donde ε es la variable aleatoria de media 0 y f(x) es una relación que tiene la siguiente expresión:
INTRODUCCIÓN Los modelos de regresión B-Splines son de tipo semiparamétrico y presentan un excelente ajuste en variables climatológicas, como se muestra en el desarrollo de este trabajo que está dividido
Estimación no-paramétrica Máximo Camacho Alonso Universidad de Murcia
Estimación no-paramétrica Máximo Camacho Alonso Universidad de Murcia www.um.es/econometria/tecpre mcamacho@um.es Maximo Camacho Estimación no-paramétrica 1 Contenido del tema Introducción: ventajas e
(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1)
1 1. Conceptos generales de clasificación 2. Clasificador k-vecino más cercano 3. Clasificador Bayesiano óptimo 4. Análisis discriminante lineal (LDA) 5. Clasificadores lineales y el Modelo perceptrón
Análisis de datos Categóricos
Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores
Métodos de Pareo FN1. Fernanda Ruiz Nuñez Noviembre, 2006 Buenos Aires
Métodos de Pareo FN1 Fernanda Ruiz Nuñez Noviembre, 2006 Buenos Aires Slide 1 FN1 Fernanda Nunez, 11/17/2006 Asignación aleatoria vs. Selección en observables Supuesto bajo asignación aleatoria: Y (1),
Ejemplo Curvas Principales Definiciones Algoritmo. Ejemplo Tortugas. En este ejemplo se miden la dimensiones del caparazón de las tortugas siendo
Ejemplo Tortugas En este ejemplo se miden la dimensiones del caparazón de las tortugas siendo x 1 = 10 log(longitud del caparazón), x 2 = 10 log(ancho del caparazón) Se estudiaron 24 machos y 24 hembras.
Estimación de la regresión
13 de mayo de 2009 Estudio de la dependencia entre dos variables En muchas situaciones interesa analizar la relación existente entre dos variables, X e Y. El análisis de regresión estudia de que forma
Elementos de máquinas de vectores de soporte
Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos
Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification
Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification Mutual Principal Components, reduction of dimensionality in statistical classification
Relación de ejercicios 6
Relación de ejercicios 6 Ecuaciones Diferenciales y Cálculo Numérico Grado en Ingeniería de Tecnologías de Telecomunicación Mayo de 2017 Ejercicio 6.1. 1. Construye, usando la base canónica del espacio
Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)
Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM
Aprendizaje Automático Segundo Cuatrimestre de 2016 Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Naive Bayes Naive Bayes Dada una nueva instancia con valores de atributos a 1, a 2,..., a n, su
Modelos de suavizado, aditivos y mixtos
Carmen Armero 1 de junio de 2011 Introducción Introducción Modelos lineales, LM Modelos aditivos, AM Modelos lineales generalizados, GLM GAM I Un modelo lineal generalizado (GAM) es un modelo lineal generalizado
con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es
TEMA 2: EXTENSIONES DEL MODELO DE REGRESIÓN LINEAL MÚLTIPLE: MULTICOLINEALIDAD Y TRANSFORMACIONES LINEALES. Wooldridge: Capítulos 6 (apartado 6.1) y 7 Gujarati: Capítulos 9 (apartado 9.8), 10 y 12 1. MULTICOLINEALIDAD
Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)
Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Mathias Bourel IMERL - Facultad de Ingeniería, Universidad de la República, Uruguay 24 de octubre de 2016 M.Bourel
Estructura de Tasas de Interés
MODULO 2 ESTRUCTURA DE TASAS DE INTERES CLASE 3 MODELOS DE ESTRUCTURAS DE TASAS Estructura de Tasas de Interés Un modelo paramétrico de la estructura de tasas de interés se puede representar como: donde
Tema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Tema: 2.3 Tipos y graficas de funciones
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE HIDALGO ESCUELA PREPARATORIA DE IXTLAHUACO Tema: 2.3 Tipos y graficas de funciones Lic. Lucia Hernández Granados Enero Junio 2018 Tema: 2.3 Tipos y graficas de funciones
Análisis de Datos en Física de Partículas
Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del
Introducción a series de tiempo
Introducción a series de tiempo Aniel Nieves-González Spring 2014 Aniel Nieves-González () Time Series Spring 2014 1 / 20 Definiciones Definition (Serie de tiempo (Time Series)) Una serie de tiempo (ST)
Clasificación estadística de patrones
Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de
Introducción Aprendizaje de Máquina. Gerardo Gutiérrez Gutiérrez Alexis Rodríguez Gutiérrez
Introducción Aprendizaje de Máquina Gerardo Gutiérrez Gutiérrez Alexis Rodríguez Gutiérrez Qué es Aprendizaje de Máquina? "Field of study that gives computers the ability to learn without being explicitly
Aprendizaje Automático
Aprendizaje Automático Andrea Mesa 21 de mayo de 2010 Aprendizaje automático Otras denominaciones: machine learning, statistical learning, data mining, inteligencia artificial. Las técnicas de Aprendizaje
Curso de Estadística no-paramétrica
Curso de Estadística no-paramétrica Sesión 3: Regresión no paramétrica y Contrastes de Aleatoriedad y bondad de ajuste Facundo Muñoz Grup d Estadística espacial i Temporal Departament d Estadística en
Estimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)
TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos
Regularización. agosto 2017
agosto 2017 Los métodos de selección de variables implican usar el estimador de mínimos cuadrados para ajustar un modelo lineal con sólo un subconjunto de las variables predictoras. Los métodos de regularización
Aprendizaje Estadístico
Aprendizaje Estadístico Modelado y Análisis de Redes de Telecomunicaciones IIE - Facultad de Ingeniería Curso 2014 Introducción Algunos ejemplos de aprendizaje (son muchos!): clasificar mail en spam o
Estadística II Tema 4. Regresión lineal simple. Curso 2009/10
Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores
Introducción a series de tiempo
Introducción a series de tiempo Aniel Nieves-González Abril 2013 Aniel Nieves-González () Time Series Abril 2013 1 / 20 Definiciones Definition (Serie de tiempo (Time Series)) Una serie de tiempo (ST)
ANÁLISIS DE REGRESIÓN N LINEAL
ANÁLISIS DE REGRESIÓN N LINEAL Varias partes tomadas de Julio H. Cole "Nociones de Regresión Lineal" en Enciclopedia Multimedia Virtual de Economía EMVI. http://eumed.net/cursecon/medir/index.htm Análisis
Métodos Numéricos Cap 5: Interpolación y Aproximación polinomial
1/12 Aproximación funcional e Interpolación Representación mediante funciones analíticas sencillas de: Información discreta. (Resultante de muestreos). Funciones complicadas. Siendo y k = f(x k ) una cierta
Toma de Datos y Tratamiento de Errores. Daniel Farías
Técnicas Experimentales II - 2º Física - Curso 2009-10 Daniel Farías Departamento de Física de la Materia Condensada Universidad Autónoma de Madrid Libros recomendados: -Mecánica Elemental (ver Capítulo
ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
MANEJO DEL CULTIVO, FERTILIDAD Y USOS
MANEJO DEL CULTIVO, FERTILIDAD Y USOS Manejo Del Cultivo, Fertilidad Y Usos MODELO DE RESPUESTA A LA INTERACCIÓN ENTRE LA DENSIDAD DE PLANTAS Y NITRÓGENO EN MAÍZ PARA LA REGIÓN TEMPLADA ARGENTINA Monsanto
T2. El modelo lineal simple
T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de
Capítulo 6. Estimación núcleo y métodos de posicionamiento de los países Introducción
Capítulo 6 Estimación núcleo y métodos de posicionamiento de los países 6.. Introducción En el capítulo 4 se ha descrito como estimar la estructura de tipos de interés asociada a una frecuencia temporal,
1. Supongamos que queremos estimar el estado de la economía española (el Índice (x t )). Sin embargo x t resulta inobservable.
1 Índice FEDEA 1.1 El Índice (Teoría) 1. Supongamos que queremos estimar el estado de la economía española (el Índice (x t )). Sin embargo x t resulta inobservable. 2. Pero disponemos de algunos datos
Análisis multivariante
Machine Learning 2016-17 1 Aprendizaje automatizado (ML) 2 3 Aprendizaje automatizado (ML) Definiciones Conjunto de herramientas para transformar datos en conocimiento. Conjunto de técnicas que permitan
MATEMÁTICAS. Posgrado en Nanotecnología. Dr. Roberto Pedro Duarte Zamorano 2016 Departamento de Física
MATEMÁTICAS Posgrado en Nanotecnología Dr. Roberto Pedro Duarte Zamorano 016 Departamento de Física TEMARIO 3. Transformada de Fourier 1. Transformadas integrales.. La Transformada de Fourier. 3. Teorema
Tema 4. Regresión lineal simple
Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos
XXVI Simposio Internacional de Estadística 2016 Sincelejo, Sucre, Colombia, 8 al 12 de Agosto de 2016 Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos Catalina Patiño Bustamante 1,a,
APE - Aprendizaje Estadístico
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2018 200 - FME - Facultad de Matemáticas y Estadística 715 - EIO - Departamento de Estadística e Investigación Operativa 1004 -
Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez
Felipe José Bravo Márquez 15 de noviembre de 2013 Introducción Un modelo de regresión se usa para modelar la relación de una variable dependiente y numérica con n variables independientes x 1, x 2,...,
Técnicas Supervisadas Aproximación no paramétrica
Técnicas Supervisadas Aproximación no paramétrica 2016 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ. de Granada Pattern Classification de Duda, Hart y Storck The Elements of Statistical
7.- Teorema integral de Fourier. Transformada de Fourier
7.- Teorema integral de Fourier. Transformada de Fourier a) Introducción. b) Transformada de Fourier. c) Teorema integral de Fourier. d) Propiedades de la Transformada de Fourier. e) Teorema de Convolución.
Modelos mixtos de suavizado
Modelos mixtos de suavizado Maria Durbán Universidad Carlos III de Madrid Septiembre 2010 Maria Durbán () Septiembre 2010 1 / 68 1 Modelos de suavizado 2 P-splines 3 P-splines como modelos mixtos 4 Aplicaciones
Hoja 4 Variables aleatorias multidimensionales
Hoja 4 Variables aleatorias multidimensionales 1.- Estudiar si F (x, y) = 1, si x + 2y 1, 0, si x + 2y < 1, es una función de distribución en IR 2. 2.- Dada la variable aleatoria 2-dimensional (X, Y )
RECONOCIMIENTO DE PAUTAS
RECONOCIMIENTO DE PAUTAS ANÁLISIS DISCRIMINANTE (Discriminant analysis) Reconocimiento de pautas supervisado si se cuenta con objetos cuya pertenencia a un grupo es conocida métodos: análisis de discriminantes
Geometría de Señales Espacios de Hilbert y aproximaciones
Geometría de Señales Espacios de Hilbert y aproximaciones Temario Teorema de Parseval y Conservación de la Norma. Aproximaciones por proyección Ejemplos Teorema de Parseval Sea x la representación de un
Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette
Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL
Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar Concepto
Econometría II. Hoja de Problemas 1
Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli
Índice general. Prefacio...5
Índice general Prefacio...5 Capítulo 1 Introducción...13 1.1 Introducción...13 1.2 Los datos...19 1.3 Etapas en los procesos de big data...20 1.4 Minería de datos...21 1.5 Estructura de un proyecto de
Cálculos de Regresión Logística en R, Caso de una covariable.
Cálculos de Regresión Logística en R, Caso de una covariable. Carga de datos (Tabla 1.1, Hosmer-Lemeshow): CH=read.table( CHDAGE.txt,header = T) attach(ch) Gráfico de Dispersión: plot(age,chd,xlab= Edad,
Métodos Bayesianos (Convocatoria Febrero 2005)
Dpto. Métodos Cuantitativos en Economía y Gestión Univ. de Las Palmas de G.C. Licenciatura en Economía Cuarto curso Curso 04/05 Métodos Bayesianos (Convocatoria Febrero 005) EJERCICIO 1. El método estándar
7.- Teorema integral de Fourier. Transformada de Fourier
7.- Teorema integral de Fourier. Transformada de Fourier a) Introducción. b) Transformada de Fourier. c) Teorema integral de Fourier. d) Propiedades de la Transformada de Fourier. e) Teorema de Convolución.
BANDAS DE CONFIANZA BOOTSTRAP EN REGRESIÓN POLINÓMICA
BANDAS DE CONFIANZA BOOTSTRAP EN REGRESIÓN POLINÓMICA Lourdes Zuñiga-Lema 1, Mario Paguay-Cuvi 1, Arquímides Haro 1, Antonio Meneses-Freire 2 1 Escuela Superior Politécnica Chimborazo, 2 Universidad Nacional
Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM
Inferencia Mauricio Olivares ITAM 19 de junio de 2015 Recuerda de nuestra clase anterior que m(x) = α + βx. Recuerda de nuestra clase anterior que m(x) = α + βx. Esta es una relación poblacional, no hay
Sistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16
Regresión Lineal Rodrigo A. Alfaro 2009 Rodrigo A. Alfaro (BCCh) Regresión Lineal 2009 1 / 16 Contenidos 1 Regresiones Lineales Regresión Clásica Paquetes estadísticos 2 Estadísticos de Ajuste Global 3
Clustering: Auto-associative Multivariate Regression Tree (AAMRT)
Introducción Tipos Validación AAMRT Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Miguel Bernal C Quantil 12 de diciembre de 2013 Miguel Bernal C Quantil Matemáticas Aplicadas Contenido
Análisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
Modelos Lineales Generalizados
Modelos Lineales Generalizados 1 DefinicióndeunMLG Y1,Y2,...,Yn,conmediasµ1,µ2,...,µn,Yi, i=1,...,n,tienefdpmiembrodela familia exponencial a un parámetro, con las siguientes propiedades: 1.LadistribucióndecadaunodelosYi,paratodoi,estáenlaformacanónica,i.e.:
Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:
Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de
Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2017-2018 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Universidad Autónoma de
Aprendizaje Automático
id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje
Linear Regression and the Least-squares problem
Linear Regression and the Least-squares problem Aniel Nieves-González Aniel Nieves-González () Linear Regression and the LSP 1 / 25 Variables cuantitativas y relaciones entre estas (Repaso) Recuerde que
Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Support Vector Machines
Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -
Modelos de suavizado, aditivos y mixtos
Carmen Armero 26 de mayo de 2011 Modelos aditivos Regresión polinómica Modelos aditivos, I Un modelo aditivo es un modelo lineal con un predictor lineal definido a través de una suma de funciones suaves
Capítulo 8. Selección de variables Introducción
Capítulo 8 Selección de variables 8.1. Introducción En muchos problemas de regresión es posible considerar un número importante de variables predictoras. Un empresario podría estudiar los factores que
peso edad grasas Regresión lineal simple Los datos
Regresión lineal simple Los datos Los datos del fichero EdadPesoGrasas.txt corresponden a tres variables medidas en 25 individuos: edad, peso y cantidad de grasas en sangre. Para leer el fichero de datos
INTERVALOS DE CONFIANZA BOOTSTRAP BAJO INCUMPLIMIENTO DE SUPUESTOS EN REGRESIONES SPLINES PENALIZADAS
Cristina Cuesta Gonzalo Marí Nicolás Zino Instituto de Investigaciones Teóricas y Aplicadas en Estadística (IITAE) INTERVALOS DE CONFIANZA BOOTSTRAP BAJO INCUMPLIMIENTO DE SUPUESTOS EN REGRESIONES SPLINES
Estadística II Ejercicios Tema 5
Estadística II Ejercicios Tema 5 1. Considera los cuatro conjuntos de datos dados en las transparencias del Tema 5 (sección 5.1) (a) Comprueba que los cuatro conjuntos de datos dan lugar a la misma recta
Econometría II. Hoja de Problemas 2
Econometría II. Hoja de Problemas 2 1. Se quiere estudiar si los beneficios de las empresas dependen del gasto en I+D que realizan. Para estimar la ecuación beneficios t = β 1 +β 2 ventas t +β 3 gid t
PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes ,5 5,5. Resultados de Aprendizaje
PROGRAMA DE CURSO Código Nombre CC5113 Aprendizaje Automático Bayesiano Nombre en Inglés Bayesian Machine Learning SCT Unidades Horas Docencia Horas de Trabajo Horas de Cátedra Docentes Auxiliar Personal
FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO
FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO Año 2016 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012
Estadística Bayesiana
Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar
Guillermo Ayala Gallego Universidad de Valencia
GoBack Regresión logística Guillermo Ayala Gallego Universidad de Valencia 4 de febrero de 2009 1 / 22 Puede que sea el procedimiento estadístico más utilizado. Con aplicaciones frecuentes en Medicina
Gamma curves for HD Sony F900/3 camara. (II)
Gamma curves for HD Sony F900/3 camara. (II) In this article we test the five curves developped by Digital Praxis for Sony's F-900 camera, based on Cineon's logarithmic system using CVOFile editor. The
Unit 8: Maximum Likelihood for Location-Scale Distributions
Unit 8: Maximum Likelihood for Location-Scale Distributions Ramón V. León Notes largely based on Statistical Methods for Reliability Data by W.Q. Meeker and L. A. Escobar, Wiley, 1998 and on their class
Regresión Lineal Simple y Múltiple Regresión Logística
Regresión Lineal Simple y Múltiple Regresión Logística Miguel González Velasco Departamento de Matemáticas. Universidad de Extremadura MUI en Ciencias de la Salud MUI en Ciencias de la Salud (UEx) Regresión
x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a) We use Gausian elimination to transform the augmented matrix of the system
UC3M Matemáticas para la Economía Examen Final, 20/01/2015 SOLUCIONES 1 Se considera el siguiente sistema lineal dependiente de los parámetros k, m R x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a)
Unit 8: Maximum Likelihood for Location-Scale Distributions. Ramón V. León
Unit 8: Maximum Likelihood for Location-Scale Distributions Ramón V. León Notes largely based on Statistical Methods for Reliability Data by W.Q. Meeker and L. A. Escobar, Wiley, 1998 and on their class
Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico
Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,