Métodos No Lineales. Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Agosto de 2017

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Métodos No Lineales. Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Agosto de 2017"

Transcripción

1 Alvaro J. Riascos Villegas Universidad de los Andes y Quantil Agosto de 2017

2 Contenido 1 Introducción

3 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).

4 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).

5 Introducción Las funciones de aprendizaje óptimas que hemos descubierto son: 1 Para el problema de regresión: f (X ) = E[Y X ] (cuando la función de pérdida es el error cuadrático). 2 Para el problema de regresión el clasificador de Bayes (cuando la función de pérdida toma solo dos valores).

6 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.

7 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.

8 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.

9 Introducción En el caso de la función óptima de regresión la hemos aproximado por una función lineal de las variables explicativas: f (X ) = βx. En el caso del clasificador de Bayes lo hemos aproximado por funciones tales que una transformación monótona es lineal (e.g., la función logística). En el espacio de características (features), estas aproximaciones dan lugar a hiperplanos de separación. Por esta razón se llaman métodos lineales.

10 Contenido 1 Introducción

11 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

12 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

13 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

14 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

15 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

16 Aproximaciones no lineales al problema de regresión Bases de expansión. Supongamos que tenemos p variables explicativas y sea h m : R p R, m = 1,..., M funciones de transformación de X. Vamos a estudiar aproximaciones del tipo: f (x) = M m=1 β mh m (x) La ventaja de esta aproximación es que una vez se definen las funciones de transformación es un problema lineal en las variables transformadas. Ejemplos: la identidad, polinomios, interacciones, funciones indicadoras de regiones. El conjunto de funciones de transformación se conoce como un diccionario.

17 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1

18 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1

19 Splines Introducción Un Spline de orden M con nodos η 1,..., η K es un polinomio a trozos de orden M 1 con derivadas continuas de orden M 2. Las funciones de transformación son en general: h j (x) = x j 1, j = 1,..., M (1) h M+l = (x η l ) M 1 +, l = 1,..., K (2) El caso de splines cúbicos: 3 K f (x) = β j x j + θ k (x η k ) 3 + (3) j=0 k=1

20 Splines: Polinomios a trozos Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Piecewise Constant Piecewise Linear Continuous Piecewise Linear Piecewise-linear Basis Function ξ 1 ξ 1 ξ 1 ξ 1 ξ 2 ξ 2 ξ 2 ξ 2 (X ξ 1) +

21 Splines: suavizando Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Discontinuous Continuous Continuous First Derivative Continuous Second Derivative Piecewise Cubic Polynomials ξ 1 ξ 1 ξ 1 ξ 1 ξ 2 ξ 2 ξ 2 ξ 2

22 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.

23 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.

24 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.

25 Splines de suavización El mayor inconveniente con esta técnica es la necesidad de elegir los nodos exante. Los splines de suavización (smoothing splines) buscan resolver este problema. Para esto resolvemos el problema de minimización sobre un espacio de funciones dos veces diferenciables: N (y i f (x i )) 2 + λ (f (t)) 2 dt (4) i=1 donde λ es el parámetro de suavización. La solución a este problema es una función no lineal expresable en términos de una base de expansión.

26 Splines de suavización Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 5 Age Relative Change in Spinal BMD Male Female FIGURE 5.6. The response is the relative change in bone mineral density measured at the spine in adolescents, as a function of age. A separate smoothing spline was fit to the males and females, with λ This choice corresponds to about 12 degrees of freedom.

27 Contenido 1 Introducción

28 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.

29 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.

30 Métodos de Kernels En esta sección estudiamos el método de Kernels como funciones de localizacioón en contraste con la literatura en la que representan productos internos en espacios de hilbert. La idea de los métodos de kernels es estimar funciones distintas en cada punto observado y de tal forma que la función resultante sea suave. Esto se logra usando una función de pesos K λ (x 0, x i ) donde el peso en x i depende de la distancia de x i a x 0 y x 0 es el punto donde queremos evaluar la función de aprendizaje. El parámetro clave es λ, es el único que hay que entrenar.

31 Introducción Métodos de Kernels Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 6 El vecino más cercano puede introducir discontinuidades innecesarias. Nearest-Neighbor Kernel Epanechnikov Kernel ˆf(x0) ˆf(x0) x0 x0 FIGURE 6.1. In each panel 100 pairs xi, yi are generated at random from the blue curve with Gaussian errors: Y = sin(4x) +ε, X U[0, 1], ε N(0, 1/3). In the left panel the green curve is the result of a 30-nearest-neighbor running-mean smoother. The red point is the fitted constant ˆf(x0), and the red circles indicate those observations contributing to the fit at x0. The solid yellow region indicates the weights assigned to observations. In the right panel, the green curve is the kernel-weighted average, using an Epanechnikov kernel with (half) window width λ =0.2.

32 Métodos de Kernels Una forma de suavizar es usando el método de Nadaraya-Watson con función el Kernel cuadrático de Epanechnikov: f (x 0 ) = N i=1 K λ(x 0, x i )y i N i=1 K λ(x 0, x i ) (5) K λ (x 0, x i ) = D( x i x 0 ) (6) λ D(t) = 3 4 (1 t2 ) si t 1 (7)

33 Elements Métodos of Statistical de Kernels: Learning Aprendizaje (2nd Ed.) no supervisado c Hastie, Tibshirani & Friedman 2009 Chap 6 Métodos de Kernels λ controla la varianza de la función de aprendizaje. Entre mayor sea λ menor es la varianza. Kernels comúnes: Kλ(x0,x) Epanechnikov Tri-cube Gaussian FIGURE 6.2. A comparison of three popular kernels for local smoothing. Each has been calibrated to integrate to 1. The tri-cube kernel is compact and has two continuous derivatives at the boundary of its support, while the Epanechnikov kernel has none. The Gaussian kernel is continuously differentiable, but has infinite support.

34 Contenido 1 Introducción

35 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)

36 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)

37 Estimación de densidades Supongamos que x 1,..., x N es una muestra de datos tomada con una distribución con densidad f X (x). Un primer estimador local es: f X (x 0 ) = num{n(x 0)} Nλ donde N(x 0 ) es una vecindad de tamaño λ. Una versión suavizada es: f X (x 0 ) = 1 N K λ (x 0, x i ) (9) Nλ i=1 donde por ejemplo K λ (x 0, x i ) = ψ λ (x x 0 ) y ψ λ es la densidad Gaussiana (0, λ 2 ). (8)

38 Estimación de densidades En forma reducida: En p dimensiones: f X (x) = 1 Nλ N ψ λ (x x i ) (10) i=1 f X (x) = 1 Nλ(2λ 2 π) p 2 N i=1 exp( 1 2 (x x i λ )2 ) (11)

39 Estimación de densidades En forma reducida: En p dimensiones: f X (x) = 1 Nλ N ψ λ (x x i ) (10) i=1 f X (x) = 1 Nλ(2λ 2 π) p 2 N i=1 exp( 1 2 (x x i λ )2 ) (11)

40 Elements of Statistical Learning (2nd Ed.) c Hastie, Tibshirani & Friedman 2009 Chap 6 Estimación de densidades Density Estimate Systolic Blood Pressure (for CHD group) FIGURE A kernel density estimate for systolic blood pressure (for the CHD group). The density estimate at each point is the average contribution from each of the kernels at that point. We have scaled the kernels down by a factor of 10 to make the graph readable.

41 Contenido 1 Introducción

42 Usando las estimaciones de Kernel de las densidades por clase f j, el clasificador óptimo se puede escribir (usando la regla de Bayes): π j f j (x 0 ) P(G = j X = x 0 ) = J k=1 π (12) kf k (x 0 ) donde π j son las frecuencias relativas de cada clase.

43 Estimación de densidades Density Estimates CHD no CHD Posterior Estimate Systolic Blood Pressure Systolic Blood Pressure FIGURE The left panel shows the two separate density estimates for systolic blood pressure in the CHD versus no-chd groups, using a Gaussian kernel density estimate in each. The right panel shows the estimated posterior probabilities for CHD, using (6.25).

44 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.

45 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.

46 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.

47 : Bayes Naive Cuando el espacio de características es muy grande (p grande) la estimación por kernels tiene mucha varianza. El clasificador de Bayer asume independencia de las variables y en ese caso el clasificador de Bayes se reduce a: P(G = j X = x 0 ) = π j f j (x 0 ) J k=1 π kf k (x 0 ) (13) donde: f j (x) = Π p l=1 f j,l(x l ) (14) Cada f j,l es un kernel unidimensional. La complejidad del problema se reduce enormemente. Si alguna variable es dicreta, permite combinar fácilmente variables continuas y categóricas.

48 Contenido 1 Introducción

49 Predicción del crimen en Bogotá. El problema de causalidad y predicción.

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Septiembre de 2017

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Septiembre de 2017 Análisis No Supervisado Reglas de Asociación K Medias K - Medoids Selección del Número de Clusters Componentes Principales Métodos de Kernels: Aprendizaje no supervisado Análisis No Supervisado Alvaro

Más detalles

Técnicas Multivariadas Avanzadas

Técnicas Multivariadas Avanzadas Más alla de la linealidad Universidad Nacional Agraria La Molina 2014-2 Introducción Introducción Las relaciones entre variables casi nunca son lineales. Sin embargo el supuesto de linealidad casi siempre

Más detalles

PROGRAMA OFICIAL DE POSTGRADO EN ESTADÍSTICA E INVESTIGACIÓN OPERATIVA

PROGRAMA OFICIAL DE POSTGRADO EN ESTADÍSTICA E INVESTIGACIÓN OPERATIVA PROGRAMA OFICIAL DE POSTGRADO EN ESTADÍSTICA E INVESTIGACIÓN OPERATIVA DATOS IDENTIFICATIVOS DE LA MATERIA Código de la materia: P1061101 Nombre de la materia: Modelos de Regresión Número de créditos ECTS:

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.

MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS. Revista de Epistemología y Ciencias Humanas 37 MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS. Supervised Classification Method Support

Más detalles

Cálculo Numérico III Curso 2010/11

Cálculo Numérico III Curso 2010/11 Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los

Más detalles

donde ε es la variable aleatoria de media 0 y f(x) es una relación que tiene la siguiente expresión:

donde ε es la variable aleatoria de media 0 y f(x) es una relación que tiene la siguiente expresión: INTRODUCCIÓN Los modelos de regresión B-Splines son de tipo semiparamétrico y presentan un excelente ajuste en variables climatológicas, como se muestra en el desarrollo de este trabajo que está dividido

Más detalles

Estimación no-paramétrica Máximo Camacho Alonso Universidad de Murcia

Estimación no-paramétrica Máximo Camacho Alonso Universidad de Murcia Estimación no-paramétrica Máximo Camacho Alonso Universidad de Murcia www.um.es/econometria/tecpre mcamacho@um.es Maximo Camacho Estimación no-paramétrica 1 Contenido del tema Introducción: ventajas e

Más detalles

(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1)

(x) = 1 si P (Y = 1 X = x) P (Y = 0 X = x) P (Y = 0 X = x) > P (Y = 1 X = x) P (X = x Y = 0)P (Y = 0) > P (X = x Y = 1)P (Y = 1) 1 1. Conceptos generales de clasificación 2. Clasificador k-vecino más cercano 3. Clasificador Bayesiano óptimo 4. Análisis discriminante lineal (LDA) 5. Clasificadores lineales y el Modelo perceptrón

Más detalles

Análisis de datos Categóricos

Análisis de datos Categóricos Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores

Más detalles

Métodos de Pareo FN1. Fernanda Ruiz Nuñez Noviembre, 2006 Buenos Aires

Métodos de Pareo FN1. Fernanda Ruiz Nuñez Noviembre, 2006 Buenos Aires Métodos de Pareo FN1 Fernanda Ruiz Nuñez Noviembre, 2006 Buenos Aires Slide 1 FN1 Fernanda Nunez, 11/17/2006 Asignación aleatoria vs. Selección en observables Supuesto bajo asignación aleatoria: Y (1),

Más detalles

Ejemplo Curvas Principales Definiciones Algoritmo. Ejemplo Tortugas. En este ejemplo se miden la dimensiones del caparazón de las tortugas siendo

Ejemplo Curvas Principales Definiciones Algoritmo. Ejemplo Tortugas. En este ejemplo se miden la dimensiones del caparazón de las tortugas siendo Ejemplo Tortugas En este ejemplo se miden la dimensiones del caparazón de las tortugas siendo x 1 = 10 log(longitud del caparazón), x 2 = 10 log(ancho del caparazón) Se estudiaron 24 machos y 24 hembras.

Más detalles

Estimación de la regresión

Estimación de la regresión 13 de mayo de 2009 Estudio de la dependencia entre dos variables En muchas situaciones interesa analizar la relación existente entre dos variables, X e Y. El análisis de regresión estudia de que forma

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification

Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification Mutual Principal Components, reduction of dimensionality in statistical classification

Más detalles

Relación de ejercicios 6

Relación de ejercicios 6 Relación de ejercicios 6 Ecuaciones Diferenciales y Cálculo Numérico Grado en Ingeniería de Tecnologías de Telecomunicación Mayo de 2017 Ejercicio 6.1. 1. Construye, usando la base canónica del espacio

Más detalles

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM)

Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) Tema 6 Extensiones y aplicaciones (Máquinas de vectores soporte, SVM) José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Contenidos del tema 6 El problema de clasificación supervisada:

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM

Aprendizaje Automático. Segundo Cuatrimestre de Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Aprendizaje Automático Segundo Cuatrimestre de 2016 Clasificadores: Naive Bayes, Vecinos Más Cercanos, SVM Naive Bayes Naive Bayes Dada una nueva instancia con valores de atributos a 1, a 2,..., a n, su

Más detalles

Modelos de suavizado, aditivos y mixtos

Modelos de suavizado, aditivos y mixtos Carmen Armero 1 de junio de 2011 Introducción Introducción Modelos lineales, LM Modelos aditivos, AM Modelos lineales generalizados, GLM GAM I Un modelo lineal generalizado (GAM) es un modelo lineal generalizado

Más detalles

con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es

con los supuestos clásicos, uno de ellos es que ninguna de las variables X 1, X 2,, X K es TEMA 2: EXTENSIONES DEL MODELO DE REGRESIÓN LINEAL MÚLTIPLE: MULTICOLINEALIDAD Y TRANSFORMACIONES LINEALES. Wooldridge: Capítulos 6 (apartado 6.1) y 7 Gujarati: Capítulos 9 (apartado 9.8), 10 y 12 1. MULTICOLINEALIDAD

Más detalles

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1)

Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Estadística Multivariada Computacional Introducción al Aprendizaje Automático (parte 1) Mathias Bourel IMERL - Facultad de Ingeniería, Universidad de la República, Uruguay 24 de octubre de 2016 M.Bourel

Más detalles

Estructura de Tasas de Interés

Estructura de Tasas de Interés MODULO 2 ESTRUCTURA DE TASAS DE INTERES CLASE 3 MODELOS DE ESTRUCTURAS DE TASAS Estructura de Tasas de Interés Un modelo paramétrico de la estructura de tasas de interés se puede representar como: donde

Más detalles

Tema1. Modelo Lineal General.

Tema1. Modelo Lineal General. Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La

Más detalles

Tema: 2.3 Tipos y graficas de funciones

Tema: 2.3 Tipos y graficas de funciones UNIVERSIDAD AUTÓNOMA DEL ESTADO DE HIDALGO ESCUELA PREPARATORIA DE IXTLAHUACO Tema: 2.3 Tipos y graficas de funciones Lic. Lucia Hernández Granados Enero Junio 2018 Tema: 2.3 Tipos y graficas de funciones

Más detalles

Análisis de Datos en Física de Partículas

Análisis de Datos en Física de Partículas Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del

Más detalles

Introducción a series de tiempo

Introducción a series de tiempo Introducción a series de tiempo Aniel Nieves-González Spring 2014 Aniel Nieves-González () Time Series Spring 2014 1 / 20 Definiciones Definition (Serie de tiempo (Time Series)) Una serie de tiempo (ST)

Más detalles

Clasificación estadística de patrones

Clasificación estadística de patrones Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de

Más detalles

Introducción Aprendizaje de Máquina. Gerardo Gutiérrez Gutiérrez Alexis Rodríguez Gutiérrez

Introducción Aprendizaje de Máquina. Gerardo Gutiérrez Gutiérrez Alexis Rodríguez Gutiérrez Introducción Aprendizaje de Máquina Gerardo Gutiérrez Gutiérrez Alexis Rodríguez Gutiérrez Qué es Aprendizaje de Máquina? "Field of study that gives computers the ability to learn without being explicitly

Más detalles

Aprendizaje Automático

Aprendizaje Automático Aprendizaje Automático Andrea Mesa 21 de mayo de 2010 Aprendizaje automático Otras denominaciones: machine learning, statistical learning, data mining, inteligencia artificial. Las técnicas de Aprendizaje

Más detalles

Curso de Estadística no-paramétrica

Curso de Estadística no-paramétrica Curso de Estadística no-paramétrica Sesión 3: Regresión no paramétrica y Contrastes de Aleatoriedad y bondad de ajuste Facundo Muñoz Grup d Estadística espacial i Temporal Departament d Estadística en

Más detalles

Estimación Máxima Verosimilitud

Estimación Máxima Verosimilitud Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay

Más detalles

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte)

TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) TEMA 6. SVM Support Vector Machines (Máquinas de Vectores Soporte) Francisco José Ribadas Pena Modelos de Razonamiento y Aprendizaje 5 Informática ribadas@uvigo.es 17 de abril de 2012 FJRP ccia [Modelos

Más detalles

Regularización. agosto 2017

Regularización. agosto 2017 agosto 2017 Los métodos de selección de variables implican usar el estimador de mínimos cuadrados para ajustar un modelo lineal con sólo un subconjunto de las variables predictoras. Los métodos de regularización

Más detalles

Aprendizaje Estadístico

Aprendizaje Estadístico Aprendizaje Estadístico Modelado y Análisis de Redes de Telecomunicaciones IIE - Facultad de Ingeniería Curso 2014 Introducción Algunos ejemplos de aprendizaje (son muchos!): clasificar mail en spam o

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10 Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

Introducción a series de tiempo

Introducción a series de tiempo Introducción a series de tiempo Aniel Nieves-González Abril 2013 Aniel Nieves-González () Time Series Abril 2013 1 / 20 Definiciones Definition (Serie de tiempo (Time Series)) Una serie de tiempo (ST)

Más detalles

ANÁLISIS DE REGRESIÓN N LINEAL

ANÁLISIS DE REGRESIÓN N LINEAL ANÁLISIS DE REGRESIÓN N LINEAL Varias partes tomadas de Julio H. Cole "Nociones de Regresión Lineal" en Enciclopedia Multimedia Virtual de Economía EMVI. http://eumed.net/cursecon/medir/index.htm Análisis

Más detalles

Métodos Numéricos Cap 5: Interpolación y Aproximación polinomial

Métodos Numéricos Cap 5: Interpolación y Aproximación polinomial 1/12 Aproximación funcional e Interpolación Representación mediante funciones analíticas sencillas de: Información discreta. (Resultante de muestreos). Funciones complicadas. Siendo y k = f(x k ) una cierta

Más detalles

Toma de Datos y Tratamiento de Errores. Daniel Farías

Toma de Datos y Tratamiento de Errores. Daniel Farías Técnicas Experimentales II - 2º Física - Curso 2009-10 Daniel Farías Departamento de Física de la Materia Condensada Universidad Autónoma de Madrid Libros recomendados: -Mecánica Elemental (ver Capítulo

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

MANEJO DEL CULTIVO, FERTILIDAD Y USOS

MANEJO DEL CULTIVO, FERTILIDAD Y USOS MANEJO DEL CULTIVO, FERTILIDAD Y USOS Manejo Del Cultivo, Fertilidad Y Usos MODELO DE RESPUESTA A LA INTERACCIÓN ENTRE LA DENSIDAD DE PLANTAS Y NITRÓGENO EN MAÍZ PARA LA REGIÓN TEMPLADA ARGENTINA Monsanto

Más detalles

T2. El modelo lineal simple

T2. El modelo lineal simple T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de

Más detalles

Capítulo 6. Estimación núcleo y métodos de posicionamiento de los países Introducción

Capítulo 6. Estimación núcleo y métodos de posicionamiento de los países Introducción Capítulo 6 Estimación núcleo y métodos de posicionamiento de los países 6.. Introducción En el capítulo 4 se ha descrito como estimar la estructura de tipos de interés asociada a una frecuencia temporal,

Más detalles

1. Supongamos que queremos estimar el estado de la economía española (el Índice (x t )). Sin embargo x t resulta inobservable.

1. Supongamos que queremos estimar el estado de la economía española (el Índice (x t )). Sin embargo x t resulta inobservable. 1 Índice FEDEA 1.1 El Índice (Teoría) 1. Supongamos que queremos estimar el estado de la economía española (el Índice (x t )). Sin embargo x t resulta inobservable. 2. Pero disponemos de algunos datos

Más detalles

Análisis multivariante

Análisis multivariante Machine Learning 2016-17 1 Aprendizaje automatizado (ML) 2 3 Aprendizaje automatizado (ML) Definiciones Conjunto de herramientas para transformar datos en conocimiento. Conjunto de técnicas que permitan

Más detalles

MATEMÁTICAS. Posgrado en Nanotecnología. Dr. Roberto Pedro Duarte Zamorano 2016 Departamento de Física

MATEMÁTICAS. Posgrado en Nanotecnología. Dr. Roberto Pedro Duarte Zamorano 2016 Departamento de Física MATEMÁTICAS Posgrado en Nanotecnología Dr. Roberto Pedro Duarte Zamorano 016 Departamento de Física TEMARIO 3. Transformada de Fourier 1. Transformadas integrales.. La Transformada de Fourier. 3. Teorema

Más detalles

Tema 4. Regresión lineal simple

Tema 4. Regresión lineal simple Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias

Más detalles

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.

ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos

Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos XXVI Simposio Internacional de Estadística 2016 Sincelejo, Sucre, Colombia, 8 al 12 de Agosto de 2016 Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos Catalina Patiño Bustamante 1,a,

Más detalles

APE - Aprendizaje Estadístico

APE - Aprendizaje Estadístico Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2018 200 - FME - Facultad de Matemáticas y Estadística 715 - EIO - Departamento de Estadística e Investigación Operativa 1004 -

Más detalles

Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez

Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez Felipe José Bravo Márquez 15 de noviembre de 2013 Introducción Un modelo de regresión se usa para modelar la relación de una variable dependiente y numérica con n variables independientes x 1, x 2,...,

Más detalles

Técnicas Supervisadas Aproximación no paramétrica

Técnicas Supervisadas Aproximación no paramétrica Técnicas Supervisadas Aproximación no paramétrica 2016 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ. de Granada Pattern Classification de Duda, Hart y Storck The Elements of Statistical

Más detalles

7.- Teorema integral de Fourier. Transformada de Fourier

7.- Teorema integral de Fourier. Transformada de Fourier 7.- Teorema integral de Fourier. Transformada de Fourier a) Introducción. b) Transformada de Fourier. c) Teorema integral de Fourier. d) Propiedades de la Transformada de Fourier. e) Teorema de Convolución.

Más detalles

Modelos mixtos de suavizado

Modelos mixtos de suavizado Modelos mixtos de suavizado Maria Durbán Universidad Carlos III de Madrid Septiembre 2010 Maria Durbán () Septiembre 2010 1 / 68 1 Modelos de suavizado 2 P-splines 3 P-splines como modelos mixtos 4 Aplicaciones

Más detalles

Hoja 4 Variables aleatorias multidimensionales

Hoja 4 Variables aleatorias multidimensionales Hoja 4 Variables aleatorias multidimensionales 1.- Estudiar si F (x, y) = 1, si x + 2y 1, 0, si x + 2y < 1, es una función de distribución en IR 2. 2.- Dada la variable aleatoria 2-dimensional (X, Y )

Más detalles

RECONOCIMIENTO DE PAUTAS

RECONOCIMIENTO DE PAUTAS RECONOCIMIENTO DE PAUTAS ANÁLISIS DISCRIMINANTE (Discriminant analysis) Reconocimiento de pautas supervisado si se cuenta con objetos cuya pertenencia a un grupo es conocida métodos: análisis de discriminantes

Más detalles

Geometría de Señales Espacios de Hilbert y aproximaciones

Geometría de Señales Espacios de Hilbert y aproximaciones Geometría de Señales Espacios de Hilbert y aproximaciones Temario Teorema de Parseval y Conservación de la Norma. Aproximaciones por proyección Ejemplos Teorema de Parseval Sea x la representación de un

Más detalles

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette

Estimación de densidades basada en núcleos: algunos elementos. Isabel Cañette Estimación de densidades basada en núcleos: algunos elementos básicos. Isabel Cañette Seminario de Reconocimiento de Patrones. Seminario de Probabilidad y Estadística. Diciembre, 2002 Introducción. Decimos

Más detalles

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar Concepto

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

Índice general. Prefacio...5

Índice general. Prefacio...5 Índice general Prefacio...5 Capítulo 1 Introducción...13 1.1 Introducción...13 1.2 Los datos...19 1.3 Etapas en los procesos de big data...20 1.4 Minería de datos...21 1.5 Estructura de un proyecto de

Más detalles

Cálculos de Regresión Logística en R, Caso de una covariable.

Cálculos de Regresión Logística en R, Caso de una covariable. Cálculos de Regresión Logística en R, Caso de una covariable. Carga de datos (Tabla 1.1, Hosmer-Lemeshow): CH=read.table( CHDAGE.txt,header = T) attach(ch) Gráfico de Dispersión: plot(age,chd,xlab= Edad,

Más detalles

Métodos Bayesianos (Convocatoria Febrero 2005)

Métodos Bayesianos (Convocatoria Febrero 2005) Dpto. Métodos Cuantitativos en Economía y Gestión Univ. de Las Palmas de G.C. Licenciatura en Economía Cuarto curso Curso 04/05 Métodos Bayesianos (Convocatoria Febrero 005) EJERCICIO 1. El método estándar

Más detalles

7.- Teorema integral de Fourier. Transformada de Fourier

7.- Teorema integral de Fourier. Transformada de Fourier 7.- Teorema integral de Fourier. Transformada de Fourier a) Introducción. b) Transformada de Fourier. c) Teorema integral de Fourier. d) Propiedades de la Transformada de Fourier. e) Teorema de Convolución.

Más detalles

BANDAS DE CONFIANZA BOOTSTRAP EN REGRESIÓN POLINÓMICA

BANDAS DE CONFIANZA BOOTSTRAP EN REGRESIÓN POLINÓMICA BANDAS DE CONFIANZA BOOTSTRAP EN REGRESIÓN POLINÓMICA Lourdes Zuñiga-Lema 1, Mario Paguay-Cuvi 1, Arquímides Haro 1, Antonio Meneses-Freire 2 1 Escuela Superior Politécnica Chimborazo, 2 Universidad Nacional

Más detalles

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM

Inferencia. Mauricio Olivares. 19 de junio de 2015 ITAM Inferencia Mauricio Olivares ITAM 19 de junio de 2015 Recuerda de nuestra clase anterior que m(x) = α + βx. Recuerda de nuestra clase anterior que m(x) = α + βx. Esta es una relación poblacional, no hay

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16 Regresión Lineal Rodrigo A. Alfaro 2009 Rodrigo A. Alfaro (BCCh) Regresión Lineal 2009 1 / 16 Contenidos 1 Regresiones Lineales Regresión Clásica Paquetes estadísticos 2 Estadísticos de Ajuste Global 3

Más detalles

Clustering: Auto-associative Multivariate Regression Tree (AAMRT)

Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Introducción Tipos Validación AAMRT Clustering: Auto-associative Multivariate Regression Tree (AAMRT) Miguel Bernal C Quantil 12 de diciembre de 2013 Miguel Bernal C Quantil Matemáticas Aplicadas Contenido

Más detalles

Análisis multivariante II

Análisis multivariante II Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano

Más detalles

Modelos Lineales Generalizados

Modelos Lineales Generalizados Modelos Lineales Generalizados 1 DefinicióndeunMLG Y1,Y2,...,Yn,conmediasµ1,µ2,...,µn,Yi, i=1,...,n,tienefdpmiembrodela familia exponencial a un parámetro, con las siguientes propiedades: 1.LadistribucióndecadaunodelosYi,paratodoi,estáenlaformacanónica,i.e.:

Más detalles

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en:

Introducción. Existen dos aproximaciones para resolver el problema de clasificación: Aproximación Generativa (vista en el Tema 3) Basada en: Introducción Eisten dos aproimaciones para resolver el problema de clasificación: Aproimación Generativa (vista en el Tema 3) Basada en: Modelar p(,w)=p( w)p(w) p( w) es la distribución condicional de

Más detalles

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características

Más detalles

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)

GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2017-2018 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Universidad Autónoma de

Más detalles

Aprendizaje Automático

Aprendizaje Automático id3 id3 como búsqueda Cuestiones Adicionales Regresión Lineal. Árboles y Reglas de Regresión Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje

Más detalles

Linear Regression and the Least-squares problem

Linear Regression and the Least-squares problem Linear Regression and the Least-squares problem Aniel Nieves-González Aniel Nieves-González () Linear Regression and the LSP 1 / 25 Variables cuantitativas y relaciones entre estas (Repaso) Recuerde que

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Support Vector Machines

Support Vector Machines Support Vector Machines Métodos Avanzados en Aprendizaje Artificial Luis F. Lago Fernández Manuel Sánchez-Montañés Ana González Universidad Autónoma de Madrid 6 de abril de 2010 L. Lago - M. Sánchez -

Más detalles

Modelos de suavizado, aditivos y mixtos

Modelos de suavizado, aditivos y mixtos Carmen Armero 26 de mayo de 2011 Modelos aditivos Regresión polinómica Modelos aditivos, I Un modelo aditivo es un modelo lineal con un predictor lineal definido a través de una suma de funciones suaves

Más detalles

Capítulo 8. Selección de variables Introducción

Capítulo 8. Selección de variables Introducción Capítulo 8 Selección de variables 8.1. Introducción En muchos problemas de regresión es posible considerar un número importante de variables predictoras. Un empresario podría estudiar los factores que

Más detalles

peso edad grasas Regresión lineal simple Los datos

peso edad grasas Regresión lineal simple Los datos Regresión lineal simple Los datos Los datos del fichero EdadPesoGrasas.txt corresponden a tres variables medidas en 25 individuos: edad, peso y cantidad de grasas en sangre. Para leer el fichero de datos

Más detalles

INTERVALOS DE CONFIANZA BOOTSTRAP BAJO INCUMPLIMIENTO DE SUPUESTOS EN REGRESIONES SPLINES PENALIZADAS

INTERVALOS DE CONFIANZA BOOTSTRAP BAJO INCUMPLIMIENTO DE SUPUESTOS EN REGRESIONES SPLINES PENALIZADAS Cristina Cuesta Gonzalo Marí Nicolás Zino Instituto de Investigaciones Teóricas y Aplicadas en Estadística (IITAE) INTERVALOS DE CONFIANZA BOOTSTRAP BAJO INCUMPLIMIENTO DE SUPUESTOS EN REGRESIONES SPLINES

Más detalles

Estadística II Ejercicios Tema 5

Estadística II Ejercicios Tema 5 Estadística II Ejercicios Tema 5 1. Considera los cuatro conjuntos de datos dados en las transparencias del Tema 5 (sección 5.1) (a) Comprueba que los cuatro conjuntos de datos dan lugar a la misma recta

Más detalles

Econometría II. Hoja de Problemas 2

Econometría II. Hoja de Problemas 2 Econometría II. Hoja de Problemas 2 1. Se quiere estudiar si los beneficios de las empresas dependen del gasto en I+D que realizan. Para estimar la ecuación beneficios t = β 1 +β 2 ventas t +β 3 gid t

Más detalles

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes ,5 5,5. Resultados de Aprendizaje

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes ,5 5,5. Resultados de Aprendizaje PROGRAMA DE CURSO Código Nombre CC5113 Aprendizaje Automático Bayesiano Nombre en Inglés Bayesian Machine Learning SCT Unidades Horas Docencia Horas de Trabajo Horas de Cátedra Docentes Auxiliar Personal

Más detalles

FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO

FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO Año 2016 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012

Más detalles

Estadística Bayesiana

Estadística Bayesiana Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar

Más detalles

Guillermo Ayala Gallego Universidad de Valencia

Guillermo Ayala Gallego Universidad de Valencia GoBack Regresión logística Guillermo Ayala Gallego Universidad de Valencia 4 de febrero de 2009 1 / 22 Puede que sea el procedimiento estadístico más utilizado. Con aplicaciones frecuentes en Medicina

Más detalles

Gamma curves for HD Sony F900/3 camara. (II)

Gamma curves for HD Sony F900/3 camara. (II) Gamma curves for HD Sony F900/3 camara. (II) In this article we test the five curves developped by Digital Praxis for Sony's F-900 camera, based on Cineon's logarithmic system using CVOFile editor. The

Más detalles

Unit 8: Maximum Likelihood for Location-Scale Distributions

Unit 8: Maximum Likelihood for Location-Scale Distributions Unit 8: Maximum Likelihood for Location-Scale Distributions Ramón V. León Notes largely based on Statistical Methods for Reliability Data by W.Q. Meeker and L. A. Escobar, Wiley, 1998 and on their class

Más detalles

Regresión Lineal Simple y Múltiple Regresión Logística

Regresión Lineal Simple y Múltiple Regresión Logística Regresión Lineal Simple y Múltiple Regresión Logística Miguel González Velasco Departamento de Matemáticas. Universidad de Extremadura MUI en Ciencias de la Salud MUI en Ciencias de la Salud (UEx) Regresión

Más detalles

x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a) We use Gausian elimination to transform the augmented matrix of the system

x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a) We use Gausian elimination to transform the augmented matrix of the system UC3M Matemáticas para la Economía Examen Final, 20/01/2015 SOLUCIONES 1 Se considera el siguiente sistema lineal dependiente de los parámetros k, m R x + y + z = 1 x + 2y + mz = 2 x + 4y + m 2 z = k (a)

Más detalles

Unit 8: Maximum Likelihood for Location-Scale Distributions. Ramón V. León

Unit 8: Maximum Likelihood for Location-Scale Distributions. Ramón V. León Unit 8: Maximum Likelihood for Location-Scale Distributions Ramón V. León Notes largely based on Statistical Methods for Reliability Data by W.Q. Meeker and L. A. Escobar, Wiley, 1998 and on their class

Más detalles

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico

Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,

Más detalles