Redes Neuronales Artificiales

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Redes Neuronales Artificiales"

Transcripción

1 Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es

2

3 Mapas

4 Predicción

5 Robótica M l M r W ij S S 2 S 3 S 4 S 5 S 6 S 7 S 8

6 Neurociencia Copiar Reconocer Aprender Memoria Contar Responder Crear Razonar Memoria

7 Índice Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

8 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

9 Por qué usar ANNs Las redes neuronales son muy utilizadas por sus propiedades: Carácter no lineal. Adaptabilidad. Generalización. Tolerancia a fallos. Descomposición de tareas. Escalabilidad. También cuentan con desventajas. Complejidad en el diseño de la arquitectura. Gran cantidad de parámetros a ajustar. Dificultad para entrenar las redes.

10 Por qué usar ANNs Reconocimiento de patrones: asignación de objetivo a un dato de entrada Reconocimiento de caracteres Reconocimiento de fonemas en voz Toma de decisiones Compresión de imágenes y reducción de dimensionalidad Predicción de series temporales Identificación y control de sistemas...

11 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

12 Neurona Biológica

13 Neurona Biológica

14 Neurona Biológica

15 Neurona Biológica

16 Neurona Biológica

17 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

18 Revisión histórica 936 Alan Turing comienza a estudiar el cerebro humano. 943 McCulloch y Pitts, primeros modelos de neurona. 949 Hebb publica la regla de Hebb para el aprendizaje. 958 Rosemblatt desarrolla el perceptrón simple. 960 Widrow y Hoff desarrollan ADALINE (ADAptative LINear Elements) se frena la investigaicón, al probar la debilidad del perceptrón, Minsky y Papert. Años 80 aparecen redes de Hopfield y el algoritmo backpropagation. Actualidad uso en gran variedad de aplicaciones y areas de conocimiento. Recientemente aparecen modelos computacionales más similares a como el cerebro procesa la información (Neurociencia).

19 VL VR N 6 N 6 2 N 4 N 4 2 N 4 3 N 4 4 N 5 N 5 2 N 5 3 N 5 4 N 0 N 0 2 N 0 3 N 0 4 N N 2... N 8 N 2 N 3 N N 3 8 IR0 IR IR6 IR7 L0 L L7 GM0 BL0 BL BL7 ANN - Representación θ x x2 θ2 w w2 N w2 N2 w22 y y2

20 ANN - Representación Neural Network Design (Ed. 2) Hagan, Demuth, Beale & de Jesús

21 ANN - Una entrada

22 ANN - Una entrada a = f(wp+b) () p, w, b, a R n = (wp+b) Qué es f? Función de Activación/Transferencia (MATLAB: nnd2n)

23 (MATLAB: nnd2n) ANN - f? a = { 0 if n < 0 if n 0 a = n a = +e n

24 ANN - Varias entradas

25 ANN - Varias entradas

26 ANN - Varias entradas (MATLAB: nnd2n2) a = f(wp+b) (2) p, W, b, a R n = (Wp+b)

27 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

28 Sintonización de ANNs Consiste en buscar los parámetros libres de la red (W, b,..). Diversos tipos: Sintonización manual: redes pequeñas Algoritmos de aprendizaje: Los más utilizados. Algoritmos de búsqueda local. Algoritmos genéticos: Algoritmos de búsqueda global. Otras técnicas de optimización...

29 Aprendizaje: Tipos Supervisado. Se dispone de pares de vectores de entrada y salida deseada. El error se establece entre la salida de la red y la salida deseada. Por refuerzo. Es un aprendizaje supervisado donde no se proporciona la salida deseada durante el entrenamiento. Se proporciona una señal de refuerzo para ajustar los parámetros. No supervisado o autoorganizado. Se estima una función de densidad de probalidad para el conjunto de entradas. Se estima la bondad de la salida en función del conjunto de entradas. Los algoritmos más utilizados son los supervisados.

30 Aprendizaje: Operativa 3 fases: Entrenamiento: Se entrena la red neuronal con un subconjunto de los datos disponibles. Se intenta minimizar el error u obtener la mejor solución con los datos de entrenamiento. Prueba: Se prueban los resultados de la red con un subconjunto de los datos que no se han utilizado para el entrenamiento. Operativa: Se comprueba la funcionalidad de la red neuronal con un subconjunto de los datos distintos de los de prueba y entrenamiento.

31 Aprendizaje: Esquema

32 Aprendizaje: Problemas Underfitting: el error del entrenemiento y de prueba son altos. Causas: red simple, insuficiente aprendizaje. Overfitting: el error de entrenemiento es bajo pero el de prueba es alto. Causas: red compleja, no hay suficientes datos para el entrenamiento. Mínimos locales: el entrenamiento alcanza un error mínimo que no es abosoluto. Solución: reinicializar los pesos, utilizar algoritmos de búsqueda globlal,...

33 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

34 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

35 Perceptrón Contexto: McCulloch & Pitts Salida binaria Rosenbaltt Perceptron & Learning Rule Condiciones iniciales aleatorias Convergencia garantizada si la solución existe Minsky & Papert Limitaciones del Perceptron

36 Perceptrón: Notación

37 Perceptrón: Notación a = f(n) n = (Wp+b) (3) p, W, b { R, a {, } if n i < 0 f(n i ) = if n i 0 (MATLAB: hardlim/hardlims)

38 Perceptrón: Notación w, w,2... w,r w 2, w 2,2... w 2,R W = w i = w S, w S,2... w S,R w i, w i,2 w i,r p b p 2 p =. b = b 2. p R b S w T w T 2 w T S. W =. a i = f(w T i p+b i ) (4)

39 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b)

40 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b) W = [ ] b = a = { if ( p + p 2 ) < 0 if ( p + p 2 ) 0 (MATLAB: nnd4db)

41 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b) W = [ ] b = a = { if ( p + p 2 ) < 0 if ( p + p 2 ) 0 (MATLAB: nnd4db)

42 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 =

43 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p, p 2 {0, } W, b R

44 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

45 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

46 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

47 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

48 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

49 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p

50 Perceptrón: Aprendizaje Cómo sintonizamos los pesos?

51 Perceptrón: Aprendizaje Cómo sintonizamos los pesos? Perceptron Learning Rule Aprendizaje supervisado

52 Perceptrón: Aprendizaje Cómo sintonizamos los pesos? Perceptron Learning Rule Aprendizaje supervisado Un ejemplo sencillo { [ ] } { p =, t 2 = p 2 = [ ] } { [ ] } 0, t 2 2 = 0 p 3 =, t 3 = 0

53 Perceptrón: Aprendizaje Asegurar que el problema tiene solución

54 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? w T = [ ] { p = [ ] }, t 2 =

55 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? a = f(w T p ) = f w T = [ ] { p = [ ] }, t 2 = ( [.0 ] [ ]) 0.8 = f( 0.6) = 0 2

56 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? a = f(w T p ) = f w T = [ ] { p = [ ] }, t 2 = ( [.0 ] [ ]) 0.8 = f( 0.6) = 0 2

57 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p

58 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p

59 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p

60 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p No nos vale!!

61 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p

62 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p [ ].0 w new = w old + p = [ ] = 2 [ ] 2.0.2

63 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p [ ].0 w new = w old + p = [ ] = 2 [ ] 2.0.2

64 Perceptrón: Aprendizaje Que ocurre con el resto de entradas/objetivos? w T = [ ] [ ] } {p 2 =, t 2 2 = 0 ( [2.0 a = f(w T p ] [ ]) 2) = f.2 = f(0.4) = 0 2

65 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p

66 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p Si t 2 = 0 y a = w new = w old p 2

67 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p Si t 2 = 0 y a = w new = w old p 2 w new = w old p 2 = [ ] [ ] [ ] 3.0 = 2 0.8

68 Perceptrón: Aprendizaje Que ocurre con p 3? w T = [ ] [ ] } 0 {p 3 =, t 2 = 0 ( [3.0 a = f(w T p ] [ ]) 0 3) = f 0.8 = f(0.8) = 0

69 Perceptrón: Aprendizaje Que ocurre con p 3? w T = [ ] [ ] } 0 {p 3 =, t 2 = 0 ( [3.0 a = f(w T p ] [ ]) 0 3) = f 0.8 = f(0.8) = 0 [ ] [ ] w new = w old p 3 = + = 0.8 [ ]

70 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a

71 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a Definamos el error e = t a w old + p if e = w new = w old p if e = w old if e = 0

72 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a Definamos el error Un paso más allá e = t a w old + p if e = w new = w old p if e = w old if e = 0 w new = w old + ep (5)

73 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e

74 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e Para S neuronas? { w new i = w old i + e i p b new i = b old i + e i

75 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e Para S neuronas? { w new i = w old i + e i p b new i = b old i + e i Notación matricial (MATLAB:nnd4pr) { W new = W old + ep T b new = b old + e (6)

76 Preceptrón: Limitaciones Qué problemas podemos resolver?

77 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano

78 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano Qué ocurre si los vectores no son separables linealmente?

79 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano Qué ocurre si los vectores no son separables linealmente? No es posible utilizar el perceptrón!

80 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

81 ADALINE Contexto: ADALINE: ADAptive LInear NEuron Widrow & Hoff - ADALINE + LMS (Least Mean Square) LMS - Media de mínimos cuadrados Minimiza el Error Cuadrático Medio (MSE) Similar al perceptron - Función activación lineal Perceptron: El hiperplano está cerca de los límites de decisión ADALINE: Minimiza el Error Cuadrático Medio (MSE)

82 ADALINE

83 ADALINE a = f(n) n = (Wp+b) (7) p, W, b, a R f(n i ) = n i a = Wp+b (8) (MATLAB: purelim)

84 ADALINE: Un ejemplo a = f(wp+b) = w T p+b = w,p + w,2 p 2 + b

85 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule

86 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule Least Mean Square (LMS) - Descenso de gradiente Aprendizaje supervisado

87 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule Least Mean Square (LMS) - Descenso de gradiente Aprendizaje supervisado Función objetivo?

88 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

89 Perceptrón multicapa Contexto: Minsky & Papert Limitaciones del Perceptron Werbos Entrenamientos de ANNs con varias capas Rumelhart, Hinton & Williams backpropagation Parker backpropagation Le Cun backpropagation

90 Perceptrón multicapa: MLP a = f (W p+b ) a 2 = f 2 (W 2 a + b 2 ) a 3 = f 3 (W 3 a 2 + b 3 ) a 3 = f 3 (W 3 f 2 (W 2 f (W p+b )+b 2 )+b 3 ) Notación: R S S 2 S 3 R: Número de entradas - S: Número de neuronas en cada capa

91 Perceptrón multicapa: MLP a = f (W p+b ) a 2 = f 2 (W 2 a + b 2 ) a 3 = f 3 (W 3 a 2 + b 3 ) a 3 = f 3 (W 3 f 2 (W 2 f (W p+b )+b 2 )+b 3 ) Notación: R S S 2 S 3 R: Número de entradas - S: Número de neuronas en cada capa

92 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0

93 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0

94 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0 Red: 2-2-

95 MLP: XOR Red: 2-2-

96 MLP: XOR Red: 2-2-

97 MLP: XOR Red: 2-2-

98 MLP: XOR Red: 2-2-

99 MLP: Aprendizaje Cómo entrenamos redes multicapa?

100 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square??

101 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square?? No son válidos!!! Que ocurre en las capas intermedias??

102 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square?? No son válidos!!! Que ocurre en las capas intermedias?? BackPropagation!

103 BackPropagation - Resumen. Ejecutar la red hacia adelante a 0 = p a m+ = f m+ (W m+ a m + b m+ ) para m = 0,,..., M a = a M (9) 2. Calcular las sensibilidades { s M = 2Ḟ M (n M )(t a) s m = Ḟ m (n m )(W m+ ) T (s m+ ) para m = M,..., 2, (0) 3. Actualizar los pesos y sesgos { W m (k+) = W m (k) αs m (a m ) T b m (k+) = b m (k) αs m () (MATLAB: nndbc)

104 MLP y BackPropagation - Dificultades Entrenamiento incremental o grupal Selección de la arquitectura Capas, neuronas, funciones de activación,... Muchas capas/neuronas Sobre-especialización Pocas capas/neuronas Bajo rendimiento (MATLAB: nndfa, nndgn)

105 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

106 DNN Hemos visto redes neuronales estáticas La salida puede ser calculada con la entrada instantánea Podemos aproximar funciones Qué ocurre con el tiempo? Predicciones temporales, series temporales,..?

107 DNN Hemos visto redes neuronales estáticas La salida puede ser calculada con la entrada instantánea Podemos aproximar funciones Qué ocurre con el tiempo? Predicciones temporales, series temporales,..? En las redes dinámicas, la salida puede depender de: La entrada instantánea La entrada en instantes anteriores La salida en instantes anteriores Los estados en instantes anteriores

108 DNN - Retardo Introduzcamos el operador retardo a(t) = u(t )

109 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2)

110 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2) iw, (0) = 3, iw,() = 3, iw,(2) = 3 Señal cuadrada

111 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2) iw, (0) = 3, iw,() = 3, iw,(2) = 3 Señal cuadrada

112 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t )

113 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t ) iw, = 2, lw,() = 2 Señal cuadrada

114 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t ) iw, = 2, lw,() = 2 Señal cuadrada

115 DNN - Ejemplos Dinámica Filtro FIR (MATLAB: nnd4fir, nnd4iir) Recurrente Filtro IIR

116 DNN - Estructura n m (t) = LW m,l (d)a l (t d)+ IW m,l (d)p l (t d)+b m l L f d DL m,l d I m,l m l I m a m (t) = f m (n m (t))

117 DNN - Aprendizaje No podemos utilizar Backpropagation 2 algoritmos fundamentales: BackPropagation Through Time (BPTT) Se calcula la respuesta para todos los instantes de tiempo Se calcula el gradiente en el último instante de tiempo Real Time Recurrent Learning (RTRL) Se calcula la respuesta en cada instante de tiempo Se calcula el gradiente a la vez que la respuesta Existe una gran variedad de algoritmos

118 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones

119 Conclusiones Inspiradas en el sistema nervioso. Procesan la información de manera paralela y distribuida. Operaciones en tiempo real para grandes cantidades de datos. Sistemas distribuido con altas capacidades de computo. Reconocimiento de patrones: asignación de objetivo a un dato de entrada Reconocimiento de caracteres Reconocimiento de fonemas en voz Toma de decisiones Compresión de imágenes y reducción de dimensionalidad Predicción de series temporales Identificación y control de sistemas...

120 Conclusiones-Dificultades Datos existentes Número de capas Número de neuronas Funciones de activación Algoritmos de aprendizaje... Mucho por explorar!!

121 Gracias GRACIAS!!

122 Gracias GRACIAS!!

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE Capítulo 4 Algoritmos de Aprendizaje 26 CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE En este capítulo se proporcionan las descripciones matemáticas de los principales algoritmos de aprendizaje para redes neuronales:

Más detalles

Neuronas Artificiales

Neuronas Artificiales Modelos básicos b de Redes de Neuronas Artificiales Julián n Dorado Departamento de Tecnologías de la Información n y las Comunicaciones Universidade da Coruña Contenidos Tema 10: Procesado temporal mediante

Más detalles

TEMA 6 Redes de Neuronas Artificiales

TEMA 6 Redes de Neuronas Artificiales TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios

Más detalles

ADALINE Y PERCEPTRON

ADALINE Y PERCEPTRON Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.

Más detalles

MODELOS DE COMPUTACION II

MODELOS DE COMPUTACION II INGENIERIA INFORMATICA ÁREA: CIENCIAS DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL MODELOS DE COMPUTACION II Presentación del profesor y de la asignatura JUAN LUIS CASTRO PEÑA 2010-11 Información: http://decsai.ugr.es/~castro/mcii

Más detalles

Inteligencia Artificial. Redes Neurales Artificiales

Inteligencia Artificial. Redes Neurales Artificiales Inteligencia Artificial Redes Neurales Artificiales Redes Neural Natural Estructura celular del del cerebro donde residen las las capacidades intelectuales del del hombre Neurona: Soma: Dendritas: Sinapsis:

Más detalles

en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA

en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA COMPUTaCIÓN NeURONaL MecaNIsMos INspIrados en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA >A finales de los años 80, los sistemas que procesan información

Más detalles

2. PRINCIPALES TIPOS DE REDES NEURONALES

2. PRINCIPALES TIPOS DE REDES NEURONALES 33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma

Más detalles

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón Pedro A. Castillo Valdivieso Depto. Arquitectura y Tecnología de Computadores Universidad de Granada http://atc.ugr.es/pedro/gaicm1

Más detalles

Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional

Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Titulación: Ingeniero Técnico Industrial Intensificación: Electrónica industrial

Más detalles

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60 Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia

Más detalles

LOS SISTEMAS ADAPTATIVOS

LOS SISTEMAS ADAPTATIVOS 0010100100100101010110010001 0101010001010100101000101 0010100011110010110010001 11111111111010100010101001010010100010101010101 0010100011110101010101011100101001001010101100100010010100011110101010001

Más detalles

Capítulo 2. Las Redes Neuronales Artificiales

Capítulo 2. Las Redes Neuronales Artificiales Capítulo 2. Las Redes Neuronales Artificiales 13 Capitulo 2. Las Redes Neuronales Artificiales 2.1 Definición Redes Neuronales Artificiales El construir una computadora que sea capaz de aprender, y de

Más detalles

Cátedra: Informática Aplicada a la Ingeniería de Procesos Orientación I. Tema: Redes Neuronales: Conceptos Básicos y Aplicaciones.

Cátedra: Informática Aplicada a la Ingeniería de Procesos Orientación I. Tema: Redes Neuronales: Conceptos Básicos y Aplicaciones. Universidad Tecnológica Nacional Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ) Cátedra: Informática Aplicada a la Ingeniería

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura

Más detalles

Predicción de índices de futuros financieros mediante redes neuronales

Predicción de índices de futuros financieros mediante redes neuronales Predicción de índices de futuros financieros mediante redes neuronales Joan Bosch 1,Lluís Garrido 1,SergioGómez 2 1) Dept. d Estructura i Constituents de la Matèria, Facultat de Física, Universitat de

Más detalles

Bloque temático: Sistemas de Reconocimiento de Patrones

Bloque temático: Sistemas de Reconocimiento de Patrones Bloque temático: Sistemas de Reconocimiento de Patrones 1 Sistemas de Reconocimiento de Patrones PRACTICAS 6)Estudio de ejemplos en Matlab 7)Adquisición de imágenes reales: generación de una librería de

Más detalles

Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle

Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes Sergio Roa Ovalle Universidad Nacional de Colombia Facultad de Ingeniería Departamento de Sistemas Bogotá 2002 Clasificación

Más detalles

Deep Learning y Big Data

Deep Learning y Big Data y Eduardo Morales, Enrique Sucar INAOE (INAOE) 1 / 40 Contenido 1 2 (INAOE) 2 / 40 El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia ha sido el foco

Más detalles

Algoritmos Genéticos. Introducción a la Robótica Inteligente. Álvaro Gutiérrez 20 de abril de

Algoritmos Genéticos. Introducción a la Robótica Inteligente. Álvaro Gutiérrez 20 de abril de Algoritmos Genéticos Introducción a la Robótica Inteligente Álvaro Gutiérrez 20 de abril de 2016 aguti@etsit.upm.es www.robolabo.etsit.upm.es Índice 1 Introducción 2 Algoritmos Genéticos 3 Algunos Fundamentos

Más detalles

Introducción a Las redes Neuronales (Neurales) CO-6612

Introducción a Las redes Neuronales (Neurales) CO-6612 Introducción a Las redes Neuronales (Neurales) CO-662 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-2 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia:

Más detalles

Introducción a las Redes Neuronales Aplicadas

Introducción a las Redes Neuronales Aplicadas Introducción a las Redes Neuronales Aplicadas CURSO DE EXPERTOS DE U.C.M. (2012) Juan Miguel Marín Diazaraque jmmarin@est-econ.uc3m.es Universidad Carlos III de Madrid INDICE: Redes Neuronales en Economía

Más detalles

La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network)

La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network) La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network) III Jornadas de Usuarios de R Javier Alfonso Cendón, Manuel Castejón Limas, Joaquín Ordieres Mere, Camino Fernández Llamas Índice

Más detalles

CAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES

CAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES Capítulo 5 Modelado y Simulación del IDS 35 CAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES En este capítulo se describe la preparación de los datos para servir como entradas al IDS y la simulación de

Más detalles

REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES

REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Xabier Basogain Olabe Centro: Escuela Superior de Ingeniería de Bilbao, EHU Despacho: P3BN11 Teléfono: 34 946014201 E mail: xabier.basogain@ehu.es Tabla

Más detalles

UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS

UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS DESARROLLO DE UNA APLICACIÓN QUE PERMITA EVOLUCIONAR REDES NEURONALES ARTIFICIALES

Más detalles

3.2 CONTROL DE GIRO DE UN MOTOR DE INDUCCIÓN DE JAULA DE. Un motor de inducción tiene físicamente el mismo estator de una máquina

3.2 CONTROL DE GIRO DE UN MOTOR DE INDUCCIÓN DE JAULA DE. Un motor de inducción tiene físicamente el mismo estator de una máquina 220 3.2 CONTROL DE GIRO DE UN MOTOR DE INDUCCIÓN DE JAULA DE ARDILLA 3.2.1 Descripción del problema. Un motor de inducción tiene físicamente el mismo estator de una máquina sincrónica con diferente construcción

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1 Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos

Más detalles

OPTIMIZACIÓN VECTORIAL

OPTIMIZACIÓN VECTORIAL OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de

Más detalles

UNIVERSIDAD FRANCISCO DE PAULA SANTANDER BIBLIOTECA EDUARDO COTE LAMUS RESUMEN - TESIS DE GRADO

UNIVERSIDAD FRANCISCO DE PAULA SANTANDER BIBLIOTECA EDUARDO COTE LAMUS RESUMEN - TESIS DE GRADO UNIVERSIDAD FRANCISCO DE PAULA SANTANDER BIBLIOTECA EDUARDO COTE LAMUS RESUMEN - TESIS DE GRADO AUTORES : A LIRIO MAYORGA DELGADO Y HECTOR JULIO PEDROZA GARZON FACULTAD: INGENIERIAS PLAN DE ESTUDIOS:.

Más detalles

ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES

ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES Ing. Bruno López Takeyas ALUMNOS: Jesús Martín Buentello Vargas Oscar de Luna Quezada Jesús Antonio Galindo Palacios Daniel Villanueva Cisneros

Más detalles

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO

Más detalles

I SEMANA ELECTRONICA REDES NEURONALES

I SEMANA ELECTRONICA REDES NEURONALES UNIVERSIDAD NACIONAL SAN ANTONIO ABAD A DEL CUSCO CARRERA PROFESIONAL DE INGENIERIA ELECTRONICA I SEMANA ELECTRONICA REDES NEURONALES Ing. Avid idromán González Se trata de una nueva forma de computación

Más detalles

Aplicación Java para distribución de código en R

Aplicación Java para distribución de código en R rolgalan@gmail.com Huesca - 24 de noviembre de 2009 Implementación Descripción problema Existen muchos problemas, cuya resolución informática requiere de un enorme tiempo de cómputo. En la actualidad,

Más detalles

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.

Más detalles

Reducción de Ruido por medio de Redes Neuronales

Reducción de Ruido por medio de Redes Neuronales Reducción de Ruido por medio de Redes Neuronales Donato Hernández, Sergio Ledesma, Miguel Torres, Gabriel Aviña y Gerardo Canedo Facultad de Ingeniería Mecánica, Eléctrica y Electrónica Universidad de

Más detalles

Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés

Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Amaro Camargo Erika, Reyes García Carlos A. Instituto Nacional de Astrofísica, Óptica

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

Tema 8. Redes Neuronales

Tema 8. Redes Neuronales Tema 8. Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea 8.1

Más detalles

Introducción a las redes neuronales aplicadas

Introducción a las redes neuronales aplicadas Introducción a las redes neuronales aplicadas Conceptos básicos Las Redes Neuronales (NN: Neural Networks) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, constituidos

Más detalles

GENERACIÓN AUTOMÁTICA DE REDES NEURONALES CON AJUSTE DE PARÁMETROS BASADO EN ALGORITMOS GENÉTICOS FACULTAD DE INGENIERIA UNIVERSIDAD DE BUENOS AIRES

GENERACIÓN AUTOMÁTICA DE REDES NEURONALES CON AJUSTE DE PARÁMETROS BASADO EN ALGORITMOS GENÉTICOS FACULTAD DE INGENIERIA UNIVERSIDAD DE BUENOS AIRES GENERACIÓN AUTOMÁTICA DE REDES NEURONALES CON AJUSTE DE PARÁMETROS BASADO EN ALGORITMOS GENÉTICOS TESIS DE GRADO EN INGENIERIA INFORMATICA FACULTAD DE INGENIERIA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr.

Más detalles

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS Descripción de la base de datos Como datos de entrenamiento, en este proyecto, se utilizó la base de datos ORL [1], la cual contiene un conjunto

Más detalles

Complejidad de los Algoritmos

Complejidad de los Algoritmos Que es un Algoritmo? Complejidad de los Algoritmos Webster: cualquier método especial para resolver cierta clase de problemas. Horowitz: método preciso utilizable en una computadora para la solución de

Más detalles

PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES

PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES Juan Miguel Jiménez Panta Piura, noviembre de 2013 Universidad de Piura Área Departamental de Ingeniería Industrial

Más detalles

INTRODUCCION- FILTRO DE WIENER

INTRODUCCION- FILTRO DE WIENER FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener

Más detalles

arxiv:1305.4686v1 [cs.cr] 21 May 2013

arxiv:1305.4686v1 [cs.cr] 21 May 2013 arxiv:1305.4686v1 [cs.cr] 21 May 2013 UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matemática Tesis de Licenciatura Aplicación de las Redes Neuronales al Reconocimiento

Más detalles

Neural Network Toolbox

Neural Network Toolbox Neural Network Toolbox Sistemas Conexionistas - Curso 08/09 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.

Más detalles

SISTEMA LOGISTICO DE PREVISIÓN ON-LINE, MEDIANTE REDES NEURONALES DEL SISTEMA DE DISTRIBUCIÓN DE UNA EMPRESA ELÉCTRICA.

SISTEMA LOGISTICO DE PREVISIÓN ON-LINE, MEDIANTE REDES NEURONALES DEL SISTEMA DE DISTRIBUCIÓN DE UNA EMPRESA ELÉCTRICA. Investigaciones Europeas de Dirección y Economía de la Empresa VoJ.2,W3,1996,pp.6l-79 SISTEMA LOGISTICO DE PREVISIÓN ON-LINE, MEDIANTE REDES NEURONALES DEL SISTEMA DE DISTRIBUCIÓN DE UNA EMPRESA ELÉCTRICA.

Más detalles

Automatización de previsión de demanda horaria de potencia eléctrica en el Sistema Interconectado Nacional

Automatización de previsión de demanda horaria de potencia eléctrica en el Sistema Interconectado Nacional Revista Científica de la UCSA, Vol.1 N. o 1 Diciembre 2014: ARTICULO ORIGINAL Automatización de previsión de demanda horaria de potencia eléctrica en el Sistema Interconectado Nacional Hourly Load Forecast

Más detalles

Diseño Automático de Redes Neuronales Artificiales mediante el uso del Algoritmo de Evolución Diferencial (ED)

Diseño Automático de Redes Neuronales Artificiales mediante el uso del Algoritmo de Evolución Diferencial (ED) Diseño Automático de Redes Neuronales Artificiales mediante el uso del Algoritmo de Evolución Diferencial (ED) Beatriz A. Garro, Humberto Sossa, Roberto A. Vazquez Resumen En el área de la Inteligencia

Más detalles

Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación

Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Texto base de la asignatura del mismo nombre perteneciente al Plan de Estudios de la Universidad Nacional de Educación a Distancia.

Más detalles

Reconocimiento de patrones mediante redes neuronales artificiales

Reconocimiento de patrones mediante redes neuronales artificiales Reconocimiento de patrones mediante redes neuronales artificiales Hugo Vega Huerta, Augusto Cortez Vásquez, Ana María Huayna, Luis Alarcón Loayza, Pablo Romero Naupari Facultad de Ingeniería de Sistemas

Más detalles

Introducción a la Inteligencia Artificial

Introducción a la Inteligencia Artificial Introducción a la Inteligencia Artificial Qué es la Inteligencia Artificial? Todas las definiciones de Inteligencia Artificial están relacionadas con la siguiente idea: Desarrollo de métodos y algoritmos

Más detalles

Analisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa

Analisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Proyecto Fin de Carrera Ingeniería Técnica Informática de Gestión Analisis de Técnicas para Medir la Influencia de las Variables del Vector

Más detalles

4 Método propuesto basado en el Perceptrón Multicapa

4 Método propuesto basado en el Perceptrón Multicapa Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está

Más detalles

Área Académica: ICBI, Sistemas Computacionales. Profesor: M.C.C Víctor Tomás Tomás Mariano

Área Académica: ICBI, Sistemas Computacionales. Profesor: M.C.C Víctor Tomás Tomás Mariano Área Académica: ICBI, Sistemas Computacionales Tema: Mapas auto organizados Profesor: M.C.C Víctor Tomás Tomás Mariano Alumnos: Leticia Hernandez Hernandez. Agustin Escamilla Hernández Periodo: Julio-Diciembre

Más detalles

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales 1 Objetivos del tema Conocer las limitaciones de los modelos lineales en problemas de modelización/ clasificación.

Más detalles

Aux 6. Introducción a la Minería de Datos

Aux 6. Introducción a la Minería de Datos Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial

Más detalles

Implementación de redes neuronales sobre lógica reconfigurable

Implementación de redes neuronales sobre lógica reconfigurable UNIVERSIDAD TECNOLÓGICADE LA MIXTECA DIVISIÓN DE ESTUDIOS DE POSGRADO Implementación de redes neuronales sobre lógica reconfigurable PARA OBTENER EL GRADO DE: Maestro en Electrónica, Opción: Sistemas Inteligentes

Más detalles

Inteligencia Artificial

Inteligencia Artificial Inteligencia Artificial Practica 2. (5 semanas) Rubén Cárdenes Almeida Redes neuronales. Introducción Las Redes Neuronales Artificiales (RNA) están inspiradas en la biología, esto significa que están formadas

Más detalles

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)

CLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) CLASIFICACIÓN NO SUPERVISADA CLUSTERING Y MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) info@clustering.50webs.com Indice INTRODUCCIÓN 3 RESUMEN DEL CONTENIDO 3 APRENDIZAJE

Más detalles

Redes Neuronales Artificiales aplicadas al Análisis de Datos

Redes Neuronales Artificiales aplicadas al Análisis de Datos UNIVERSITAT DE LES ILLES BALEARS FACULTAD DE PSICOLOGÍA TESIS DOCTORAL Redes Neuronales Artificiales aplicadas al Análisis de Datos JUAN JOSÉ MONTAÑO MORENO DIRECTOR: DR. ALFONSO PALMER POL PALMA DE MALLORCA,

Más detalles

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la

Más detalles

Modelos, Simulación, y Optimización

Modelos, Simulación, y Optimización Modelos, Simulación, y Optimización Aplicaciones en la industria, logística, y operaciones de negocios. Como ahorrar costos, reducir riesgos y obtener el máximo retorno de las inversiones Agenda Que es

Más detalles

Perceptrón Multicapa. Aplicaciones

Perceptrón Multicapa. Aplicaciones Perceptrón Multicapa Aplicaciones Perceptrón Multicapa Para qué se puede usar un perceptrón multicapa? Aproximación de funciones Clasificación Compresión Radiación solar Peligro Calma Datos originales

Más detalles

CAPITULO 1: PERSPECTIVE GENERAL DE LA

CAPITULO 1: PERSPECTIVE GENERAL DE LA CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de

Más detalles

Inteligencia Artificial para desarrolladores Conceptos e implementación en C#

Inteligencia Artificial para desarrolladores Conceptos e implementación en C# Introducción 1. Estructura del capítulo 19 2. Definir la inteligencia 19 3. La inteligencia de los seres vivos 22 4. La inteligencia artificial 24 5. Dominios de aplicación 26 6. Resumen 28 Sistemas expertos

Más detalles

License Plate Detection using Neural Networks

License Plate Detection using Neural Networks License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net

Más detalles

Modelo de redes neuronales optimizadas con algoritmos genéticos.

Modelo de redes neuronales optimizadas con algoritmos genéticos. Universidad Estatal a Distancia Maestría en Administración de Negocios Mención en Gerencia de Proyectos Trabajo Final de Graduación Modelo de redes neuronales optimizadas con algoritmos genéticos. Una

Más detalles

AUTOGUIADO DE ROBOTS MÓVILES MEDIANTE REDES NEURONALES

AUTOGUIADO DE ROBOTS MÓVILES MEDIANTE REDES NEURONALES XXV Jornadas de Automática Ciudad Real, del 8 al 10 de septiembre de 2004 AUTOGUIADO DE ROBOTS MÓVILES MEDIANTE REDES NEURONALES Mª Concepción Marcos Provecho Escuela de Ingenierías Industrial e Informática.

Más detalles

Redes Neuronales Artificiales y sus Aplicaciones

Redes Neuronales Artificiales y sus Aplicaciones Redes Neuronales Artificiales y sus Aplicaciones Profesorado Departamento Programa de Doctorado Créditos 3 Nº de Plazas 2. La asignatura 2. Objetivos de la asignatura 3. Contenidos 4. Metodología de trabajo

Más detalles

Aplicación de redes expertas para la predicción de tendencias del mercado financiero

Aplicación de redes expertas para la predicción de tendencias del mercado financiero Aplicación de redes expertas para la predicción de tendencias del mercado financiero Aplicación de redes expertas para la predicción de tendencias del mercado financiero Ing. Mario M. Figueroa de la Cruz,

Más detalles

Análisis de Algoritmos

Análisis de Algoritmos Análisis de Algoritmos Amalia Duch Barcelona, marzo de 2007 Índice 1. Costes en tiempo y en espacio 1 2. Coste en los casos mejor, promedio y peor 3 3. Notación asintótica 4 4. Coste de los algoritmos

Más detalles

Departamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011

Departamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011 Factorización LU Departamento de Matemáticas, CCIR/ITESM 9 de febrero de 2011 Índice 26.1. Introducción............................................... 1 26.2. Factorización LU............................................

Más detalles

FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN TEMA 5 FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN

FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN TEMA 5 FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN EMA 5 FILRADO ADAPAIVO: IGUALACIÓN Y CANCELACIÓN Índice: Ámbitos y características del filtrado adaptativo Minimización del MSE mediante el algoritmo de gradiente El algoritmo LMS Igualadores adaptativos

Más detalles

APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO

APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO UNIVERSIDAD AUTONOMA DE OCCIDENTE FACULTAD DE INGENIERÍA DEPARTAMENTO DE AUTOMÁTICA Y ELECTRÓNICA PROGRAMA

Más detalles

Tipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve

Tipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve Tipos de RNA Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve ADALINE Y MADALINE ADAptive Linear Element Y MULTIPLE ADALINE (WIDROW 1960) PARECIDO

Más detalles

ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA

ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr. Luis Federico Bertona DIRECTORES:

Más detalles

Sistema de medición y control de proceso industrial de embotellado con algoritmo de redes neuronales

Sistema de medición y control de proceso industrial de embotellado con algoritmo de redes neuronales Sistema de medición y control de proceso industrial de embotellado con algoritmo de redes neuronales César E. Martínez Reinoso, Mario Alvarez Sifontes, Francisco J. Arteaga Bravo Unidad de Investigación

Más detalles

Palabras llave. 1. Introducción. S. Valero 1, M. Ortiz 1, C. Senabre 1, M. Peñarrubia 1, A. Gabaldón 2 y Fco. Garcia 2

Palabras llave. 1. Introducción. S. Valero 1, M. Ortiz 1, C. Senabre 1, M. Peñarrubia 1, A. Gabaldón 2 y Fco. Garcia 2 Clasificación de consumidores eléctricos mediante el uso de varias técnicas de redes neuronales artificiales, e identificación de nuevos clientes con las redes entrenadas S. Valero, M. Ortiz, C. Senabre,

Más detalles

b) Otro ejemplo de mezcla de datos podría ser la definición de variables atributos a través de variables con valores continuos.

b) Otro ejemplo de mezcla de datos podría ser la definición de variables atributos a través de variables con valores continuos. CAPITULO 5 PRE-PROCESAMIENTO DE DATOS Consiste en la preparación previa de los datos para ser usados por la construcción, entrenamiento y prueba de un modelo de red neuronal Alguno de los problemas más

Más detalles

MEMORIA-RESUMEN DE TRABAJOS REALIZADOS

MEMORIA-RESUMEN DE TRABAJOS REALIZADOS MEMORIA-RESUMEN DE TRABAJOS REALIZADOS Alumno: Tutor: Tesis: IBRAHIM ESPINO MARTÍN FRANCISCO MARIO HERNÁNDEZ TEJERA Integración de técnicas estadísticas, numéricas y de inteligencia artificial para la

Más detalles

DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2

DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2 DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE CONTROL 2 x 2 ERICK FRANK SARMIENTO JURADO UNIVERSIDAD DEL NORTE DIVISIÓN DE INGENIERÍAS MAESTRÍA

Más detalles

Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas

Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas 1. DEFINICIONES, UBICACIÓN CONCEPTUAL E HISTORIA DE LA I.A. 2. COMPLEJIDAD COMPUTACIONAL, EXPLOSIÓN COMBINATORIA, DOMINIOS NO

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Introducción al Aprendizaje Automático Gibran Fuentes Pineda IIMAS, UNAM Definición El aprendizaje automático es el estudio de los metodos para programar las computadoras

Más detalles

TEMA 3: CONTROL AVANZADO CON VARIABLES AUXILIARES

TEMA 3: CONTROL AVANZADO CON VARIABLES AUXILIARES Técnicas del CRA: más de una variable manipulada/controlada/perturbación Contenido: 3.1 Introducción 3.2 Control en cascada 3.3 Control anticipativo Anticipativo incremental. Anticipativo estático. Control

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Programa de estudios por competencias Métodos Matemáticos II. Fecha elaboración/modificación: Julio 2015 Clave de la asignatura:

Programa de estudios por competencias Métodos Matemáticos II. Fecha elaboración/modificación: Julio 2015 Clave de la asignatura: Programa de estudios por competencias Métodos Matemáticos II 1. Identificación del curso Programa educativo: Ingeniería en Computación Unidad de aprendizaje: Métodos Matemáticos II Departamento de adscripción:

Más detalles

Excel 2013 Completo. Duración: Objetivos: Contenido: 80 horas

Excel 2013 Completo. Duración: Objetivos: Contenido: 80 horas Excel 2013 Completo Duración: 80 horas Objetivos: Descripción del funcionamiento básico de la hoja de cálculo Microsoft Excel 2013, viendo las funciones disponibles en este programa a la hora de crear

Más detalles

Conceptualizando la integración de la Inteligencia Colectiva y Artificial con I3geo

Conceptualizando la integración de la Inteligencia Colectiva y Artificial con I3geo Conceptualizando la integración de la Inteligencia Colectiva y Artificial con I3geo Pedro Robles, Juan Daniel Castillo, María Amparo Núñez y Josep María Monguet BarcelonaTech Introducción. Objetivo. Agenda

Más detalles

La eficiencia de los programas

La eficiencia de los programas La eficiencia de los programas Jordi Linares Pellicer EPSA-DSIC Índice General 1 Introducción... 2 2 El coste temporal y espacial de los programas... 2 2.1 El coste temporal medido en función de tiempos

Más detalles

Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982

Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982 Curriculum Vitæ DATOS PERSONALES Nombre: Jair Montoya Martínez. Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982 Teléfono (Medellín): 235 23 61 Teléfono (Barrancabermeja): 057-622

Más detalles

Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín.

Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín. Bogotá 15 y 16 de Agosto de 2008 EXTRACCIÓN DE PATRONES DE LA ENCUESTA ANUAL MANUFACTURERA COLOMBIANA EMPLEANDO INTELIGENCIA ARTIFICIAL Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica.

Más detalles

Práctica 10. Redes Neuronales

Práctica 10. Redes Neuronales Práctica 10 Redes Neuronales En esta práctica trabajaremos con un sistema de aprendizaje basado en ejemplos que ya hemos visto con anterioridad (k-vecinos) y una implementación de las redes neuronales.

Más detalles

Arquitecturas Basadas en el Comportamiento

Arquitecturas Basadas en el Comportamiento Arquitecturas Basadas en el Comportamiento Introducción a la Robótica Inteligente Álvaro Gutiérrez 4 de marzo de 2016 aguti@etsit.upm.es www.robolabo.etsit.upm.es Índice 1 Introducción 2 Arquitectura Subsunción

Más detalles

Estudio de la Aplicación de Redes Neuronales Artificiales en la Ingeniería de Tráfico de Internet

Estudio de la Aplicación de Redes Neuronales Artificiales en la Ingeniería de Tráfico de Internet Estudio de la Aplicación de Redes Neuronales Artificiales en la Ingeniería de Tráfico de Internet Nelson Piedra 1, Jorge López 2 5937-2570275 ext 222 Dirección: 11-01-608 Loja Ecuador Universidad Politécnica

Más detalles