Redes Neuronales Artificiales
|
|
- Agustín Macías Salas
- hace 6 años
- Vistas:
Transcripción
1 Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es
2
3 Mapas
4 Predicción
5 Robótica M l M r W ij S S 2 S 3 S 4 S 5 S 6 S 7 S 8
6 Neurociencia Copiar Reconocer Aprender Memoria Contar Responder Crear Razonar Memoria
7 Índice Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
8 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
9 Por qué usar ANNs Las redes neuronales son muy utilizadas por sus propiedades: Carácter no lineal. Adaptabilidad. Generalización. Tolerancia a fallos. Descomposición de tareas. Escalabilidad. También cuentan con desventajas. Complejidad en el diseño de la arquitectura. Gran cantidad de parámetros a ajustar. Dificultad para entrenar las redes.
10 Por qué usar ANNs Reconocimiento de patrones: asignación de objetivo a un dato de entrada Reconocimiento de caracteres Reconocimiento de fonemas en voz Toma de decisiones Compresión de imágenes y reducción de dimensionalidad Predicción de series temporales Identificación y control de sistemas...
11 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
12 Neurona Biológica
13 Neurona Biológica
14 Neurona Biológica
15 Neurona Biológica
16 Neurona Biológica
17 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
18 Revisión histórica 936 Alan Turing comienza a estudiar el cerebro humano. 943 McCulloch y Pitts, primeros modelos de neurona. 949 Hebb publica la regla de Hebb para el aprendizaje. 958 Rosemblatt desarrolla el perceptrón simple. 960 Widrow y Hoff desarrollan ADALINE (ADAptative LINear Elements) se frena la investigaicón, al probar la debilidad del perceptrón, Minsky y Papert. Años 80 aparecen redes de Hopfield y el algoritmo backpropagation. Actualidad uso en gran variedad de aplicaciones y areas de conocimiento. Recientemente aparecen modelos computacionales más similares a como el cerebro procesa la información (Neurociencia).
19 VL VR N 6 N 6 2 N 4 N 4 2 N 4 3 N 4 4 N 5 N 5 2 N 5 3 N 5 4 N 0 N 0 2 N 0 3 N 0 4 N N 2... N 8 N 2 N 3 N N 3 8 IR0 IR IR6 IR7 L0 L L7 GM0 BL0 BL BL7 ANN - Representación θ x x2 θ2 w w2 N w2 N2 w22 y y2
20 ANN - Representación Neural Network Design (Ed. 2) Hagan, Demuth, Beale & de Jesús
21 ANN - Una entrada
22 ANN - Una entrada a = f(wp+b) () p, w, b, a R n = (wp+b) Qué es f? Función de Activación/Transferencia (MATLAB: nnd2n)
23 (MATLAB: nnd2n) ANN - f? a = { 0 if n < 0 if n 0 a = n a = +e n
24 ANN - Varias entradas
25 ANN - Varias entradas
26 ANN - Varias entradas (MATLAB: nnd2n2) a = f(wp+b) (2) p, W, b, a R n = (Wp+b)
27 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
28 Sintonización de ANNs Consiste en buscar los parámetros libres de la red (W, b,..). Diversos tipos: Sintonización manual: redes pequeñas Algoritmos de aprendizaje: Los más utilizados. Algoritmos de búsqueda local. Algoritmos genéticos: Algoritmos de búsqueda global. Otras técnicas de optimización...
29 Aprendizaje: Tipos Supervisado. Se dispone de pares de vectores de entrada y salida deseada. El error se establece entre la salida de la red y la salida deseada. Por refuerzo. Es un aprendizaje supervisado donde no se proporciona la salida deseada durante el entrenamiento. Se proporciona una señal de refuerzo para ajustar los parámetros. No supervisado o autoorganizado. Se estima una función de densidad de probalidad para el conjunto de entradas. Se estima la bondad de la salida en función del conjunto de entradas. Los algoritmos más utilizados son los supervisados.
30 Aprendizaje: Operativa 3 fases: Entrenamiento: Se entrena la red neuronal con un subconjunto de los datos disponibles. Se intenta minimizar el error u obtener la mejor solución con los datos de entrenamiento. Prueba: Se prueban los resultados de la red con un subconjunto de los datos que no se han utilizado para el entrenamiento. Operativa: Se comprueba la funcionalidad de la red neuronal con un subconjunto de los datos distintos de los de prueba y entrenamiento.
31 Aprendizaje: Esquema
32 Aprendizaje: Problemas Underfitting: el error del entrenemiento y de prueba son altos. Causas: red simple, insuficiente aprendizaje. Overfitting: el error de entrenemiento es bajo pero el de prueba es alto. Causas: red compleja, no hay suficientes datos para el entrenamiento. Mínimos locales: el entrenamiento alcanza un error mínimo que no es abosoluto. Solución: reinicializar los pesos, utilizar algoritmos de búsqueda globlal,...
33 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
34 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
35 Perceptrón Contexto: McCulloch & Pitts Salida binaria Rosenbaltt Perceptron & Learning Rule Condiciones iniciales aleatorias Convergencia garantizada si la solución existe Minsky & Papert Limitaciones del Perceptron
36 Perceptrón: Notación
37 Perceptrón: Notación a = f(n) n = (Wp+b) (3) p, W, b { R, a {, } if n i < 0 f(n i ) = if n i 0 (MATLAB: hardlim/hardlims)
38 Perceptrón: Notación w, w,2... w,r w 2, w 2,2... w 2,R W = w i = w S, w S,2... w S,R w i, w i,2 w i,r p b p 2 p =. b = b 2. p R b S w T w T 2 w T S. W =. a i = f(w T i p+b i ) (4)
39 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b)
40 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b) W = [ ] b = a = { if ( p + p 2 ) < 0 if ( p + p 2 ) 0 (MATLAB: nnd4db)
41 Perceptrón: Un ejemplo a = f(wp+b) = f(w T p+b) a = f(w, p + w,2 p 2 + b) W = [ ] b = a = { if ( p + p 2 ) < 0 if ( p + p 2 ) 0 (MATLAB: nnd4db)
42 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 =
43 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p, p 2 {0, } W, b R
44 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
45 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
46 Perceptrón: OR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
47 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
48 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
49 Perceptrón: AND p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = 0 { [ ] } { [ ] } p 3 =, t 0 3 = 0 p 4 =, t 4 = p 2 p, p 2 {0, } W, b R p
50 Perceptrón: Aprendizaje Cómo sintonizamos los pesos?
51 Perceptrón: Aprendizaje Cómo sintonizamos los pesos? Perceptron Learning Rule Aprendizaje supervisado
52 Perceptrón: Aprendizaje Cómo sintonizamos los pesos? Perceptron Learning Rule Aprendizaje supervisado Un ejemplo sencillo { [ ] } { p =, t 2 = p 2 = [ ] } { [ ] } 0, t 2 2 = 0 p 3 =, t 3 = 0
53 Perceptrón: Aprendizaje Asegurar que el problema tiene solución
54 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? w T = [ ] { p = [ ] }, t 2 =
55 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? a = f(w T p ) = f w T = [ ] { p = [ ] }, t 2 = ( [.0 ] [ ]) 0.8 = f( 0.6) = 0 2
56 Perceptrón: Aprendizaje Iniciar aleatoriamente el vector de pesos Qué ocurre para p? a = f(w T p ) = f w T = [ ] { p = [ ] }, t 2 = ( [.0 ] [ ]) 0.8 = f( 0.6) = 0 2
57 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p
58 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p
59 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p
60 Perceptrón: Aprendizaje Inventemos una regla de actualización w = p No nos vale!!
61 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p
62 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p [ ].0 w new = w old + p = [ ] = 2 [ ] 2.0.2
63 Perceptrón: Aprendizaje Otro intento Si t = y a = 0 w new = w old + p [ ].0 w new = w old + p = [ ] = 2 [ ] 2.0.2
64 Perceptrón: Aprendizaje Que ocurre con el resto de entradas/objetivos? w T = [ ] [ ] } {p 2 =, t 2 2 = 0 ( [2.0 a = f(w T p ] [ ]) 2) = f.2 = f(0.4) = 0 2
65 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p
66 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p Si t 2 = 0 y a = w new = w old p 2
67 Perceptrón: Aprendizaje Iteremos sobre la idea anterior Si t = y a = 0 w new = w old + p Si t 2 = 0 y a = w new = w old p 2 w new = w old p 2 = [ ] [ ] [ ] 3.0 = 2 0.8
68 Perceptrón: Aprendizaje Que ocurre con p 3? w T = [ ] [ ] } 0 {p 3 =, t 2 = 0 ( [3.0 a = f(w T p ] [ ]) 0 3) = f 0.8 = f(0.8) = 0
69 Perceptrón: Aprendizaje Que ocurre con p 3? w T = [ ] [ ] } 0 {p 3 =, t 2 = 0 ( [3.0 a = f(w T p ] [ ]) 0 3) = f 0.8 = f(0.8) = 0 [ ] [ ] w new = w old p 3 = + = 0.8 [ ]
70 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a
71 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a Definamos el error e = t a w old + p if e = w new = w old p if e = w old if e = 0
72 Perceptrón: Aprendizaje Reformulemos nuestra regla w old + p if t = and a = 0 w new = w old p if t = 0 and a = w old if t = a Definamos el error Un paso más allá e = t a w old + p if e = w new = w old p if e = w old if e = 0 w new = w old + ep (5)
73 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e
74 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e Para S neuronas? { w new i = w old i + e i p b new i = b old i + e i
75 Perceptrón: Aprendizaje Extendamos al sesgo { w new = w old + ep b new = b old + e Para S neuronas? { w new i = w old i + e i p b new i = b old i + e i Notación matricial (MATLAB:nnd4pr) { W new = W old + ep T b new = b old + e (6)
76 Preceptrón: Limitaciones Qué problemas podemos resolver?
77 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano
78 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano Qué ocurre si los vectores no son separables linealmente?
79 Preceptrón: Limitaciones Qué problemas podemos resolver? Una neurona puede dividir el espacio en 2 regiones La separabilidad viene determinada por: w T p+b = 0 Separabilidad lineal: Hiperplano Qué ocurre si los vectores no son separables linealmente? No es posible utilizar el perceptrón!
80 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
81 ADALINE Contexto: ADALINE: ADAptive LInear NEuron Widrow & Hoff - ADALINE + LMS (Least Mean Square) LMS - Media de mínimos cuadrados Minimiza el Error Cuadrático Medio (MSE) Similar al perceptron - Función activación lineal Perceptron: El hiperplano está cerca de los límites de decisión ADALINE: Minimiza el Error Cuadrático Medio (MSE)
82 ADALINE
83 ADALINE a = f(n) n = (Wp+b) (7) p, W, b, a R f(n i ) = n i a = Wp+b (8) (MATLAB: purelim)
84 ADALINE: Un ejemplo a = f(wp+b) = w T p+b = w,p + w,2 p 2 + b
85 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule
86 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule Least Mean Square (LMS) - Descenso de gradiente Aprendizaje supervisado
87 ADALINE: Aprendizaje Cómo sintonizamos los pesos? No podemos utilizar la Perceptron Learning Rule Least Mean Square (LMS) - Descenso de gradiente Aprendizaje supervisado Función objetivo?
88 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
89 Perceptrón multicapa Contexto: Minsky & Papert Limitaciones del Perceptron Werbos Entrenamientos de ANNs con varias capas Rumelhart, Hinton & Williams backpropagation Parker backpropagation Le Cun backpropagation
90 Perceptrón multicapa: MLP a = f (W p+b ) a 2 = f 2 (W 2 a + b 2 ) a 3 = f 3 (W 3 a 2 + b 3 ) a 3 = f 3 (W 3 f 2 (W 2 f (W p+b )+b 2 )+b 3 ) Notación: R S S 2 S 3 R: Número de entradas - S: Número de neuronas en cada capa
91 Perceptrón multicapa: MLP a = f (W p+b ) a 2 = f 2 (W 2 a + b 2 ) a 3 = f 3 (W 3 a 2 + b 3 ) a 3 = f 3 (W 3 f 2 (W 2 f (W p+b )+b 2 )+b 3 ) Notación: R S S 2 S 3 R: Número de entradas - S: Número de neuronas en cada capa
92 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0
93 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0
94 MLP: XOR p p 2 a { [ ] } { [ ] } 0 0 p =, t 0 = 0 p 2 =, t 2 = { [ ] } { [ ] } p 3 =, t 0 3 = p 4 =, t 4 = 0 Red: 2-2-
95 MLP: XOR Red: 2-2-
96 MLP: XOR Red: 2-2-
97 MLP: XOR Red: 2-2-
98 MLP: XOR Red: 2-2-
99 MLP: Aprendizaje Cómo entrenamos redes multicapa?
100 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square??
101 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square?? No son válidos!!! Que ocurre en las capas intermedias??
102 MLP: Aprendizaje Cómo entrenamos redes multicapa? Perceptron Learning Rule?? Least Mean Square?? No son válidos!!! Que ocurre en las capas intermedias?? BackPropagation!
103 BackPropagation - Resumen. Ejecutar la red hacia adelante a 0 = p a m+ = f m+ (W m+ a m + b m+ ) para m = 0,,..., M a = a M (9) 2. Calcular las sensibilidades { s M = 2Ḟ M (n M )(t a) s m = Ḟ m (n m )(W m+ ) T (s m+ ) para m = M,..., 2, (0) 3. Actualizar los pesos y sesgos { W m (k+) = W m (k) αs m (a m ) T b m (k+) = b m (k) αs m () (MATLAB: nndbc)
104 MLP y BackPropagation - Dificultades Entrenamiento incremental o grupal Selección de la arquitectura Capas, neuronas, funciones de activación,... Muchas capas/neuronas Sobre-especialización Pocas capas/neuronas Bajo rendimiento (MATLAB: nndfa, nndgn)
105 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
106 DNN Hemos visto redes neuronales estáticas La salida puede ser calculada con la entrada instantánea Podemos aproximar funciones Qué ocurre con el tiempo? Predicciones temporales, series temporales,..?
107 DNN Hemos visto redes neuronales estáticas La salida puede ser calculada con la entrada instantánea Podemos aproximar funciones Qué ocurre con el tiempo? Predicciones temporales, series temporales,..? En las redes dinámicas, la salida puede depender de: La entrada instantánea La entrada en instantes anteriores La salida en instantes anteriores Los estados en instantes anteriores
108 DNN - Retardo Introduzcamos el operador retardo a(t) = u(t )
109 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2)
110 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2) iw, (0) = 3, iw,() = 3, iw,(2) = 3 Señal cuadrada
111 DNN - Retardo a(t) = iw, (0)p(t)+iw, ()p(t )+iw, (2)p(t 2) iw, (0) = 3, iw,() = 3, iw,(2) = 3 Señal cuadrada
112 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t )
113 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t ) iw, = 2, lw,() = 2 Señal cuadrada
114 DNN - Recurrencia a(t) = iw, p(t)+lw, ()a(t ) iw, = 2, lw,() = 2 Señal cuadrada
115 DNN - Ejemplos Dinámica Filtro FIR (MATLAB: nnd4fir, nnd4iir) Recurrente Filtro IIR
116 DNN - Estructura n m (t) = LW m,l (d)a l (t d)+ IW m,l (d)p l (t d)+b m l L f d DL m,l d I m,l m l I m a m (t) = f m (n m (t))
117 DNN - Aprendizaje No podemos utilizar Backpropagation 2 algoritmos fundamentales: BackPropagation Through Time (BPTT) Se calcula la respuesta para todos los instantes de tiempo Se calcula el gradiente en el último instante de tiempo Real Time Recurrent Learning (RTRL) Se calcula la respuesta en cada instante de tiempo Se calcula el gradiente a la vez que la respuesta Existe una gran variedad de algoritmos
118 Introducción Neurona Biológica Neurona Artificial Sintonización de parámetros 2 Neuronas y Redes Neuronales Perceptrón ADALINE Perceptrón Multicapa y Backpropagation Redes Neuronales Dinámicas 3 Conclusiones
119 Conclusiones Inspiradas en el sistema nervioso. Procesan la información de manera paralela y distribuida. Operaciones en tiempo real para grandes cantidades de datos. Sistemas distribuido con altas capacidades de computo. Reconocimiento de patrones: asignación de objetivo a un dato de entrada Reconocimiento de caracteres Reconocimiento de fonemas en voz Toma de decisiones Compresión de imágenes y reducción de dimensionalidad Predicción de series temporales Identificación y control de sistemas...
120 Conclusiones-Dificultades Datos existentes Número de capas Número de neuronas Funciones de activación Algoritmos de aprendizaje... Mucho por explorar!!
121 Gracias GRACIAS!!
122 Gracias GRACIAS!!
Aprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesCAPÍTULO 4: ALGORITMOS DE APRENDIZAJE
Capítulo 4 Algoritmos de Aprendizaje 26 CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE En este capítulo se proporcionan las descripciones matemáticas de los principales algoritmos de aprendizaje para redes neuronales:
Más detallesNeuronas Artificiales
Modelos básicos b de Redes de Neuronas Artificiales Julián n Dorado Departamento de Tecnologías de la Información n y las Comunicaciones Universidade da Coruña Contenidos Tema 10: Procesado temporal mediante
Más detallesTEMA 6 Redes de Neuronas Artificiales
TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios
Más detallesADALINE Y PERCEPTRON
Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.
Más detallesMODELOS DE COMPUTACION II
INGENIERIA INFORMATICA ÁREA: CIENCIAS DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL MODELOS DE COMPUTACION II Presentación del profesor y de la asignatura JUAN LUIS CASTRO PEÑA 2010-11 Información: http://decsai.ugr.es/~castro/mcii
Más detallesInteligencia Artificial. Redes Neurales Artificiales
Inteligencia Artificial Redes Neurales Artificiales Redes Neural Natural Estructura celular del del cerebro donde residen las las capacidades intelectuales del del hombre Neurona: Soma: Dendritas: Sinapsis:
Más detallesen el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA
COMPUTaCIÓN NeURONaL MecaNIsMos INspIrados en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA >A finales de los años 80, los sistemas que procesan información
Más detalles2. PRINCIPALES TIPOS DE REDES NEURONALES
33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma
Más detallesPrimer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso
Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón Pedro A. Castillo Valdivieso Depto. Arquitectura y Tecnología de Computadores Universidad de Granada http://atc.ugr.es/pedro/gaicm1
Más detallesDesarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional
Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Titulación: Ingeniero Técnico Industrial Intensificación: Electrónica industrial
Más detallesIntroducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60
Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia
Más detallesLOS SISTEMAS ADAPTATIVOS
0010100100100101010110010001 0101010001010100101000101 0010100011110010110010001 11111111111010100010101001010010100010101010101 0010100011110101010101011100101001001010101100100010010100011110101010001
Más detallesCapítulo 2. Las Redes Neuronales Artificiales
Capítulo 2. Las Redes Neuronales Artificiales 13 Capitulo 2. Las Redes Neuronales Artificiales 2.1 Definición Redes Neuronales Artificiales El construir una computadora que sea capaz de aprender, y de
Más detallesCátedra: Informática Aplicada a la Ingeniería de Procesos Orientación I. Tema: Redes Neuronales: Conceptos Básicos y Aplicaciones.
Universidad Tecnológica Nacional Facultad Regional Rosario Departamento de Ingeniería Química Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ) Cátedra: Informática Aplicada a la Ingeniería
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)
Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura
Más detallesPredicción de índices de futuros financieros mediante redes neuronales
Predicción de índices de futuros financieros mediante redes neuronales Joan Bosch 1,Lluís Garrido 1,SergioGómez 2 1) Dept. d Estructura i Constituents de la Matèria, Facultat de Física, Universitat de
Más detallesBloque temático: Sistemas de Reconocimiento de Patrones
Bloque temático: Sistemas de Reconocimiento de Patrones 1 Sistemas de Reconocimiento de Patrones PRACTICAS 6)Estudio de ejemplos en Matlab 7)Adquisición de imágenes reales: generación de una librería de
Más detallesClasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle
Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes Sergio Roa Ovalle Universidad Nacional de Colombia Facultad de Ingeniería Departamento de Sistemas Bogotá 2002 Clasificación
Más detallesDeep Learning y Big Data
y Eduardo Morales, Enrique Sucar INAOE (INAOE) 1 / 40 Contenido 1 2 (INAOE) 2 / 40 El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia ha sido el foco
Más detallesAlgoritmos Genéticos. Introducción a la Robótica Inteligente. Álvaro Gutiérrez 20 de abril de
Algoritmos Genéticos Introducción a la Robótica Inteligente Álvaro Gutiérrez 20 de abril de 2016 aguti@etsit.upm.es www.robolabo.etsit.upm.es Índice 1 Introducción 2 Algoritmos Genéticos 3 Algunos Fundamentos
Más detallesIntroducción a Las redes Neuronales (Neurales) CO-6612
Introducción a Las redes Neuronales (Neurales) CO-662 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-2 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia:
Más detallesIntroducción a las Redes Neuronales Aplicadas
Introducción a las Redes Neuronales Aplicadas CURSO DE EXPERTOS DE U.C.M. (2012) Juan Miguel Marín Diazaraque jmmarin@est-econ.uc3m.es Universidad Carlos III de Madrid INDICE: Redes Neuronales en Economía
Más detallesLa nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network)
La nueva arquitectura del paquete AMORE (A MORE Flexible Neural Network) III Jornadas de Usuarios de R Javier Alfonso Cendón, Manuel Castejón Limas, Joaquín Ordieres Mere, Camino Fernández Llamas Índice
Más detallesCAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES
Capítulo 5 Modelado y Simulación del IDS 35 CAPÍTULO 5: MODELADO DEL IDS CON REDES NEURONALES En este capítulo se describe la preparación de los datos para servir como entradas al IDS y la simulación de
Más detallesREDES NEURONALES ARTIFICIALES Y SUS APLICACIONES
REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Xabier Basogain Olabe Centro: Escuela Superior de Ingeniería de Bilbao, EHU Despacho: P3BN11 Teléfono: 34 946014201 E mail: xabier.basogain@ehu.es Tabla
Más detallesUNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS
UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS DESARROLLO DE UNA APLICACIÓN QUE PERMITA EVOLUCIONAR REDES NEURONALES ARTIFICIALES
Más detalles3.2 CONTROL DE GIRO DE UN MOTOR DE INDUCCIÓN DE JAULA DE. Un motor de inducción tiene físicamente el mismo estator de una máquina
220 3.2 CONTROL DE GIRO DE UN MOTOR DE INDUCCIÓN DE JAULA DE ARDILLA 3.2.1 Descripción del problema. Un motor de inducción tiene físicamente el mismo estator de una máquina sincrónica con diferente construcción
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesAgradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1
Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos
Más detallesOPTIMIZACIÓN VECTORIAL
OPTIMIZACIÓN VECTORIAL Métodos de Búsqueda Directa Utilizan sólo valores de la función Métodos del Gradiente Métodos de Segundo Orden Requieren valores aproimados de la primera derivada de f) Además de
Más detallesUNIVERSIDAD FRANCISCO DE PAULA SANTANDER BIBLIOTECA EDUARDO COTE LAMUS RESUMEN - TESIS DE GRADO
UNIVERSIDAD FRANCISCO DE PAULA SANTANDER BIBLIOTECA EDUARDO COTE LAMUS RESUMEN - TESIS DE GRADO AUTORES : A LIRIO MAYORGA DELGADO Y HECTOR JULIO PEDROZA GARZON FACULTAD: INGENIERIAS PLAN DE ESTUDIOS:.
Más detallesING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES
ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES Ing. Bruno López Takeyas ALUMNOS: Jesús Martín Buentello Vargas Oscar de Luna Quezada Jesús Antonio Galindo Palacios Daniel Villanueva Cisneros
Más detallesUNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION
UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO
Más detallesI SEMANA ELECTRONICA REDES NEURONALES
UNIVERSIDAD NACIONAL SAN ANTONIO ABAD A DEL CUSCO CARRERA PROFESIONAL DE INGENIERIA ELECTRONICA I SEMANA ELECTRONICA REDES NEURONALES Ing. Avid idromán González Se trata de una nueva forma de computación
Más detallesAplicación Java para distribución de código en R
rolgalan@gmail.com Huesca - 24 de noviembre de 2009 Implementación Descripción problema Existen muchos problemas, cuya resolución informática requiere de un enorme tiempo de cómputo. En la actualidad,
Más detallesMAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES
MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.
Más detallesReducción de Ruido por medio de Redes Neuronales
Reducción de Ruido por medio de Redes Neuronales Donato Hernández, Sergio Ledesma, Miguel Torres, Gabriel Aviña y Gerardo Canedo Facultad de Ingeniería Mecánica, Eléctrica y Electrónica Universidad de
Más detallesAplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés
Aplicación de Vectores Estadísticos de Características y Ensambles para el Reconocimiento Automático del Llanto de Bebés Amaro Camargo Erika, Reyes García Carlos A. Instituto Nacional de Astrofísica, Óptica
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detallesTema 8. Redes Neuronales
Tema 8. Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea 8.1
Más detallesIntroducción a las redes neuronales aplicadas
Introducción a las redes neuronales aplicadas Conceptos básicos Las Redes Neuronales (NN: Neural Networks) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, constituidos
Más detallesGENERACIÓN AUTOMÁTICA DE REDES NEURONALES CON AJUSTE DE PARÁMETROS BASADO EN ALGORITMOS GENÉTICOS FACULTAD DE INGENIERIA UNIVERSIDAD DE BUENOS AIRES
GENERACIÓN AUTOMÁTICA DE REDES NEURONALES CON AJUSTE DE PARÁMETROS BASADO EN ALGORITMOS GENÉTICOS TESIS DE GRADO EN INGENIERIA INFORMATICA FACULTAD DE INGENIERIA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr.
Más detallesCAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS
CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS Descripción de la base de datos Como datos de entrenamiento, en este proyecto, se utilizó la base de datos ORL [1], la cual contiene un conjunto
Más detallesComplejidad de los Algoritmos
Que es un Algoritmo? Complejidad de los Algoritmos Webster: cualquier método especial para resolver cierta clase de problemas. Horowitz: método preciso utilizable en una computadora para la solución de
Más detallesPRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES
PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES Juan Miguel Jiménez Panta Piura, noviembre de 2013 Universidad de Piura Área Departamental de Ingeniería Industrial
Más detallesINTRODUCCION- FILTRO DE WIENER
FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener
Más detallesarxiv:1305.4686v1 [cs.cr] 21 May 2013
arxiv:1305.4686v1 [cs.cr] 21 May 2013 UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matemática Tesis de Licenciatura Aplicación de las Redes Neuronales al Reconocimiento
Más detallesNeural Network Toolbox
Neural Network Toolbox Sistemas Conexionistas - Curso 08/09 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.
Más detallesSISTEMA LOGISTICO DE PREVISIÓN ON-LINE, MEDIANTE REDES NEURONALES DEL SISTEMA DE DISTRIBUCIÓN DE UNA EMPRESA ELÉCTRICA.
Investigaciones Europeas de Dirección y Economía de la Empresa VoJ.2,W3,1996,pp.6l-79 SISTEMA LOGISTICO DE PREVISIÓN ON-LINE, MEDIANTE REDES NEURONALES DEL SISTEMA DE DISTRIBUCIÓN DE UNA EMPRESA ELÉCTRICA.
Más detallesAutomatización de previsión de demanda horaria de potencia eléctrica en el Sistema Interconectado Nacional
Revista Científica de la UCSA, Vol.1 N. o 1 Diciembre 2014: ARTICULO ORIGINAL Automatización de previsión de demanda horaria de potencia eléctrica en el Sistema Interconectado Nacional Hourly Load Forecast
Más detallesDiseño Automático de Redes Neuronales Artificiales mediante el uso del Algoritmo de Evolución Diferencial (ED)
Diseño Automático de Redes Neuronales Artificiales mediante el uso del Algoritmo de Evolución Diferencial (ED) Beatriz A. Garro, Humberto Sossa, Roberto A. Vazquez Resumen En el área de la Inteligencia
Más detallesSistemas Basados en el Conocimiento II: Introducción a la Neurocomputación
Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Texto base de la asignatura del mismo nombre perteneciente al Plan de Estudios de la Universidad Nacional de Educación a Distancia.
Más detallesReconocimiento de patrones mediante redes neuronales artificiales
Reconocimiento de patrones mediante redes neuronales artificiales Hugo Vega Huerta, Augusto Cortez Vásquez, Ana María Huayna, Luis Alarcón Loayza, Pablo Romero Naupari Facultad de Ingeniería de Sistemas
Más detallesIntroducción a la Inteligencia Artificial
Introducción a la Inteligencia Artificial Qué es la Inteligencia Artificial? Todas las definiciones de Inteligencia Artificial están relacionadas con la siguiente idea: Desarrollo de métodos y algoritmos
Más detallesAnalisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa
UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Proyecto Fin de Carrera Ingeniería Técnica Informática de Gestión Analisis de Técnicas para Medir la Influencia de las Variables del Vector
Más detalles4 Método propuesto basado en el Perceptrón Multicapa
Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está
Más detallesÁrea Académica: ICBI, Sistemas Computacionales. Profesor: M.C.C Víctor Tomás Tomás Mariano
Área Académica: ICBI, Sistemas Computacionales Tema: Mapas auto organizados Profesor: M.C.C Víctor Tomás Tomás Mariano Alumnos: Leticia Hernandez Hernandez. Agustin Escamilla Hernández Periodo: Julio-Diciembre
Más detallesMASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 5: Redes Neuronales 1 Objetivos del tema Conocer las limitaciones de los modelos lineales en problemas de modelización/ clasificación.
Más detallesAux 6. Introducción a la Minería de Datos
Aux 6. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial
Más detallesImplementación de redes neuronales sobre lógica reconfigurable
UNIVERSIDAD TECNOLÓGICADE LA MIXTECA DIVISIÓN DE ESTUDIOS DE POSGRADO Implementación de redes neuronales sobre lógica reconfigurable PARA OBTENER EL GRADO DE: Maestro en Electrónica, Opción: Sistemas Inteligentes
Más detallesInteligencia Artificial
Inteligencia Artificial Practica 2. (5 semanas) Rubén Cárdenes Almeida Redes neuronales. Introducción Las Redes Neuronales Artificiales (RNA) están inspiradas en la biología, esto significa que están formadas
Más detallesCLUSTERING MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN)
CLASIFICACIÓN NO SUPERVISADA CLUSTERING Y MAPAS AUTOORGANIZATIVOS (KOHONEN) (RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN) info@clustering.50webs.com Indice INTRODUCCIÓN 3 RESUMEN DEL CONTENIDO 3 APRENDIZAJE
Más detallesRedes Neuronales Artificiales aplicadas al Análisis de Datos
UNIVERSITAT DE LES ILLES BALEARS FACULTAD DE PSICOLOGÍA TESIS DOCTORAL Redes Neuronales Artificiales aplicadas al Análisis de Datos JUAN JOSÉ MONTAÑO MORENO DIRECTOR: DR. ALFONSO PALMER POL PALMA DE MALLORCA,
Más detallesCAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS
Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la
Más detallesModelos, Simulación, y Optimización
Modelos, Simulación, y Optimización Aplicaciones en la industria, logística, y operaciones de negocios. Como ahorrar costos, reducir riesgos y obtener el máximo retorno de las inversiones Agenda Que es
Más detallesPerceptrón Multicapa. Aplicaciones
Perceptrón Multicapa Aplicaciones Perceptrón Multicapa Para qué se puede usar un perceptrón multicapa? Aproximación de funciones Clasificación Compresión Radiación solar Peligro Calma Datos originales
Más detallesCAPITULO 1: PERSPECTIVE GENERAL DE LA
CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de
Más detallesInteligencia Artificial para desarrolladores Conceptos e implementación en C#
Introducción 1. Estructura del capítulo 19 2. Definir la inteligencia 19 3. La inteligencia de los seres vivos 22 4. La inteligencia artificial 24 5. Dominios de aplicación 26 6. Resumen 28 Sistemas expertos
Más detallesLicense Plate Detection using Neural Networks
License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net
Más detallesModelo de redes neuronales optimizadas con algoritmos genéticos.
Universidad Estatal a Distancia Maestría en Administración de Negocios Mención en Gerencia de Proyectos Trabajo Final de Graduación Modelo de redes neuronales optimizadas con algoritmos genéticos. Una
Más detallesAUTOGUIADO DE ROBOTS MÓVILES MEDIANTE REDES NEURONALES
XXV Jornadas de Automática Ciudad Real, del 8 al 10 de septiembre de 2004 AUTOGUIADO DE ROBOTS MÓVILES MEDIANTE REDES NEURONALES Mª Concepción Marcos Provecho Escuela de Ingenierías Industrial e Informática.
Más detallesRedes Neuronales Artificiales y sus Aplicaciones
Redes Neuronales Artificiales y sus Aplicaciones Profesorado Departamento Programa de Doctorado Créditos 3 Nº de Plazas 2. La asignatura 2. Objetivos de la asignatura 3. Contenidos 4. Metodología de trabajo
Más detallesAplicación de redes expertas para la predicción de tendencias del mercado financiero
Aplicación de redes expertas para la predicción de tendencias del mercado financiero Aplicación de redes expertas para la predicción de tendencias del mercado financiero Ing. Mario M. Figueroa de la Cruz,
Más detallesAnálisis de Algoritmos
Análisis de Algoritmos Amalia Duch Barcelona, marzo de 2007 Índice 1. Costes en tiempo y en espacio 1 2. Coste en los casos mejor, promedio y peor 3 3. Notación asintótica 4 4. Coste de los algoritmos
Más detallesDepartamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011
Factorización LU Departamento de Matemáticas, CCIR/ITESM 9 de febrero de 2011 Índice 26.1. Introducción............................................... 1 26.2. Factorización LU............................................
Más detallesFILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN TEMA 5 FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN FILTRADO ADAPTATIVO: IGUALACIÓN Y CANCELACIÓN
EMA 5 FILRADO ADAPAIVO: IGUALACIÓN Y CANCELACIÓN Índice: Ámbitos y características del filtrado adaptativo Minimización del MSE mediante el algoritmo de gradiente El algoritmo LMS Igualadores adaptativos
Más detallesAPLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO
APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO UNIVERSIDAD AUTONOMA DE OCCIDENTE FACULTAD DE INGENIERÍA DEPARTAMENTO DE AUTOMÁTICA Y ELECTRÓNICA PROGRAMA
Más detallesTipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve
Tipos de RNA Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve ADALINE Y MADALINE ADAptive Linear Element Y MULTIPLE ADALINE (WIDROW 1960) PARECIDO
Más detallesENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA
ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr. Luis Federico Bertona DIRECTORES:
Más detallesSistema de medición y control de proceso industrial de embotellado con algoritmo de redes neuronales
Sistema de medición y control de proceso industrial de embotellado con algoritmo de redes neuronales César E. Martínez Reinoso, Mario Alvarez Sifontes, Francisco J. Arteaga Bravo Unidad de Investigación
Más detallesPalabras llave. 1. Introducción. S. Valero 1, M. Ortiz 1, C. Senabre 1, M. Peñarrubia 1, A. Gabaldón 2 y Fco. Garcia 2
Clasificación de consumidores eléctricos mediante el uso de varias técnicas de redes neuronales artificiales, e identificación de nuevos clientes con las redes entrenadas S. Valero, M. Ortiz, C. Senabre,
Más detallesb) Otro ejemplo de mezcla de datos podría ser la definición de variables atributos a través de variables con valores continuos.
CAPITULO 5 PRE-PROCESAMIENTO DE DATOS Consiste en la preparación previa de los datos para ser usados por la construcción, entrenamiento y prueba de un modelo de red neuronal Alguno de los problemas más
Más detallesMEMORIA-RESUMEN DE TRABAJOS REALIZADOS
MEMORIA-RESUMEN DE TRABAJOS REALIZADOS Alumno: Tutor: Tesis: IBRAHIM ESPINO MARTÍN FRANCISCO MARIO HERNÁNDEZ TEJERA Integración de técnicas estadísticas, numéricas y de inteligencia artificial para la
Más detallesDISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2
DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE CONTROL 2 x 2 ERICK FRANK SARMIENTO JURADO UNIVERSIDAD DEL NORTE DIVISIÓN DE INGENIERÍAS MAESTRÍA
Más detallesTaxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas
Taxonomía de los principales temas de I A Por: Luis Guillermo Restrepo Rivas 1. DEFINICIONES, UBICACIÓN CONCEPTUAL E HISTORIA DE LA I.A. 2. COMPLEJIDAD COMPUTACIONAL, EXPLOSIÓN COMBINATORIA, DOMINIOS NO
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Introducción al Aprendizaje Automático Gibran Fuentes Pineda IIMAS, UNAM Definición El aprendizaje automático es el estudio de los metodos para programar las computadoras
Más detallesTEMA 3: CONTROL AVANZADO CON VARIABLES AUXILIARES
Técnicas del CRA: más de una variable manipulada/controlada/perturbación Contenido: 3.1 Introducción 3.2 Control en cascada 3.3 Control anticipativo Anticipativo incremental. Anticipativo estático. Control
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesPrograma de estudios por competencias Métodos Matemáticos II. Fecha elaboración/modificación: Julio 2015 Clave de la asignatura:
Programa de estudios por competencias Métodos Matemáticos II 1. Identificación del curso Programa educativo: Ingeniería en Computación Unidad de aprendizaje: Métodos Matemáticos II Departamento de adscripción:
Más detallesExcel 2013 Completo. Duración: Objetivos: Contenido: 80 horas
Excel 2013 Completo Duración: 80 horas Objetivos: Descripción del funcionamiento básico de la hoja de cálculo Microsoft Excel 2013, viendo las funciones disponibles en este programa a la hora de crear
Más detallesConceptualizando la integración de la Inteligencia Colectiva y Artificial con I3geo
Conceptualizando la integración de la Inteligencia Colectiva y Artificial con I3geo Pedro Robles, Juan Daniel Castillo, María Amparo Núñez y Josep María Monguet BarcelonaTech Introducción. Objetivo. Agenda
Más detallesLa eficiencia de los programas
La eficiencia de los programas Jordi Linares Pellicer EPSA-DSIC Índice General 1 Introducción... 2 2 El coste temporal y espacial de los programas... 2 2.1 El coste temporal medido en función de tiempos
Más detallesLugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982
Curriculum Vitæ DATOS PERSONALES Nombre: Jair Montoya Martínez. Lugar y fecha de nacimiento: Barrancabermeja, Santander, Marzo 15, 1982 Teléfono (Medellín): 235 23 61 Teléfono (Barrancabermeja): 057-622
Más detallesLuis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica. Grupo de Política y Gestión Tecnológica. Universidad Pontificia Bolivariana Medellín.
Bogotá 15 y 16 de Agosto de 2008 EXTRACCIÓN DE PATRONES DE LA ENCUESTA ANUAL MANUFACTURERA COLOMBIANA EMPLEANDO INTELIGENCIA ARTIFICIAL Luis Felipe Duque Álvarez. Estudiante de Ingeniería Electrónica.
Más detallesPráctica 10. Redes Neuronales
Práctica 10 Redes Neuronales En esta práctica trabajaremos con un sistema de aprendizaje basado en ejemplos que ya hemos visto con anterioridad (k-vecinos) y una implementación de las redes neuronales.
Más detallesArquitecturas Basadas en el Comportamiento
Arquitecturas Basadas en el Comportamiento Introducción a la Robótica Inteligente Álvaro Gutiérrez 4 de marzo de 2016 aguti@etsit.upm.es www.robolabo.etsit.upm.es Índice 1 Introducción 2 Arquitectura Subsunción
Más detallesEstudio de la Aplicación de Redes Neuronales Artificiales en la Ingeniería de Tráfico de Internet
Estudio de la Aplicación de Redes Neuronales Artificiales en la Ingeniería de Tráfico de Internet Nelson Piedra 1, Jorge López 2 5937-2570275 ext 222 Dirección: 11-01-608 Loja Ecuador Universidad Politécnica
Más detalles