Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
|
|
- José Luis Mora Murillo
- hace 6 años
- Vistas:
Transcripción
1 Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
2 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
3 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
4 Notas históricas 1957 Rosenblatt comienza el desarrollo del Perceptrón (simple) Widrow y Hoff desarrollan el modelo Adaline (ADAptative LINear Elements) Minsky y Papert prueban que el Perceptrón no es capaz de resolver problemas sencillos (XOR) Werbos desarrolla la idea básica del algoritmo de retro-propagación (BP) Rumelhart y Hinton redescubren y mejoran el algoritmo de BP.
5 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
6 El problema del XOR Figura: Representación gráfica del problema del OR exclusivo.
7 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR?
8 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1
9 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1
10 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1)
11 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1) Perceptrón B: x 2 = +1 x 1
12 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1) Perceptrón B: x 2 = +1 x 1 w B0 = +1 w B1 = +1 y B = sgn(x 2 + x 1 1) w B2 = +1
13 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B
14 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1
15 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1 Cómo es la arquitectura } de esta red neuronal? y A = sgn(x 2 + x 1 + 1) y y B = sgn(x 2 + x 1 1) C = sgn(y A y B 1)
16 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1 Cómo es la arquitectura } de esta red neuronal? y A = sgn(x 2 + x 1 + 1) y y B = sgn(x 2 + x 1 1) C = sgn(y A y B 1) Resuelve el problema XOR?
17 Combinación de perceptrones simples Figura: (a) Arquitectura de una red para resolver el problema del XOR. (b) Gráfico de flujo de señal de la red.
18 Combinación de perceptrones simples Figura: (a) Límite de decisión construido por la neurona oculta 1 de la red en la fig. anterior. (b) Límite de decisión construido por la neurona oculta 2 de la red. (c) Límite de decisión construido por la red completa.
19 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
20 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos
21 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica
22 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica Ecuación básica: w(n + 1) = w(n) µ w ξ(w(n))
23 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica Ecuación básica: w(n + 1) = w(n) µ w ξ(w(n)) Aplicación: Caso sencillo: perpectrón simple (least mean squares) Caso más general: perceptrón multicapa (back-propagation)
24 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
25 Extensión del algoritmo a múltiples capas Entrenamiento por gradiente en el ADALINE Entrenamiento por gradiente en el MADALINE Entrenamiento por gradiente en el caso general Regiones de decisión
26 Regiones para varias capas Figura: Diferentes problemas no-linealmente separables (Lippmann, 1987).
27 Arquitectura del perceptrón multicapa Figura: Arquitectura de un perceptrón multicapa (PMC) con dos capas ocultas.
28 Arquitectura del perceptrón multicapa Figura: Ilustración de las dos direcciones básicas de flujos de señal en un PMC.
29 Arquitectura del perceptrón multicapa Representación gráfica de 3 capas Cálculo de las salidas en cada capa Criterio: suma del error cuadrático instantáneo
30 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 (completo v I = Wx)
31 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 y I j = φ(vi j ) = e bvi j (completo v I = Wx) 1 (simétrica ± 1)
32 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 y I j = φ(vi j ) = e bvi j Capa II: v II j = w II, y I y II j = φ(v II j ) Capa III: v III j = w III, y II y III j (completo v I = Wx) 1 (simétrica ± 1) = φ(v III j ) = y j
33 Criterio de error Suma del error cuadrático instantáneo ξ(n) = 1 2 M e 2 j (n) j=1
34 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n)
35 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) v j (n) e j (n) y j (n) v j (n) w ji (n)
36 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) v j (n) w ji (n) v j (n) w ji (n) = N w ji (n)y i (n) i=0 = y i (n) w ji (n)
37 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n)
38 Aplicación del gradiente (caso general) w ji (n) = µδ j (n)y i (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n)
39 Derivada de la función de activación simétrica (1/2) y j (n) v j (n) = { } e v j (n) v j (n) e v j(n) = 2( ) 1 + e v j (n) 2 1 e v j(n) = e v j(n) 1 + e v j(n) 0 {}}{ e v j(n) = e v j(n) 1 + e v j(n) ( ) 1 1 = e v j(n) 1 + e v j(n) e vj(n) 1 + e v j(n)
40 Derivada de la función de activación simétrica (2/2) y j (n) v j (n) ( ) 1 1 = e v 1 j(n) 1 + e v j(n) = 2 y ( j(n) y ) j(n) ( = (y j (n) + 1) 1 y ) j(n) ( ) 2 yj (n) 1 = (y j (n) + 1) 2 = 1 2 (y j(n) + 1)(y j (n) 1)
41 Aplicación del gradiente (caso general) w ji (n) = µδ j (n)y i (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n) δ j = ξ(n) 1 y j (n) 2 (1 + y j(n))(1 y j (n))
42 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa
43 Retropropagación en la capa III (salida) w III ji (n) = µδj III (n)y II i (n)
44 Retropropagación en la capa III (salida) w III δ III j ji (n) = µδj III (n)y II i (n) (n) = ξ(n) 1 (n) 2 y III j (1 + yiii j (n))(1 y III j (n))
45 Retropropagación en la capa III (salida) w III δ III j ji (n) = µδj III (n)y II i (n) (n) = ξ(n) 1 (n) 2 y III j δj III (n) = ξ(n) e j (n) (1 + yiii j e j (n) 1 (n) 2 y III j (n))(1 y III j (n)) (1 + yiii j (n))(1 y III j (n))
46 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n)
47 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n) δ III j (n) = 1 2 e j(n)(1 + y III j (n))(1 y III j (n))
48 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n) δ III j (n) = 1 2 e j(n)(1 + y III j (n))(1 y III j (n)) w III ji (n) = ηe j (n)(1 + y III j (n))(1 y III j (n))y II i (n)
49 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n)
50 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j ξ(n) 1 (n) = y II j (n) 2 (1 + yii j (n))(1 y II j (n))
51 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 y II
52 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 δ II j (n) = 1 2 k (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 e 2 k (n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2 y II
53 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 δ II j (n) = 1 2 δ II j (n) = k k (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 e 2 k (n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2 y II e k (n) e k(n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2
54 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n))
55 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n)) δ II j (n) = k e k (n) { dk III (n) yiii k (n)} y III k (n) 1 2 { } j wiii kj yii j (n) y II j (n) 1 2 (1 + yiii k (n))(1 y III k (n)) (1 + yii j (n))(1 y II j (n))
56 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n)) δ II j (n) = k e k (n) { dk III (n) yiii k (n)} y III k (n) 1 2 { } j wiii kj yii j (n) y II j (n) 1 2 (1 + yiii k (n))(1 y III k (n)) (1 + yii j (n))(1 y II j (n)) δ II j (n) = k e k (n) ( 1) 1 (1 + yiii k (n))(1 y III k (n)) 2 kj 1 (1 + yii j (n))(1 y II j (n)) 2 w III
57 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2
58 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2 Pero de la capa III sabemos que: δ III k (n) = 1 2 e k(n)(1 + y III k (n))(1 yiii k (n))
59 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2 Pero de la capa III sabemos que: δ III k (n) = 1 2 e k(n)(1 + y III k (n))(1 yiii k (n)) Reemplzando: δ II j (n) = k δ III k (n)w III kj 1 2 (1 + yii j (n))(1 y II j (n))
60 Retropropagación en la capa II (oculta) Volviendo a: w II ji (n) = µδii j (n)yi i (n)
61 Retropropagación en la capa II (oculta) Volviendo a: w II ji (n) = µδii j (n)yi i (n) Por lo tanto: w II ji (n) = η [ k ] δk IIIwIII kj (n) (1 + y II j (n))(1 yii j (n))yi i (n)
62 Generalizando para la capa p w II ji (n) = η [ k δ III k w III kj (n) w (p) ji (n) = η δ (p+1), w (p+1) j ] (1 + y II j (n))(1 y II j (n))y I i(n) (1 + y (p) j (n))(1 y (p) j (n))y (p 1) i (n)
63 Resumen del algoritmo de retropropagación (BP) 1. Inicialización aleatoria 2. Propagación hacia adelante (de la entrada) 3. Propagación hacia atras (del error) 4. Adaptación de los pesos 5. Iteración: vuelve a 2 hasta convergencia o finalización
64 Ejemplo gráfico BP con PMC 3 capas Figura: Ejemplo de un PMC de 3 capas.
65 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 1.
66 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 2.
67 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 3.
68 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa II, neurona 1.
69 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa II, neurona 2.
70 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa III, neurona 1.
71 Ejemplo: Retropropagación en la capa III (salida) Figura: Cálculo del error en capa III, neurona 1.
72 Ejemplo: Retropropagación en la capa III (salida) Figura: Propagación del error a la capa II, neurona 1.
73 Ejemplo: Retropropagación en la capa III (salida) Figura: Propagación del error a la capa II, neurona 2.
74 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagación del error a la capa I, neurona 1.
75 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagacion del error a la capa I, neurona 2.
76 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagación del error a la capa I, neurona 3.
77 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa I, neurona 1.
78 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa I, neurona 2.
79 Ejemplo: Actualizando los pesos de la red Figura: Actualizacion de pesos capa I, neurona 3.
80 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa II, neurona 1.
81 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa II, neurona 2.
82 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa III, neurona 1.
83 Término de momento Modificación adaptativa de la velocidad de aprendizaje. (ver Haykin Sección 6.3)
ADALINE Y PERCEPTRON
Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesRedes Multicapa. Compuerta XOR
Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes
Más detallesUNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION
UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO
Más detallesTema 9: Introducción a las redes neuronales
D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en
Más detallesCONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con
319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos
Más detalles4 Método propuesto basado en el Perceptrón Multicapa
Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está
Más detallesCAPÍTULO I ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS
CAPÍTULO I ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 9. El tamaño de una neurona es de cinco a seis veces más
Más detallesSecretaría de Docencia Dirección de Estudios Profesionales
PROGRAMA DE ESTUDIO POR COMPETENCIAS REDES NEURONALES I. IDENTIFICACIÓN DEL CURSO Espacio Educativo: Facultad de Ingeniería Licenciatura: Ingeniería en Computación Área de docencia: Interacción Hombre-Máquina
Más detalles2. PRINCIPALES TIPOS DE REDES NEURONALES
33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma
Más detallesALGUNOS HECHOS INTERESANTES DE LAS NEURONAS. La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 1911.
ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 9. El tamaño de una neurona es de cinco a seis veces más pequeño
Más detallesLección 6 Redes Neuronales Artificiales Curso Básico
Lección 6 Redes Neuronales Artificiales Curso Básico Curso Aproximación al estudio de célula mínima desde la Biología de Sistemas Montevideo 6-10 diciembre 2010 Federico Morán Departamento de Bioqímica
Más detallesIntroducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12
Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales
Más detallesAPROXIMACIÓN NO LINEAL AL MODELO DE OVERSHOOTING USANDO REDES NEURONALES MULTICAPA PARA EL TIPO DE CAMBIO DÓLAR-PESO
APROXIMACIÓN NO LINEAL AL MODELO DE OVERSHOOTING USANDO REDES NEURONALES MULTICAPA PARA EL TIPO DE CAMBIO DÓLAR-PESO Jaime Villamil 1 Hasta 1973 varias economías industrializadas funcionaron con el sistema
Más detallesIntroducción a las Redes de Neuronas
Introducción a las Redes de Neuronas Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 89 Leganés (Madrid) Introducción de Redes de Neuronas Introducción Fundamentos
Más detallesSistema inteligente basado en. computación evolutiva y redes de. neuronas para juegos de bloques
MÁSTER UNIVERSITARIO EN INTELIGENCIA ARTIFICIAL Sistema inteligente basado en computación evolutiva y redes de neuronas para juegos de bloques TESIS FIN DE MÁSTER Departamento de Inteligencia Artificial
Más detallesInteligencia Artificial. Redes Neurales Artificiales
Inteligencia Artificial Redes Neurales Artificiales Redes Neural Natural Estructura celular del del cerebro donde residen las las capacidades intelectuales del del hombre Neurona: Soma: Dendritas: Sinapsis:
Más detallesPREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES
PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES Guillermo MOLERO CASTILLO - g.moleroc@gmail.com Maestría en Ingeniería de la Computación, Universidad Nacional Autónoma de México
Más detallesPREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO ANFIS Y REDES NEURONALES.
PREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO Y REDES NEURONALES. Ernesto GOMEZ VARGAS Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Bogotá, Cundinamarca, 057,
Más detallesSimulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano
Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.
Más detalles5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6.
05/IX/2005 E. T. S. de Ingeniería Informática Universidad de Málaga 1.- Demuestra el teorema de convergencia de una red de Hopfield binaria cuando se sigue una dinámica de computación asíncrona (secuencial).
Más detallesREDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.
REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las
Más detallesAPRENDIZAJE NO SUPERVISADO Y EL ALGORITMO WAKE-SLEEP EN REDES NEURONALES
UNIVERSIDAD TECNOLÓGICA DE LA MIXTECA APRENDIZAJE NO SUPERVISADO Y EL ALGORITMO WAKE-SLEEP EN REDES NEURONALES TESIS PARA OBTENER EL TÍTULO DE: LICENCIADO EN MATEMÁTICAS APLICADAS PRESENTA: NORMA PELÁEZ
Más detallesNUEVOS PARADIGMAS REDES NEURONALES Y EDUCACIÓN..-Redes Neuronales Artificiales vs Redes Neuronales Biológicas
NUEVOS PARADIGMAS REDES NEURONALES Y EDUCACIÓN.-Redes Neuronales Artificiales vs Redes Neuronales Biológicas 1) Comparación entre humanos y máquinas 2) Las neuronas y el aprendizaje 3) Activación de las
Más detallesTEMA 6 Redes de Neuronas Artificiales
TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura
Más detallesCOMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION)
COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION) Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve COMPUTACIÓN INTELIGENTE METODOLOGÍA COMPUTISTA
Más detallesComputación Evolutiva Algoritmos Genéticos
Computación Evolutiva Algoritmos Genéticos Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Hace 200 años... Inteligencia Computacional - FICH - UNL La idea de que las especies
Más detallesCAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS
CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS Descripción de la base de datos Como datos de entrenamiento, en este proyecto, se utilizó la base de datos ORL [1], la cual contiene un conjunto
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)
Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura
Más detallesCONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)
Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas
Más detallesLOS SISTEMAS ADAPTATIVOS
0010100100100101010110010001 0101010001010100101000101 0010100011110010110010001 11111111111010100010101001010010100010101010101 0010100011110101010101011100101001001010101100100010010100011110101010001
Más detallesDesarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional
Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Titulación: Ingeniero Técnico Industrial Intensificación: Electrónica industrial
Más detallesCAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS
Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la
Más detallesPrimer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso
Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón Pedro A. Castillo Valdivieso Depto. Arquitectura y Tecnología de Computadores Universidad de Granada http://atc.ugr.es/pedro/gaicm1
Más detallesDra. Ma. del Pilar Gómez Gil Primavera 2013
C261-69 Tópicos Avanzados: Redes Neuronales Artificiales V:22-Ene-13 Dra. Ma. del Pilar Gómez Gil Primavera 2013 pgomez@acm.org, pgomez@inaoep.mx (c) 2008-2013. P. Gómez-Gil, INAOE 1 Objetivo del curso
Más detallesAPLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO
APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO UNIVERSIDAD AUTONOMA DE OCCIDENTE FACULTAD DE INGENIERÍA DEPARTAMENTO DE AUTOMÁTICA Y ELECTRÓNICA PROGRAMA
Más detallesen el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA
COMPUTaCIÓN NeURONaL MecaNIsMos INspIrados en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA >A finales de los años 80, los sistemas que procesan información
Más detallesTema 8. Redes Neuronales
Tema 8. Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea 8.1
Más detallesTema 15: Combinación de clasificadores
Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial
Más detallesImplementación de una Red Neuronal Multicapa en un Microcontrolador PIC para la Identificación de Color
Implementación de una Red Neuronal Multicapa en un Microcontrolador PIC para la Identificación de Color 1 Granados-Rojas Benito, 1* Jiménez-Saucedo Mario A, 1 Vallejo-Alarcón Manuel A, 1 González-Navarro
Más detallesMODELOS DE REDES NEURONALES APLICADO EN LA PREDICCIÓN DEL SIGNO DE LOS FONDOS DE AFP CUPRUM
MODELOS DE REDES NEURONALES APLICADO EN LA PREDICCIÓN DEL SIGNO DE LOS FONDOS DE AFP CUPRUM TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN FINANZAS Alumno: Mauricio Alarcón Jaque. Profesor Guía: Ph.D. Marcelo
Más detallesRedes neuronales artificiales
Redes neuronales artificiales Emilio Soria, Antonio Blanco INTRODUCCIÓN Si tuviéramos que definir la principal característica que nos separa del resto de animales seguramente, la gran mayoría de nosotros,
Más detallesTema 7 Redes Neuronales Recurrentes
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS
Más detallesPROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.
PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. Lucas García Cillanueva Paloma Jimeno Sánchez-Patón Leticia C. Manso Ruiz PROJECT GLASS Dentro de Google Labs Gafas
Más detallesDISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL
TECNIA,Vol 8 N 03, págs.11-17, 1999 Universidad Nacional de Ingeniería Lima - Perú DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL Arturo Rojas-Moreno, arojas@uni.edu.pe
Más detallesIMPLEMENTACIÓN DE REDES NEURONALES PARA LA DETECCIÓN DE LA PRESENCIA DE ENFERMEDADES EN EL CORAZÓN
IMPLEMENTACIÓN DE REDES NEURONALES PARA LA DETECCIÓN DE LA PRESENCIA DE ENFERMEDADES EN EL CORAZÓN IMPLEMENTATION OF NEURAL NETWORKS TO DETECT THE PRESENCE OF DISEASE IN THE HEART Abstract Then by means
Más detallesING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES
ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES Ing. Bruno López Takeyas ALUMNOS: Jesús Martín Buentello Vargas Oscar de Luna Quezada Jesús Antonio Galindo Palacios Daniel Villanueva Cisneros
Más detallesEstrategias para el desarrollo de aceleradores hardware de algoritmos basados en Redes Neuronales
ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA DE TELECOMUNICACIÓN UNIVERSIDAD POLITÉCNICA DE CARTAGENA Proyecto Fin de Carrera Estrategias para el desarrollo de aceleradores hardware de algoritmos basados en
Más detallesCANCELACIÓN ACTIVA DE RUIDO
UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA CANCELACIÓN ACTIVA DE RUIDO Br. Yolimar Vera M. Mérida, Abril 28 DEDICATORIA Al Padre Celestial Todopoderoso y a la Santísima
Más detallesMODELOS DE COMPUTACION II
INGENIERIA INFORMATICA ÁREA: CIENCIAS DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL MODELOS DE COMPUTACION II Presentación del profesor y de la asignatura JUAN LUIS CASTRO PEÑA 2010-11 Información: http://decsai.ugr.es/~castro/mcii
Más detalles3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en
301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación
Más detallesCAPÍTULO 4: ALGORITMOS DE APRENDIZAJE
Capítulo 4 Algoritmos de Aprendizaje 26 CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE En este capítulo se proporcionan las descripciones matemáticas de los principales algoritmos de aprendizaje para redes neuronales:
Más detallesLicense Plate Detection using Neural Networks
License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net
Más detallesSeries Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)
Series Temporales Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 28911 Leganés (Madrid) Series Temporales Introducción Problema de predicción Modelos neuronales
Más detallesUNA RED NEURONAL COMO HERRAMIENTA DE PREDICCIÓN DE VARIABLES CLIMÁTICAS: APLICACIÓN A LA TEMPERATURA MÍNIMA MEDIA MENSUAL EN CASTILLA y LEÓN.
UNA RED NEURONAL COMO HERRAMIENTA DE PREDICCIÓN DE VARIABLES CLIMÁTICAS: APLICACIÓN A LA TEMPERATURA MÍNIMA MEDIA MENSUAL EN CASTILLA y LEÓN. Angel L. Labajo (1) y José L. Labajo (2) (1) Dpto. de Informática
Más detallesTeoría de grafos y optimización en redes
Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,
Más detallesINTRODUCCION- FILTRO DE WIENER
FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener
Más detallesDESARROLLO Y CONSTRUCCIÓN DEL CONOCIMIENTO: UN ENFOQUE CONEXIONISTA
DESARROLLO Y CONSTRUCCIÓN DEL CONOCIMIENTO: UN ENFOQUE CONEXIONISTA Constantino Malagón Luque 25 de septiembre de 2002 Resumen Este trabajo es una introducción a las redes neuronales, presentando todos
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesUSO DE METAHEURÍSTICOS PARA EL APRENDIZAJE DE REDES NEURONALES: UNA COMPARATIVA
USO DE METAHEURÍSTICOS PARA EL APRENDIZAJE DE REDES NEURONALES: UNA COMPARATIVA Joaquín Pacheco - jpacheco@ubu.es Alberto Aragón - aaragon@ubu.es Universidad de Burgos Reservados todos los derechos. Este
Más detallesUNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS
UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS DESARROLLO DE UNA APLICACIÓN QUE PERMITA EVOLUCIONAR REDES NEURONALES ARTIFICIALES
Más detallesClasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle
Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes Sergio Roa Ovalle Universidad Nacional de Colombia Facultad de Ingeniería Departamento de Sistemas Bogotá 2002 Clasificación
Más detallesTipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve
Tipos de RNA Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve ADALINE Y MADALINE ADAptive Linear Element Y MULTIPLE ADALINE (WIDROW 1960) PARECIDO
Más detallesTrabajo de Fin de Grado
Trabajo de Fin de Grado Implementación de Técnicas de Deep Learning Implementation of Deep Learning Techniques Bryan García Navarro La Laguna, 8 de septiembre de 2015 1 D. Jesús Miguel Torres Jorge, con
Más detallesREDES NEURONALES PARA EL ESTUDIO DEL COMPORTAMIENTO TÉRMICO DE EDIFICIOS
IRENE MARINCIC I UNIVERSIDAD DE SONORA J. ANTONIO DEL RÍO I CENTRO MORELENSE DE INNOVACIÓN Y TRANSFERENCIA TECNOLÓGICA REDES NEURONALES PARA EL ESTUDIO DEL COMPORTAMIENTO TÉRMICO DE EDIFICIOS Tanto la
Más detallesTECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN
TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:
Más detallesDISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD
DISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD Juan Zuluaga Gómez 1,2,4, Edgar Arcos, Msc 2,3, Julie Berrio, Msc 2,3, Sergio Corredor 2 1 Optimización de procesos con nanotecnología
Más detallesAPLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS
APLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS Micael Gerardo Bravo Sánchez Instituto Tecnológico de Celaya gerardo.bravo@itcelaya.edu.mx Marco Carlo Guerrero Soto Instituto
Más detallesM.C. ENRIQUE MARTINEZ PEÑA UNIVERSIDAD POLITECNICA DE VICTORIA
Control Inteligente Unidad 3: Redes neuronales artificiales y modelos de entrenamiento Subemas 3.1 Redes neuronales artificiales Neurona biológica Redes Neuronales Celulares Generador Central de Patrones
Más detallesCLASIFICACIÓN DE USOS DE SUELO DE IMÁGENES SATELITALES LANDSAT POR MEDIO DE REDES NEURONALES SUPERVISADAS
CLASIFICACIÓN DE USOS DE SUELO DE IMÁGENES SATELITALES LANDSAT POR MEDIO DE REDES NEURONALES SUPERVISADAS Héctor F Gómez A hfgomez@utpl.edu.ec Universidad Nacional de Estudios a Distancia UNED Universidad
Más detallesPRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES
PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES Juan Miguel Jiménez Panta Piura, noviembre de 2013 Universidad de Piura Área Departamental de Ingeniería Industrial
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Fernando Izaurieta y Carlos Saavedra Departamento de Física, Universidad de Concepción, Concepción, Chile RESUMEN En esta charla se entrega una descripción de las características
Más detallesEL PERCEPTRON REDES NEURONALES ARTIFICIALES
EL PERCEPTRON REDES NEURONALES ARTIFICIALES ABSTRACT Neural networks are composed of simple elements operating in parallel. These elements are inspired by biological nervous systems. As in nature, the
Más detallesReducción de Ruido por medio de Redes Neuronales
Reducción de Ruido por medio de Redes Neuronales Donato Hernández, Sergio Ledesma, Miguel Torres, Gabriel Aviña y Gerardo Canedo Facultad de Ingeniería Mecánica, Eléctrica y Electrónica Universidad de
Más detallesPREDICCIÓN DEL TIPO DE CAMBIO PESO-DÓLAR UTILIZANDO REDES NEURONALES ARTIFICIALES LUIS ALBERTO ZAPATA GARRIDO HUGO FABIÁN DIAZ MOJICA
PREDICCIÓN DEL TIPO DE CAMBIO PESO-DÓLAR UTILIZANDO REDES NEURONALES ARTIFICIALES LUIS ALBERTO ZAPATA GARRIDO HUGO FABIÁN DIAZ MOJICA FUNDACIÓN UNIVERSIDAD DEL NORTE FACULTAD DE CIENCIAS ADMINISTRATIVAS
Más detallesSistemas Basados en el Conocimiento II: Introducción a la Neurocomputación
Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Texto base de la asignatura del mismo nombre perteneciente al Plan de Estudios de la Universidad Nacional de Educación a Distancia.
Más detallesReCAD Revista electrónica de Ciencias Aplicadas al Deporte, Vol. 5, N 17, junio 2012
NUEVAS HERRAMIENTS DE INVESTIGACION: LAS REDES NEURONALES. Nelio Bazán. Instituto Superior de Deportes, Buenos Aires, 2012. Contacto: nelio_bazan@yahoo.com.ar Las redes neuronales A pesar de la evolución
Más detallesDocente: Aldo Salinas Encinas Página 1
1.- Dada la ecuación en x 5.- Dado la ecuación Si 2 es una solución, determine el valor de 4 9 16 25 36 2.- Determine la verdad (V) o falsedad (F) de las siguientes afirmaciones: I) Toda ecuación posee
Más detallesÓrdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple
Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.
Más detallesFACULTAD DE INGENIERÍA
FACULTAD DE INGENIERÍA ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA DE SISTEMAS APLICACIÓN DE REDES NEURONALES PARA DETERMINAR EL PRONÓSTICO DE LAS VENTAS EN LA EMPRESA CATERING & BUFFETS MyS UBICADA EN
Más detallesREDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA
REDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA J. M. Cervantes Martínez, T. H. Neri Vitela y G. Mendoza García * Instituto Mexicano del Petróleo Eje Central Lázaro Cárdenas No. 152 C.P.
Más detallesarxiv:1305.4686v1 [cs.cr] 21 May 2013
arxiv:1305.4686v1 [cs.cr] 21 May 2013 UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matemática Tesis de Licenciatura Aplicación de las Redes Neuronales al Reconocimiento
Más detallesDISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2
DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE CONTROL 2 x 2 ERICK FRANK SARMIENTO JURADO UNIVERSIDAD DEL NORTE DIVISIÓN DE INGENIERÍAS MAESTRÍA
Más detallesAplicaciones de las Redes Neuronales en las Finanzas
Documento de Trabajo Aplicaciones de las Redes Neuronales en las Finanzas Autor: Prof Dr. Pablo García Estévez. Universidad Complutense de Madrid. Facultad de Ciencias Económicas y Empresariales. Madrid,
Más detallesAprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
Más detallesREDES DE NEURONAS Y CLASIFICACION: DE PARADIGMAS CONEXIONISTAS CLASICOS A REDES QUE APRENDEN MIENTRAS CRECEN
REDES DE NEURONAS Y CLASIFICACION: DE PARADIGMAS CONEXIONISTAS CLASICOS A REDES QUE APRENDEN MIENTRAS CRECEN Juan-Manuel Torres-Moreno Laboratoire Informatique d'avignon BP 1228 84911, Avignon Cédex 09,
Más detallesIdentificación Paramétrica
Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )
Más detallessistema de reconocimiento facial
Universidad Nacional del Litoral Facultad de Ingeniería y Ciencias Hídricas Proyecto Final de Carrera - Ingeniería en Informática sistema de reconocimiento facial Autor: Director: Co-Director: Asesor Temático:
Más detallesAprendizaje basado en ejemplos.
Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor
Más detallesIntensificación en "Lenguajes e Inteligencia Artificial"
Ingeniería Informática - ETS Informática Métodos y Técnicas Informáticas específicas. Comportamientos humanos que se quieren simular/emular: IA: Vertiente "cognitiva" : Razonamiento, Intelecto,. RF: Vertiente
Más detallesAnalisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa
UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Proyecto Fin de Carrera Ingeniería Técnica Informática de Gestión Analisis de Técnicas para Medir la Influencia de las Variables del Vector
Más detallesMAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES
MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.
Más detallesIntroducción a las redes neuronales aplicadas
Introducción a las redes neuronales aplicadas Conceptos básicos Las Redes Neuronales (NN: Neural Networks) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, constituidos
Más detallesIntroducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60
Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia
Más detallesENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA
ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr. Luis Federico Bertona DIRECTORES:
Más detallesCourse 4: Neural networks Prof. Santiago Falcón
Course 4: Neural networks Prof. Santiago Falcón Module 2: Data analysis and modelling using Bayesian and neural networks Advanced Data Analysis and Modelling Summerschool Madrid June 26th to July 27th
Más detallesAgradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1
Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos
Más detallesmediante la ecuación, Q la cantidad de radio es función del tiempo t; de modo que Q = Q(t).
Una ecuación diferencial es una ecuación en la que intervienen derivadas de una o más funciones desconocidas. Dependiendo del número de variables independientes respecto de las que se deriva, las ecuaciones
Más detalles