Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL"

Transcripción

1 Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

2 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

3 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

4 Notas históricas 1957 Rosenblatt comienza el desarrollo del Perceptrón (simple) Widrow y Hoff desarrollan el modelo Adaline (ADAptative LINear Elements) Minsky y Papert prueban que el Perceptrón no es capaz de resolver problemas sencillos (XOR) Werbos desarrolla la idea básica del algoritmo de retro-propagación (BP) Rumelhart y Hinton redescubren y mejoran el algoritmo de BP.

5 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

6 El problema del XOR Figura: Representación gráfica del problema del OR exclusivo.

7 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR?

8 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1

9 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1

10 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1)

11 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1) Perceptrón B: x 2 = +1 x 1

12 Combinación de perceptrones simples Cómo podemos combinar dos o más PS para resolver el problema XOR? Perceptrón A: x 2 = 1 x 1 = w A0 w A2 w A1 w A2 x 1 w A0 = 1 w A1 = +1 w A2 = +1 y A = sgn(x 2 + x 1 + 1) Perceptrón B: x 2 = +1 x 1 w B0 = +1 w B1 = +1 y B = sgn(x 2 + x 1 1) w B2 = +1

13 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B

14 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1

15 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1 Cómo es la arquitectura } de esta red neuronal? y A = sgn(x 2 + x 1 + 1) y y B = sgn(x 2 + x 1 1) C = sgn(y A y B 1)

16 Combinación de perceptrones simples Perceptrón C: y A = +1 + y B w C0 = +1 w C1 = 1 y C = sgn(y A y B 1) w C2 = +1 Cómo es la arquitectura } de esta red neuronal? y A = sgn(x 2 + x 1 + 1) y y B = sgn(x 2 + x 1 1) C = sgn(y A y B 1) Resuelve el problema XOR?

17 Combinación de perceptrones simples Figura: (a) Arquitectura de una red para resolver el problema del XOR. (b) Gráfico de flujo de señal de la red.

18 Combinación de perceptrones simples Figura: (a) Límite de decisión construido por la neurona oculta 1 de la red en la fig. anterior. (b) Límite de decisión construido por la neurona oculta 2 de la red. (c) Límite de decisión construido por la red completa.

19 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

20 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos

21 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica

22 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica Ecuación básica: w(n + 1) = w(n) µ w ξ(w(n))

23 Entrenamiento por el método de gradiente Concepto: Mover los pesos en la dirección en que se reduce el error, dirección que es opuesta a su gradiente con respecto a los pesos Interpretación gráfica Ecuación básica: w(n + 1) = w(n) µ w ξ(w(n)) Aplicación: Caso sencillo: perpectrón simple (least mean squares) Caso más general: perceptrón multicapa (back-propagation)

24 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

25 Extensión del algoritmo a múltiples capas Entrenamiento por gradiente en el ADALINE Entrenamiento por gradiente en el MADALINE Entrenamiento por gradiente en el caso general Regiones de decisión

26 Regiones para varias capas Figura: Diferentes problemas no-linealmente separables (Lippmann, 1987).

27 Arquitectura del perceptrón multicapa Figura: Arquitectura de un perceptrón multicapa (PMC) con dos capas ocultas.

28 Arquitectura del perceptrón multicapa Figura: Ilustración de las dos direcciones básicas de flujos de señal en un PMC.

29 Arquitectura del perceptrón multicapa Representación gráfica de 3 capas Cálculo de las salidas en cada capa Criterio: suma del error cuadrático instantáneo

30 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 (completo v I = Wx)

31 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 y I j = φ(vi j ) = e bvi j (completo v I = Wx) 1 (simétrica ± 1)

32 Cálculo de las salidas en cada capa Capa I: v I j = w I, x = N w I ji x i i=0 y I j = φ(vi j ) = e bvi j Capa II: v II j = w II, y I y II j = φ(v II j ) Capa III: v III j = w III, y II y III j (completo v I = Wx) 1 (simétrica ± 1) = φ(v III j ) = y j

33 Criterio de error Suma del error cuadrático instantáneo ξ(n) = 1 2 M e 2 j (n) j=1

34 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n)

35 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) v j (n) e j (n) y j (n) v j (n) w ji (n)

36 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) v j (n) w ji (n) v j (n) w ji (n) = N w ji (n)y i (n) i=0 = y i (n) w ji (n)

37 Aplicación del gradiente (caso general) w ji (n) = µ ξ(n) w ji (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n)

38 Aplicación del gradiente (caso general) w ji (n) = µδ j (n)y i (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n)

39 Derivada de la función de activación simétrica (1/2) y j (n) v j (n) = { } e v j (n) v j (n) e v j(n) = 2( ) 1 + e v j (n) 2 1 e v j(n) = e v j(n) 1 + e v j(n) 0 {}}{ e v j(n) = e v j(n) 1 + e v j(n) ( ) 1 1 = e v j(n) 1 + e v j(n) e vj(n) 1 + e v j(n)

40 Derivada de la función de activación simétrica (2/2) y j (n) v j (n) ( ) 1 1 = e v 1 j(n) 1 + e v j(n) = 2 y ( j(n) y ) j(n) ( = (y j (n) + 1) 1 y ) j(n) ( ) 2 yj (n) 1 = (y j (n) + 1) 2 = 1 2 (y j(n) + 1)(y j (n) 1)

41 Aplicación del gradiente (caso general) w ji (n) = µδ j (n)y i (n) ξ(n) w ji (n) = ξ(n) e j (n) y j (n) e j (n) y j (n) v j (n) y i(n) Gradiente de error local instantáneo: δ j = ξ(n) y j (n) y j (n) v j (n) δ j = ξ(n) 1 y j (n) 2 (1 + y j(n))(1 y j (n))

42 Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente para el entrenamiento Perceptrón multicapa Retropropagación en el perceptrón multicapa

43 Retropropagación en la capa III (salida) w III ji (n) = µδj III (n)y II i (n)

44 Retropropagación en la capa III (salida) w III δ III j ji (n) = µδj III (n)y II i (n) (n) = ξ(n) 1 (n) 2 y III j (1 + yiii j (n))(1 y III j (n))

45 Retropropagación en la capa III (salida) w III δ III j ji (n) = µδj III (n)y II i (n) (n) = ξ(n) 1 (n) 2 y III j δj III (n) = ξ(n) e j (n) (1 + yiii j e j (n) 1 (n) 2 y III j (n))(1 y III j (n)) (1 + yiii j (n))(1 y III j (n))

46 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n)

47 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n) δ III j (n) = 1 2 e j(n)(1 + y III j (n))(1 y III j (n))

48 Retropropagación en la capa III (salida) { } 1 δj III 2 j e2 j (n) (n) = e j (n) 1 2 (1 + yiii j { d III j (n))(1 y III j (n)) } (n) y III j (n) y III j (n) δ III j (n) = 1 2 e j(n)(1 + y III j (n))(1 y III j (n)) w III ji (n) = ηe j (n)(1 + y III j (n))(1 y III j (n))y II i (n)

49 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n)

50 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j ξ(n) 1 (n) = y II j (n) 2 (1 + yii j (n))(1 y II j (n))

51 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 y II

52 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 δ II j (n) = 1 2 k (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 e 2 k (n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2 y II

53 Retropropagación en la capa II (oculta) w II ji (n) = µδii j (n)yi i (n) δ II j δ II ξ(n) 1 (n) = y II j (n) 2 { 1 j (n) = 2 δ II j (n) = 1 2 δ II j (n) = k k (1 + yii j (n))(1 y II j (n)) k e2 k (n)} 1 j (n) (1 + yii j (n))(1 y II j (n)) 2 e 2 k (n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2 y II e k (n) e k(n) 1 y II j (n) (1 + yii j (n))(1 y II j (n)) 2

54 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n))

55 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n)) δ II j (n) = k e k (n) { dk III (n) yiii k (n)} y III k (n) 1 2 { } j wiii kj yii j (n) y II j (n) 1 2 (1 + yiii k (n))(1 y III k (n)) (1 + yii j (n))(1 y II j (n))

56 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) e k(n) k (n) yiii viii y III k (n) v III k (n) y II k (n) 1 j (n) 2 (1+yII j (n))(1 y II j (n)) δ II j (n) = k e k (n) { dk III (n) yiii k (n)} y III k (n) 1 2 { } j wiii kj yii j (n) y II j (n) 1 2 (1 + yiii k (n))(1 y III k (n)) (1 + yii j (n))(1 y II j (n)) δ II j (n) = k e k (n) ( 1) 1 (1 + yiii k (n))(1 y III k (n)) 2 kj 1 (1 + yii j (n))(1 y II j (n)) 2 w III

57 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2

58 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2 Pero de la capa III sabemos que: δ III k (n) = 1 2 e k(n)(1 + y III k (n))(1 yiii k (n))

59 Retropropagación en la capa II (oculta) δ II j (n) = k e k (n) 1 (1 + yiii k (n))(1 y III k (n)) w III kj 2 1 (1 + yii j (n))(1 y II j (n)) 2 Pero de la capa III sabemos que: δ III k (n) = 1 2 e k(n)(1 + y III k (n))(1 yiii k (n)) Reemplzando: δ II j (n) = k δ III k (n)w III kj 1 2 (1 + yii j (n))(1 y II j (n))

60 Retropropagación en la capa II (oculta) Volviendo a: w II ji (n) = µδii j (n)yi i (n)

61 Retropropagación en la capa II (oculta) Volviendo a: w II ji (n) = µδii j (n)yi i (n) Por lo tanto: w II ji (n) = η [ k ] δk IIIwIII kj (n) (1 + y II j (n))(1 yii j (n))yi i (n)

62 Generalizando para la capa p w II ji (n) = η [ k δ III k w III kj (n) w (p) ji (n) = η δ (p+1), w (p+1) j ] (1 + y II j (n))(1 y II j (n))y I i(n) (1 + y (p) j (n))(1 y (p) j (n))y (p 1) i (n)

63 Resumen del algoritmo de retropropagación (BP) 1. Inicialización aleatoria 2. Propagación hacia adelante (de la entrada) 3. Propagación hacia atras (del error) 4. Adaptación de los pesos 5. Iteración: vuelve a 2 hasta convergencia o finalización

64 Ejemplo gráfico BP con PMC 3 capas Figura: Ejemplo de un PMC de 3 capas.

65 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 1.

66 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 2.

67 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa I, neurona 3.

68 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa II, neurona 1.

69 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa II, neurona 2.

70 Ejemplo: Cálculo de las salidas en cada capa Figura: Cálculo salida capa III, neurona 1.

71 Ejemplo: Retropropagación en la capa III (salida) Figura: Cálculo del error en capa III, neurona 1.

72 Ejemplo: Retropropagación en la capa III (salida) Figura: Propagación del error a la capa II, neurona 1.

73 Ejemplo: Retropropagación en la capa III (salida) Figura: Propagación del error a la capa II, neurona 2.

74 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagación del error a la capa I, neurona 1.

75 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagacion del error a la capa I, neurona 2.

76 Ejemplo: Retropropagación en la capa II (oculta) Figura: Propagación del error a la capa I, neurona 3.

77 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa I, neurona 1.

78 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa I, neurona 2.

79 Ejemplo: Actualizando los pesos de la red Figura: Actualizacion de pesos capa I, neurona 3.

80 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa II, neurona 1.

81 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa II, neurona 2.

82 Ejemplo: Actualizando los pesos de la red Figura: Actualización de pesos capa III, neurona 1.

83 Término de momento Modificación adaptativa de la velocidad de aprendizaje. (ver Haykin Sección 6.3)

ADALINE Y PERCEPTRON

ADALINE Y PERCEPTRON Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores.

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Redes Multicapa. Compuerta XOR

Redes Multicapa. Compuerta XOR Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes

Más detalles

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO

Más detalles

Tema 9: Introducción a las redes neuronales

Tema 9: Introducción a las redes neuronales D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en

Más detalles

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con 319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos

Más detalles

4 Método propuesto basado en el Perceptrón Multicapa

4 Método propuesto basado en el Perceptrón Multicapa Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está

Más detalles

CAPÍTULO I ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS

CAPÍTULO I ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS CAPÍTULO I ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 9. El tamaño de una neurona es de cinco a seis veces más

Más detalles

Secretaría de Docencia Dirección de Estudios Profesionales

Secretaría de Docencia Dirección de Estudios Profesionales PROGRAMA DE ESTUDIO POR COMPETENCIAS REDES NEURONALES I. IDENTIFICACIÓN DEL CURSO Espacio Educativo: Facultad de Ingeniería Licenciatura: Ingeniería en Computación Área de docencia: Interacción Hombre-Máquina

Más detalles

2. PRINCIPALES TIPOS DE REDES NEURONALES

2. PRINCIPALES TIPOS DE REDES NEURONALES 33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma

Más detalles

ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS. La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 1911.

ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS. La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 1911. ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS La idea de ser parte constituyente de la estructura cerebral la introducen Ramón y Cajal en 9. El tamaño de una neurona es de cinco a seis veces más pequeño

Más detalles

Lección 6 Redes Neuronales Artificiales Curso Básico

Lección 6 Redes Neuronales Artificiales Curso Básico Lección 6 Redes Neuronales Artificiales Curso Básico Curso Aproximación al estudio de célula mínima desde la Biología de Sistemas Montevideo 6-10 diciembre 2010 Federico Morán Departamento de Bioqímica

Más detalles

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12 Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales

Más detalles

APROXIMACIÓN NO LINEAL AL MODELO DE OVERSHOOTING USANDO REDES NEURONALES MULTICAPA PARA EL TIPO DE CAMBIO DÓLAR-PESO

APROXIMACIÓN NO LINEAL AL MODELO DE OVERSHOOTING USANDO REDES NEURONALES MULTICAPA PARA EL TIPO DE CAMBIO DÓLAR-PESO APROXIMACIÓN NO LINEAL AL MODELO DE OVERSHOOTING USANDO REDES NEURONALES MULTICAPA PARA EL TIPO DE CAMBIO DÓLAR-PESO Jaime Villamil 1 Hasta 1973 varias economías industrializadas funcionaron con el sistema

Más detalles

Introducción a las Redes de Neuronas

Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 89 Leganés (Madrid) Introducción de Redes de Neuronas Introducción Fundamentos

Más detalles

Sistema inteligente basado en. computación evolutiva y redes de. neuronas para juegos de bloques

Sistema inteligente basado en. computación evolutiva y redes de. neuronas para juegos de bloques MÁSTER UNIVERSITARIO EN INTELIGENCIA ARTIFICIAL Sistema inteligente basado en computación evolutiva y redes de neuronas para juegos de bloques TESIS FIN DE MÁSTER Departamento de Inteligencia Artificial

Más detalles

Inteligencia Artificial. Redes Neurales Artificiales

Inteligencia Artificial. Redes Neurales Artificiales Inteligencia Artificial Redes Neurales Artificiales Redes Neural Natural Estructura celular del del cerebro donde residen las las capacidades intelectuales del del hombre Neurona: Soma: Dendritas: Sinapsis:

Más detalles

PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES

PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES Guillermo MOLERO CASTILLO - g.moleroc@gmail.com Maestría en Ingeniería de la Computación, Universidad Nacional Autónoma de México

Más detalles

PREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO ANFIS Y REDES NEURONALES.

PREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO ANFIS Y REDES NEURONALES. PREDICCION DE CAUDALES DE RIOS APLICANDO EL MODELO NEURODIFUSO Y REDES NEURONALES. Ernesto GOMEZ VARGAS Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Bogotá, Cundinamarca, 057,

Más detalles

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.

Más detalles

5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6.

5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6. 05/IX/2005 E. T. S. de Ingeniería Informática Universidad de Málaga 1.- Demuestra el teorema de convergencia de una red de Hopfield binaria cuando se sigue una dinámica de computación asíncrona (secuencial).

Más detalles

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón. REDES NEURONALES Las redes neuronales constituyen una poderosa herramienta para modelar sistemas, especialmente no lineales, sean dinámicos o estáticos. En el cuerpo celular se realizan la mayoría de las

Más detalles

APRENDIZAJE NO SUPERVISADO Y EL ALGORITMO WAKE-SLEEP EN REDES NEURONALES

APRENDIZAJE NO SUPERVISADO Y EL ALGORITMO WAKE-SLEEP EN REDES NEURONALES UNIVERSIDAD TECNOLÓGICA DE LA MIXTECA APRENDIZAJE NO SUPERVISADO Y EL ALGORITMO WAKE-SLEEP EN REDES NEURONALES TESIS PARA OBTENER EL TÍTULO DE: LICENCIADO EN MATEMÁTICAS APLICADAS PRESENTA: NORMA PELÁEZ

Más detalles

NUEVOS PARADIGMAS REDES NEURONALES Y EDUCACIÓN..-Redes Neuronales Artificiales vs Redes Neuronales Biológicas

NUEVOS PARADIGMAS REDES NEURONALES Y EDUCACIÓN..-Redes Neuronales Artificiales vs Redes Neuronales Biológicas NUEVOS PARADIGMAS REDES NEURONALES Y EDUCACIÓN.-Redes Neuronales Artificiales vs Redes Neuronales Biológicas 1) Comparación entre humanos y máquinas 2) Las neuronas y el aprendizaje 3) Activación de las

Más detalles

TEMA 6 Redes de Neuronas Artificiales

TEMA 6 Redes de Neuronas Artificiales TEMA 6 Redes de Neuronas Artificiales Francisco José Ribadas Pena INTELIGENCIA ARTIFICIAL 5 o Informática ribadas@uvigo.es 29 de noviembre de 2005 c 2005 ccia ia 6.1 Introducción Objetivo: Usar los principios

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Claudio Javier Tablada Germán Ariel Torres Resumen. Una Red Neuronal Artificial es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura

Más detalles

COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION)

COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION) COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION) Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve COMPUTACIÓN INTELIGENTE METODOLOGÍA COMPUTISTA

Más detalles

Computación Evolutiva Algoritmos Genéticos

Computación Evolutiva Algoritmos Genéticos Computación Evolutiva Algoritmos Genéticos Diego Milone Inteligencia Computacional Departamento de Informática FICH-UNL Hace 200 años... Inteligencia Computacional - FICH - UNL La idea de que las especies

Más detalles

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS

CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS CAPÍTULO 3 RED NEURONAL PARA EL RECONOCIMIENTO DE ROSTROS Descripción de la base de datos Como datos de entrenamiento, en este proyecto, se utilizó la base de datos ORL [1], la cual contiene un conjunto

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura

Más detalles

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas

Más detalles

LOS SISTEMAS ADAPTATIVOS

LOS SISTEMAS ADAPTATIVOS 0010100100100101010110010001 0101010001010100101000101 0010100011110010110010001 11111111111010100010101001010010100010101010101 0010100011110101010101011100101001001010101100100010010100011110101010001

Más detalles

Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional

Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Desarrollo software de técnicas para el diseño automático de Redes Neuronales Artificiales con bajo coste computacional Titulación: Ingeniero Técnico Industrial Intensificación: Electrónica industrial

Más detalles

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la

Más detalles

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón Pedro A. Castillo Valdivieso Depto. Arquitectura y Tecnología de Computadores Universidad de Granada http://atc.ugr.es/pedro/gaicm1

Más detalles

Dra. Ma. del Pilar Gómez Gil Primavera 2013

Dra. Ma. del Pilar Gómez Gil Primavera 2013 C261-69 Tópicos Avanzados: Redes Neuronales Artificiales V:22-Ene-13 Dra. Ma. del Pilar Gómez Gil Primavera 2013 pgomez@acm.org, pgomez@inaoep.mx (c) 2008-2013. P. Gómez-Gil, INAOE 1 Objetivo del curso

Más detalles

APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO

APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO APLICACIÓN DE LA REALIDAD AUMENTADA PARA LA ENSEÑANZA DE REDES NEURONALES OSCAR EDUARDO SERNA ROSERO UNIVERSIDAD AUTONOMA DE OCCIDENTE FACULTAD DE INGENIERÍA DEPARTAMENTO DE AUTOMÁTICA Y ELECTRÓNICA PROGRAMA

Más detalles

en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA

en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA COMPUTaCIÓN NeURONaL MecaNIsMos INspIrados en el funcionamiento del cerebro FRANCISCO CERVANTES PÉREZ, JOSÉ INCERA DIÉGUEZ Y SALVADOR MÁRMOL YAHYA >A finales de los años 80, los sistemas que procesan información

Más detalles

Tema 8. Redes Neuronales

Tema 8. Redes Neuronales Tema 8. Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco Euskal Herriko Unibertsitatea 8.1

Más detalles

Tema 15: Combinación de clasificadores

Tema 15: Combinación de clasificadores Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

Implementación de una Red Neuronal Multicapa en un Microcontrolador PIC para la Identificación de Color

Implementación de una Red Neuronal Multicapa en un Microcontrolador PIC para la Identificación de Color Implementación de una Red Neuronal Multicapa en un Microcontrolador PIC para la Identificación de Color 1 Granados-Rojas Benito, 1* Jiménez-Saucedo Mario A, 1 Vallejo-Alarcón Manuel A, 1 González-Navarro

Más detalles

MODELOS DE REDES NEURONALES APLICADO EN LA PREDICCIÓN DEL SIGNO DE LOS FONDOS DE AFP CUPRUM

MODELOS DE REDES NEURONALES APLICADO EN LA PREDICCIÓN DEL SIGNO DE LOS FONDOS DE AFP CUPRUM MODELOS DE REDES NEURONALES APLICADO EN LA PREDICCIÓN DEL SIGNO DE LOS FONDOS DE AFP CUPRUM TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN FINANZAS Alumno: Mauricio Alarcón Jaque. Profesor Guía: Ph.D. Marcelo

Más detalles

Redes neuronales artificiales

Redes neuronales artificiales Redes neuronales artificiales Emilio Soria, Antonio Blanco INTRODUCCIÓN Si tuviéramos que definir la principal característica que nos separa del resto de animales seguramente, la gran mayoría de nosotros,

Más detalles

Tema 7 Redes Neuronales Recurrentes

Tema 7 Redes Neuronales Recurrentes Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS

Más detalles

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. Lucas García Cillanueva Paloma Jimeno Sánchez-Patón Leticia C. Manso Ruiz PROJECT GLASS Dentro de Google Labs Gafas

Más detalles

DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL

DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL TECNIA,Vol 8 N 03, págs.11-17, 1999 Universidad Nacional de Ingeniería Lima - Perú DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL Arturo Rojas-Moreno, arojas@uni.edu.pe

Más detalles

IMPLEMENTACIÓN DE REDES NEURONALES PARA LA DETECCIÓN DE LA PRESENCIA DE ENFERMEDADES EN EL CORAZÓN

IMPLEMENTACIÓN DE REDES NEURONALES PARA LA DETECCIÓN DE LA PRESENCIA DE ENFERMEDADES EN EL CORAZÓN IMPLEMENTACIÓN DE REDES NEURONALES PARA LA DETECCIÓN DE LA PRESENCIA DE ENFERMEDADES EN EL CORAZÓN IMPLEMENTATION OF NEURAL NETWORKS TO DETECT THE PRESENCE OF DISEASE IN THE HEART Abstract Then by means

Más detalles

ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES

ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES Ing. Bruno López Takeyas ALUMNOS: Jesús Martín Buentello Vargas Oscar de Luna Quezada Jesús Antonio Galindo Palacios Daniel Villanueva Cisneros

Más detalles

Estrategias para el desarrollo de aceleradores hardware de algoritmos basados en Redes Neuronales

Estrategias para el desarrollo de aceleradores hardware de algoritmos basados en Redes Neuronales ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA DE TELECOMUNICACIÓN UNIVERSIDAD POLITÉCNICA DE CARTAGENA Proyecto Fin de Carrera Estrategias para el desarrollo de aceleradores hardware de algoritmos basados en

Más detalles

CANCELACIÓN ACTIVA DE RUIDO

CANCELACIÓN ACTIVA DE RUIDO UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA CANCELACIÓN ACTIVA DE RUIDO Br. Yolimar Vera M. Mérida, Abril 28 DEDICATORIA Al Padre Celestial Todopoderoso y a la Santísima

Más detalles

MODELOS DE COMPUTACION II

MODELOS DE COMPUTACION II INGENIERIA INFORMATICA ÁREA: CIENCIAS DE LA COMPUTACIÓN E INTELIGENCIA ARTIFICIAL MODELOS DE COMPUTACION II Presentación del profesor y de la asignatura JUAN LUIS CASTRO PEÑA 2010-11 Información: http://decsai.ugr.es/~castro/mcii

Más detalles

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en 301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación

Más detalles

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE Capítulo 4 Algoritmos de Aprendizaje 26 CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE En este capítulo se proporcionan las descripciones matemáticas de los principales algoritmos de aprendizaje para redes neuronales:

Más detalles

License Plate Detection using Neural Networks

License Plate Detection using Neural Networks License Plate Detection using Neural Networks Luis Carrera, Marco Mora Les Fous du Pixel Image Processing Research Group Department of Computer Science Catholic University of Maule http://www.lfdp-iprg.net

Más detalles

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid)

Series Temporales. Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, Leganés (Madrid) Series Temporales Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 28911 Leganés (Madrid) Series Temporales Introducción Problema de predicción Modelos neuronales

Más detalles

UNA RED NEURONAL COMO HERRAMIENTA DE PREDICCIÓN DE VARIABLES CLIMÁTICAS: APLICACIÓN A LA TEMPERATURA MÍNIMA MEDIA MENSUAL EN CASTILLA y LEÓN.

UNA RED NEURONAL COMO HERRAMIENTA DE PREDICCIÓN DE VARIABLES CLIMÁTICAS: APLICACIÓN A LA TEMPERATURA MÍNIMA MEDIA MENSUAL EN CASTILLA y LEÓN. UNA RED NEURONAL COMO HERRAMIENTA DE PREDICCIÓN DE VARIABLES CLIMÁTICAS: APLICACIÓN A LA TEMPERATURA MÍNIMA MEDIA MENSUAL EN CASTILLA y LEÓN. Angel L. Labajo (1) y José L. Labajo (2) (1) Dpto. de Informática

Más detalles

Teoría de grafos y optimización en redes

Teoría de grafos y optimización en redes Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,

Más detalles

INTRODUCCION- FILTRO DE WIENER

INTRODUCCION- FILTRO DE WIENER FILTRO LMS INTRODUCCION- FILTRO DE WIENER Es un sistema al que le llegan dos señales: x(n) y e(n). A los coeficientes del filtro se les llama w(n), que son los que multiplican a la entrada x(n) para obtener

Más detalles

DESARROLLO Y CONSTRUCCIÓN DEL CONOCIMIENTO: UN ENFOQUE CONEXIONISTA

DESARROLLO Y CONSTRUCCIÓN DEL CONOCIMIENTO: UN ENFOQUE CONEXIONISTA DESARROLLO Y CONSTRUCCIÓN DEL CONOCIMIENTO: UN ENFOQUE CONEXIONISTA Constantino Malagón Luque 25 de septiembre de 2002 Resumen Este trabajo es una introducción a las redes neuronales, presentando todos

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

USO DE METAHEURÍSTICOS PARA EL APRENDIZAJE DE REDES NEURONALES: UNA COMPARATIVA

USO DE METAHEURÍSTICOS PARA EL APRENDIZAJE DE REDES NEURONALES: UNA COMPARATIVA USO DE METAHEURÍSTICOS PARA EL APRENDIZAJE DE REDES NEURONALES: UNA COMPARATIVA Joaquín Pacheco - jpacheco@ubu.es Alberto Aragón - aaragon@ubu.es Universidad de Burgos Reservados todos los derechos. Este

Más detalles

UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS

UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS UNIVERSIDAD DE ORIENTE NÚCLEO DE ANZOÁTEGUI ESCUELA DE INGENIERÍA Y CIENCIAS APLICADAS DEPARTAMENTO DE COMPUTACIÓN Y SISTEMAS DESARROLLO DE UNA APLICACIÓN QUE PERMITA EVOLUCIONAR REDES NEURONALES ARTIFICIALES

Más detalles

Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle

Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes. Sergio Roa Ovalle Clasificación de Frases del Lenguaje Natural usando Redes Neuronales Recurrentes Sergio Roa Ovalle Universidad Nacional de Colombia Facultad de Ingeniería Departamento de Sistemas Bogotá 2002 Clasificación

Más detalles

Tipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve

Tipos de RNA. Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve Tipos de RNA Jose Aguilar Cemisid, Facultad de Ingeniería Universidad de los Andes Mérida, Venezuela aguilar@ula.ve ADALINE Y MADALINE ADAptive Linear Element Y MULTIPLE ADALINE (WIDROW 1960) PARECIDO

Más detalles

Trabajo de Fin de Grado

Trabajo de Fin de Grado Trabajo de Fin de Grado Implementación de Técnicas de Deep Learning Implementation of Deep Learning Techniques Bryan García Navarro La Laguna, 8 de septiembre de 2015 1 D. Jesús Miguel Torres Jorge, con

Más detalles

REDES NEURONALES PARA EL ESTUDIO DEL COMPORTAMIENTO TÉRMICO DE EDIFICIOS

REDES NEURONALES PARA EL ESTUDIO DEL COMPORTAMIENTO TÉRMICO DE EDIFICIOS IRENE MARINCIC I UNIVERSIDAD DE SONORA J. ANTONIO DEL RÍO I CENTRO MORELENSE DE INNOVACIÓN Y TRANSFERENCIA TECNOLÓGICA REDES NEURONALES PARA EL ESTUDIO DEL COMPORTAMIENTO TÉRMICO DE EDIFICIOS Tanto la

Más detalles

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:

Más detalles

DISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD

DISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD DISEÑO Y CONSTRUCCIÓN DE UN ROBOT CARTESIANO DE 3 GRADOS DE LIBERTAD Juan Zuluaga Gómez 1,2,4, Edgar Arcos, Msc 2,3, Julie Berrio, Msc 2,3, Sergio Corredor 2 1 Optimización de procesos con nanotecnología

Más detalles

APLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS

APLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS APLICACIÓN DE REDES NEURONALES PARA LA PREDICCIÓN DE PROPIEDADES TERMODINÁMICAS Micael Gerardo Bravo Sánchez Instituto Tecnológico de Celaya gerardo.bravo@itcelaya.edu.mx Marco Carlo Guerrero Soto Instituto

Más detalles

M.C. ENRIQUE MARTINEZ PEÑA UNIVERSIDAD POLITECNICA DE VICTORIA

M.C. ENRIQUE MARTINEZ PEÑA UNIVERSIDAD POLITECNICA DE VICTORIA Control Inteligente Unidad 3: Redes neuronales artificiales y modelos de entrenamiento Subemas 3.1 Redes neuronales artificiales Neurona biológica Redes Neuronales Celulares Generador Central de Patrones

Más detalles

CLASIFICACIÓN DE USOS DE SUELO DE IMÁGENES SATELITALES LANDSAT POR MEDIO DE REDES NEURONALES SUPERVISADAS

CLASIFICACIÓN DE USOS DE SUELO DE IMÁGENES SATELITALES LANDSAT POR MEDIO DE REDES NEURONALES SUPERVISADAS CLASIFICACIÓN DE USOS DE SUELO DE IMÁGENES SATELITALES LANDSAT POR MEDIO DE REDES NEURONALES SUPERVISADAS Héctor F Gómez A hfgomez@utpl.edu.ec Universidad Nacional de Estudios a Distancia UNED Universidad

Más detalles

PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES

PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES PRONÓSTICO DE DEMANDA DE LLAMADAS EN LOS CALL CENTER, UTILIZANDO REDES NEURONALES ARTIFICIALES Juan Miguel Jiménez Panta Piura, noviembre de 2013 Universidad de Piura Área Departamental de Ingeniería Industrial

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Fernando Izaurieta y Carlos Saavedra Departamento de Física, Universidad de Concepción, Concepción, Chile RESUMEN En esta charla se entrega una descripción de las características

Más detalles

EL PERCEPTRON REDES NEURONALES ARTIFICIALES

EL PERCEPTRON REDES NEURONALES ARTIFICIALES EL PERCEPTRON REDES NEURONALES ARTIFICIALES ABSTRACT Neural networks are composed of simple elements operating in parallel. These elements are inspired by biological nervous systems. As in nature, the

Más detalles

Reducción de Ruido por medio de Redes Neuronales

Reducción de Ruido por medio de Redes Neuronales Reducción de Ruido por medio de Redes Neuronales Donato Hernández, Sergio Ledesma, Miguel Torres, Gabriel Aviña y Gerardo Canedo Facultad de Ingeniería Mecánica, Eléctrica y Electrónica Universidad de

Más detalles

PREDICCIÓN DEL TIPO DE CAMBIO PESO-DÓLAR UTILIZANDO REDES NEURONALES ARTIFICIALES LUIS ALBERTO ZAPATA GARRIDO HUGO FABIÁN DIAZ MOJICA

PREDICCIÓN DEL TIPO DE CAMBIO PESO-DÓLAR UTILIZANDO REDES NEURONALES ARTIFICIALES LUIS ALBERTO ZAPATA GARRIDO HUGO FABIÁN DIAZ MOJICA PREDICCIÓN DEL TIPO DE CAMBIO PESO-DÓLAR UTILIZANDO REDES NEURONALES ARTIFICIALES LUIS ALBERTO ZAPATA GARRIDO HUGO FABIÁN DIAZ MOJICA FUNDACIÓN UNIVERSIDAD DEL NORTE FACULTAD DE CIENCIAS ADMINISTRATIVAS

Más detalles

Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación

Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Sistemas Basados en el Conocimiento II: Introducción a la Neurocomputación Texto base de la asignatura del mismo nombre perteneciente al Plan de Estudios de la Universidad Nacional de Educación a Distancia.

Más detalles

ReCAD Revista electrónica de Ciencias Aplicadas al Deporte, Vol. 5, N 17, junio 2012

ReCAD Revista electrónica de Ciencias Aplicadas al Deporte, Vol. 5, N 17, junio 2012 NUEVAS HERRAMIENTS DE INVESTIGACION: LAS REDES NEURONALES. Nelio Bazán. Instituto Superior de Deportes, Buenos Aires, 2012. Contacto: nelio_bazan@yahoo.com.ar Las redes neuronales A pesar de la evolución

Más detalles

Docente: Aldo Salinas Encinas Página 1

Docente: Aldo Salinas Encinas Página 1 1.- Dada la ecuación en x 5.- Dado la ecuación Si 2 es una solución, determine el valor de 4 9 16 25 36 2.- Determine la verdad (V) o falsedad (F) de las siguientes afirmaciones: I) Toda ecuación posee

Más detalles

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.

Más detalles

FACULTAD DE INGENIERÍA

FACULTAD DE INGENIERÍA FACULTAD DE INGENIERÍA ESCUELA ACADÉMICO PROFESIONAL DE INGENIERÍA DE SISTEMAS APLICACIÓN DE REDES NEURONALES PARA DETERMINAR EL PRONÓSTICO DE LAS VENTAS EN LA EMPRESA CATERING & BUFFETS MyS UBICADA EN

Más detalles

REDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA

REDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA REDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA J. M. Cervantes Martínez, T. H. Neri Vitela y G. Mendoza García * Instituto Mexicano del Petróleo Eje Central Lázaro Cárdenas No. 152 C.P.

Más detalles

arxiv:1305.4686v1 [cs.cr] 21 May 2013

arxiv:1305.4686v1 [cs.cr] 21 May 2013 arxiv:1305.4686v1 [cs.cr] 21 May 2013 UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matemática Tesis de Licenciatura Aplicación de las Redes Neuronales al Reconocimiento

Más detalles

DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2

DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE. CONTROL 2 x 2 DISEÑO E IMPLEMENTACIÓN DE UN CONTROLADOR BASADO EN REDES NEURONALES CON ENTRENAMIENTO RÁPIDO PARA SISTEMAS DE CONTROL 2 x 2 ERICK FRANK SARMIENTO JURADO UNIVERSIDAD DEL NORTE DIVISIÓN DE INGENIERÍAS MAESTRÍA

Más detalles

Aplicaciones de las Redes Neuronales en las Finanzas

Aplicaciones de las Redes Neuronales en las Finanzas Documento de Trabajo Aplicaciones de las Redes Neuronales en las Finanzas Autor: Prof Dr. Pablo García Estévez. Universidad Complutense de Madrid. Facultad de Ciencias Económicas y Empresariales. Madrid,

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

REDES DE NEURONAS Y CLASIFICACION: DE PARADIGMAS CONEXIONISTAS CLASICOS A REDES QUE APRENDEN MIENTRAS CRECEN

REDES DE NEURONAS Y CLASIFICACION: DE PARADIGMAS CONEXIONISTAS CLASICOS A REDES QUE APRENDEN MIENTRAS CRECEN REDES DE NEURONAS Y CLASIFICACION: DE PARADIGMAS CONEXIONISTAS CLASICOS A REDES QUE APRENDEN MIENTRAS CRECEN Juan-Manuel Torres-Moreno Laboratoire Informatique d'avignon BP 1228 84911, Avignon Cédex 09,

Más detalles

Identificación Paramétrica

Identificación Paramétrica Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )

Más detalles

sistema de reconocimiento facial

sistema de reconocimiento facial Universidad Nacional del Litoral Facultad de Ingeniería y Ciencias Hídricas Proyecto Final de Carrera - Ingeniería en Informática sistema de reconocimiento facial Autor: Director: Co-Director: Asesor Temático:

Más detalles

Aprendizaje basado en ejemplos.

Aprendizaje basado en ejemplos. Aprendizaje basado en ejemplos. In whitch we describe agents that can improve their behavior through diligent study of their own experiences. Porqué queremos que un agente aprenda? Si es posible un mejor

Más detalles

Intensificación en "Lenguajes e Inteligencia Artificial"

Intensificación en Lenguajes e Inteligencia Artificial Ingeniería Informática - ETS Informática Métodos y Técnicas Informáticas específicas. Comportamientos humanos que se quieren simular/emular: IA: Vertiente "cognitiva" : Razonamiento, Intelecto,. RF: Vertiente

Más detalles

Analisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa

Analisis de Técnicas para Medir la Influencia de las Variables del Vector de Entrada de un Perceptron Multicapa UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica Superior Proyecto Fin de Carrera Ingeniería Técnica Informática de Gestión Analisis de Técnicas para Medir la Influencia de las Variables del Vector

Más detalles

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES

MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES MAPAS AUTOORGANIZATIVOS Y MODELOS SIMILARES José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Learning Vector Quantization.

Más detalles

Introducción a las redes neuronales aplicadas

Introducción a las redes neuronales aplicadas Introducción a las redes neuronales aplicadas Conceptos básicos Las Redes Neuronales (NN: Neural Networks) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, constituidos

Más detalles

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60 Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia

Más detalles

ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA

ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS TESIS DE GRADO EN INGENIERÍA INFORMÁTICA FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr. Luis Federico Bertona DIRECTORES:

Más detalles

Course 4: Neural networks Prof. Santiago Falcón

Course 4: Neural networks Prof. Santiago Falcón Course 4: Neural networks Prof. Santiago Falcón Module 2: Data analysis and modelling using Bayesian and neural networks Advanced Data Analysis and Modelling Summerschool Madrid June 26th to July 27th

Más detalles

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1 Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos

Más detalles

mediante la ecuación, Q la cantidad de radio es función del tiempo t; de modo que Q = Q(t).

mediante la ecuación, Q la cantidad de radio es función del tiempo t; de modo que Q = Q(t). Una ecuación diferencial es una ecuación en la que intervienen derivadas de una o más funciones desconocidas. Dependiendo del número de variables independientes respecto de las que se deriva, las ecuaciones

Más detalles