BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES

Tamaño: px
Comenzar la demostración a partir de la página:

Download "BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES"

Transcripción

1 BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. Resumen Este trabajo presenta una breve introducción al entrenamiento de redes neuronales multicapas bajo el algoritmo de Back-Propagation basado en el descenso de gradiente y de la regla delta, junto con su implementación numérica. Se simula una red en el entorno MATLAB, entrenándola para resolver un problema de reconocimiento de caracteres y el conocido problema del XOR. Los resultados obtenidos resultan de gran interés y muestran excelente desempeño. Sio el algoritmo una aproximador de funciones, este puede ser utilizado en muchos problemas donde se requiera la identificación de sistemas, clasificación de patrones, etc. Palabras claves: Redes Neuronales, Perceptrón multicapas, entrenamiento, reconocimiento de patrones, backpropagation, regla delta, descenso de gradiente. I. INTRODUCCIÓN El interés por la investigación en redes multicapas parte de los trabajos de Rosenblatt (1962) sobre Perceptrones y los de Widrow y sus alumnos sobre MADALINES (1962). Sin embargo, como hemos visto, el Perceptrón simple es capaz de resolver problemas de clasificación e implementar funciones lógicas, como por ejemplo, la función OR, pero es incapaz de implementar la función lógica XOR. Sobre estas limitaciones, Minsky y Papert (1969) publicaron un libro titulado Perceptrons que supuso el abandono por parte de muchos científicos de la investigación en redes neuronales, pues no se encontraba un algoritmo de aprizaje capaz de implementar funciones de este tipo [4]. Las limitaciones de las redes de una sola capa hicieron que se plantease la necesidad de implementar redes con más número de capas, es decir, introducir capas ocultas entre la capa de entrada y la capa de salida de manera que se pudiese implementar cualquier función con el grado de precisión deseado. Por ejemplo, con un Perceptrón con dos capas se puede implementar la función lógica XOR, como vimos en el trabajo anterior en la implementación de MADALINES. Al tener estas redes una topología más complicada, también se complicó la forma para encontrar los pesos correctos durante el aprizaje de las mismas, ya que este proceso es el que decide qué características de los patrones de entrada son representadas por la capa oculta de neuronas. En 1986 se abrió un nuevo panorama en el campo de las redes neuronales con el redescubrimiento por parte de Rumerlhard, Hinton y Williams del algoritmo de retro propagación (referido en este artículo como backpropagation). La idea básica de backpropagation fue descubierta por Werbos en su tesis doctoral en El algoritmo de backpropagation es un método eficiente para el entrenamiento de un Perceptrón Multicapa como se prete demostrar con este artículo. Se puede decir que puso fin al pesimismo que había surgido en 1969 con la aparición del libro de Minsky y Papert sobre el campo de las redes neuronales [3]. En la sección II de este artículo se explica brevemente la estructura de la red multicapa y sus conceptos básicos. En la sección III se explican el algoritmo de backpropagation. Finalmente, en la sección IV se realiza una implementación práctica del algoritmo estudiado para un problema de reconocimiento de patrones, y para la discriminación del XOR. II. ESTRUCTURA DE LAS REDES El Perceptrón multicapa es una red de alimentación hacia adelante (feed-forward) compuesta por una capa de unidades de entrada (sensores), otra capa de unidades de salida y un número determinado de capas intermedias de unidades de proceso, también llamadas capas ocultas porque no tienen conexiones con el exterior. Cada sensor de entrada está conectado con las unidades de la segunda capa, y

2 cada unidad de proceso de la segunda capa está conectada con las unidades de la primera capa y con las unidades de la tercera capa, así sucesivamente. Un ejemplo de esta arquitectura es mostrado en la Figura 1. donde el conjunto incluye todas las neuronas en la capa de salida de la red. Denotando como el número total de patrones de aprizaje contenidos en el conjunto de entrenamiento, el error cuadrático medio de energía es obtenido sumando sobre todos los patrones y luego normalizando sobre el conjunto de patrones como sigue: 1 (3) Figura 1. Perceptrón multicapa Con esta red se preter establecer una correspondencia entre un conjunto de entrada y un conjunto de salidas deseadas, de manera que la red pueda ser usada como un aproximador general de cualquier función. El vector patrón de entrada, aumentado por un sesgo fijo, es representado como,,,. Este vector de entrada es ajustado por un vector,,, para formar la respuesta análoga. El peso corresponde al sesgo (bias). La salida obtenida para la primera capa es la entrada de la capa subsiguiente, y así sucesivamente a través de las capas ocultas hasta llegar a la capa de salida. Las respuestas análogas de cada capa son evaluadas a través de una función de activación sigmoidea (como por ejemplo, la tangente hiperbólica) para resultar en una respuesta acotada. III. ALGORITMO BACK-PROPAGATION El error a la salida de la neurona (sio esta una neurona en la capa de salida) en la iteración (es decir, en la presentación del -ésimo patrón) es definido por: (1) Se define el valor instantáneo de energía de error para la neurona como. De igual forma, el valor instantáneo de la energía de error total es obtenido sumando todos los en la capa de salida de la red; estas son las solas neuronas visibles para las cuales se puede calcular el error directamente. Podemos entonces escribir: 1 2 (2) La energía de error instantánea y la energía de error media son función de los parámetros libres (los pesos sinápticos y niveles de sesgo) de la red. Para un conjunto de entrenamiento dado, representa la función de costo como una medida del desempeño del aprizaje. El objetivo del proceso de aprizaje es ajustar los parámetros libres de la red para minimizar. Para lograr esto se usa una aproximación similar a la usada para la derivación del algoritmo de LMS. Específicamente, se considera un método simple de entrenamiento en el cual los pesos son ajustados patrón por patrón hasta que una época (una presentación completa de los patrones de entrenamiento) haya sido completada. Los ajustes de pesos son hechos en concordancia con los errores respectivos calculados para cada patrón presentado a la red. El campo local inducido producido a la entrada de la función de activación de la neurona es por lo tanto: (4) donde es el número total de entradas (sin incluir el sesgo) aplicadas a la neurona. El peso sináptico (correspondiente a la entrada fija 1) equivale al sesgo aplicado a la neurona. Por e, la salida de la función de activación que aparece a la salida de la neurona en la iteración viene dada por: (5) De manera similar al algoritmo LMS, el algoritmo Back-Propagation aplica una corrección al peso sinaptico, que es proporcional a la derivada parcial. De acuerdo a la regla de la cadena, se puede expresar este gradiente como:

3 (6) La derivada parcial representa un factor de sensibilidad, determinando la dirección de búsqueda en el espacio de pesos para los pesos sinápticos. Diferenciando ambos lados de la ecuación (2) con respecto a, se obtiene: (7) Diferenciando ambos lados de la ecuación (1) con respecto a, se obtiene: 1 (8) Ahora, diferenciando la ecuación (5) con respecto a, se obtiene: (9) donde el uso de prima significa diferenciación con respecto al argumento. Finalmente, diferenciando la ecuación (4) con respecto a, se obtiene: (10) Usando las ecuaciones de la (7) a la (10) se obtiene: (11) La corrección aplicada a es definida por la regla delta: (12) donde es el parámetro de aprizaje del algoritmo de backpropagation. El uso del signo negativo en la ecuación (12) representa el descenso de gradiente en el espacio de pesos. En consecuencia, el uso de la ecuación (11) en la (12) resulta en: (13) donde el gradiente local es definido por: (14) De las ecuaciones (13) y (14) se puede notar que un factor clave involucrado en el cálculo del ajuste de pesos es la señal de error a la salida de la neurona. En este contexto podemos identificar dos casos distintos, depio de en donde es localizada la neurona. En el caso 1, la neurona es una salida. Este caso es simple de tratar ya que cada salida de la red es comparada con una salida deseada, obteniéndose fácilmente el error asociado a la salida. En el caso 2, la neurona se encuentra en una capa oculta. Aunque las neuronas de las capas ocultas no son directamente accesibles, ellas comparten responsabilidad del error asociado a la salida de la red. La cuestión es cómo penalizar o compensar las neuronas ocultas por su responsabilidad en el error. Este es el problema de la asignación de créditos, resuelto de forma elegante retro propagando el error por la red. Caso 1 Neurona está en la capa de salida Cuando la neurona es localizada en la capa de salida de la red, esta es comparada con la salida deseada para obtener directamente el error mediante la ecuación (1). Tenio este cálculo realizado, se calcula el gradiente local empleando la ecuación (14). Caso 2 Neurona está en una capa oculta Cuando la neurona es localizada en una capa oculta de la red, no existe una salida deseada para esa neurona. El error de una neurona oculta debe ser obtenido recursivamente en términos de los errores de las neuronas a las cuales está conectada. En este caso, luego de desarrollar el gradiente local en función de estos errores, se obtiene que: (15) Finalmente, a continuación se presenta el algoritmo de Back-Propagation para un conjunto de entrenamiento, dado: 1. Inicialización. Los pesos y las funciones de activación son inicializados.

4 2. Presentación del conjunto de entrenamiento. Se presenta una época completa del conjunto de patrones de entrenamiento a la red. Para cada patrón del conjunto de entrenamiento, ordenados de alguna forma, ejecutar las secuencias de cálculo hacia delante y hacia atrás como descrito en los puntos 3 y 4, respectivamente. 3. Cálculo hacia delante. Sea el patrón de entrenamiento de la época por,, con el vector de entrada aplicado a la capa de entrada de la red y el vector de salidas deseadas presentado al final de la red en la capa de salida. Calcular los campos locales inducidos y salidas de las funciones de activación de la red procedio de la capa de entrada, capa por capa, hasta la capa de salida por toda la red. El campo local inducido para la neurona en la capa es: (16) donde es la salida de la función de activación de la neurona en la capa anterior 1 en la iteración y es el peso sináptico de la neurona en la capa correspondiente a la neurona en la capa 1. Para 0, se tiene que = +1 y es el sesgo aplicado a la neurona en la capa. Asumio el empleo de una función sigmoidea, la salida de la neurona en la capa es: (17) Si la neurona es de la primera capa oculta (es decir, 1): (18) donde es el -ésimo elemento del patrón de entrada. Si la neurona es de la capa de salida (es decir, ): (19) Se calcula el error en la salida: (20) donde es el -ésimo elemento del vector de salida deseada. 4. Cálculo hacia atrás. Calcular los gradientes locales de la red, definidos por: (21) para la neurona en la capa de salida, y (22) para la neurona en la capa oculta, donde el uso de prima significa diferenciación con respecto al argumento. Se ajustan los pesos sinápticos de la red en la capa según la regla delta generalizada: 1 1 (23) 1 donde es el parámetro de aprizaje y es la constante de momento del algoritmo. 5. Iteración. Iterar los cálculos hacia delante y hacia atrás bajo los puntos 3 y 4 presentando nuevas épocas de patrones de entrenamiento a la red hasta que algún criterio de convergencia sea alcanzado. IV. APLICACIÓN Y RESULTADOS DE SIMULACIÓN Para simular el funcionamiento de una red multicapas entrenada mediante el algoritmo Backpropagation se plantean los dos problemas siguientes: A. OR EXCLUSIVO (XOR) Se plantea la resolución del muy conocido problema del XOR, cuya resolución no es posible con un Perceptrón simple. El XOR consiste en un operador lógico con la siguiente descripción para dos entradas binarias: A B A XOR B Figura 2. XOR Desarrollando el algoritmo Back-Propagation bajo el ambiente MATLAB se valida el funcionamiento del entrenamiento para este problema. Se entrena una red con una capa oculta de 3 neuronas. La red consiste entonces en una arquitectura de 2 entradas, 2 neuronas en la capa oculta y 1 salida (red 231). La entrada y salida deseada son presentado como: donde:

5 Es decir, la red entrenada discriminará dos clases bipolares depio de la entrada dada. La salida de la red se considera de una clase u otra depio de si su valor es próximo a +1 o a -1. El algoritmo converge con una tolerancia de error del orden de 110. En las figuras 3 y 4 se muestran las curvas de la convergencia del error de dos corridas para 0,2 y 0,8. En este caso, el algoritmo converge en 47 y 41 épocas con errores cuadráticos medios de y respectivamente. En la figura 5 se puede notar que disminuyo el parámetro de aprizaje y la constante del momento ( 0,1 y 0,1) el algoritmo tarda más tiempo en converger (491 épocas). Figura 5. Convergencia., y, B. RECONOCIMIENTO DE CARACTERES Se plantea un problema de reconocimiento de caracteres con la siguiente descripción: Dado un panel de entrada compuesto por una matriz de 75 puntos, se consideran tres clases diferentes donde se preten clasificar las muestras que se introducen. Los patrones de entrenamiento correspondientes a cada clase son los caracteres de los números 1, 2 y 3 como se muestra en la Figura 5. Figura 3. Convergencia., y, Figura 6. Representación grafica de los patrones de entrenamiento Cuando a la entrada se le presente una muestra diferente a la de los patrones correctos, el sistema presentara a su salida la información decodificada de la clase a la que pertenece la muestra, o la clase a la cual mejor se aproxima. La red neuronal dispone de 35 entradas que corresponden a las posiciones enumeradas en la matriz de la Figura 6. El valor de cada entrada puede ser 1 si la posición es blanca y (1 si la posición es negra. Por otro lado, se dispone de 3 salidas, una por cada clase. Figura 4. Convergencia., y,

6 Figura 7. Posiciones enumeradas de los patrones de entrenamiento El problema puede ser resuelto con menos neuronas en la capa oculta. En la figura 9 se muestra los resultados con 4 neuronas en la capa oculta (sio la estructura de la red 3543), con para 0,2 y 0,8. Es de notar que con la nueva configuración el aprizaje ocurre mucho más rápido, obteniéndose convergencia en 7 épocas con un error cuadrático medio de Con el algoritmo Back-Propagation desarrollado bajo el ambiente MATLAB se valida el funcionamiento del entrenamiento para este problema. Se entrena una red con una capa oculta de 10 neuronas. La red consiste entonces en una arquitectura de 35 entradas, 10 neuronas en la capa oculta y 3 salidas (red 35103). La entrada y salida deseada son presentado como: donde: Es decir, la red entrenada discriminará las tres clases depio de la entrada dada. La salida de la red se considera de una clase u otra depio de si su valor es próximo a +1 o a -1. El algoritmo converge con una tolerancia de error del orden de 110. En la figura 8 se muestra la curva de la convergencia del error para 0,2 y 0,2. En este caso, el algoritmo converge en 85 épocas con un error cuadrático medio de Figura 9. Convergencia., y, De la misma manera, cuando se introduce una muestra con error en un punto, la red clasifica perfectamente dicha muestra en la clase correcta. V. CONCLUSIONES Basado en descenso de gradiente y en la regla delta, el algoritmo de backpropagation fue desarrollado con la motivación de entrenar redes multicapas para la aproximación general de funciones partio del hecho de realimentar el error en la estructura de la red para un mejor ajuste de pesos. Los resultados obtenidos resultan de gran interés y muestran excelente desempeño. Sio el algoritmo una aproximador de funciones, este puede ser utilizado en muchos problemas donde se requiera la identificación de sistemas, clasificación de patrones, etc. VI. REFERENCIAS Figura 8. Convergencia., y, [1] Rosemblatt, F., 1962, Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms, Washington, DC: Spartan. [2] Widrow, B. and Hoff, M. E., Jr. 1960, Adapting switching circuits, in 1960 IRE WESCON Convention Record, Part 4, New York: IRE, pp [3] P. M. Lewis II y C.L. Coates, Threshold Logic. New York: John Wiley and Sons, [4] Daniel Graupe. Principles of artificial neural networks. 2 nd Edition, World Scientific, 2007.

7 [Programa: backpropagation.m] %Algoritmo de Entrenamiento de BACKPROPAGATION para Redes Neuronales %por Paul Acquatella B. %Creado: 27 Enero 2009 function entrenamiento = backpropagation(x,d,l,rate,alfa,dmse) %% 1. Inicialización Y Cálculo de Parámetros %Parámetros del algoritmo mse = Inf; epoch = 1; %Asumio Pesos Iniciales Malos %Se calculan los tamaños respectivos de las matrices [N,P] = size(x); %Numero de Patrones P y Entradas N [Q,Pd] = size(d); %Numero de Patrones P y Salidas Q depth = length(l); %Profundidad de la red - nro capas %Inicializar Matriz de Pesos para cada capa en el rango [-1,1] W = cell(1,depth-1); %Pre-alocacion de la matriz de pesos for m = 1:depth-2 W{1,m} = [-1+2*rand(L(1,m+1),L(1,m)+1)]; W{} = [-1+2*rand(L(),L(-1)+1)]; %Inicializar Matrices de los delta-pesos de ajuste dw = cell(1,depth-1); %Pre-alocacion de los delta pesos for m = 1:depth-1 dw{m} = zeros(size(w{m})); %Inicializar los campos locales inducidos 'v' v = cell(1,depth); %Pre-alocacion de los campos locales for i=1:depth-1; v{i} = [zeros(l(i),1); 1]; v{} = zeros(l(),1); %Inicializar las salidas 'y' de cada capa y = cell(1,depth-1); %Pre-alocacion de las salidas locales for i=1:depth-2; y{i} = zeros(l(i+1),1); y{} = zeros(l(),1); %% 2. Cálculo Forward y Backward para cada epoch while (mse > dmse) && (epoch <= 10000) e = zeros(q,p); err = zeros(1,p); for p = 1:P %Cálculo Forward capa-por-capa para cada patrón p v{1}(1:-1) = X(:,p); for i = 1:depth-1 y{i} = W{i}*v{i}; if i < depth-1 v{i+1}(1:-1) = tansig(y{i}); %Cálculo de la salida else v{i+1} = tansig(y{i}); %Cálculo de la salida %Cálculo de la señal de error e(:,p) = D(:,p)-v{}; %Cálculo de la energía del error if size(d,1) == 1 err(1,p)=0.5*(e(:,p).^2); elseif size(d,1) > 1 err(1,p)=0.5*sum(e(:,p).^2);

8 %Cálculo Backward capa-por-capa para cada patrón p delta = e(:,p).*(tansig('dn',y{})); %Ajuste de pesos for i = depth-1:-1:1 dw{i} = rate * delta * v{i}' + alfa.*dw{i}; W{i} = W{i} + dw{i}; if i > 1 delta = tansig('dn',y{i-1}).*(delta'*w{i}(:,1:-1))'; %Cálculo del mean square error mse = (1/P)*sum(err); epoch = epoch +1; hold on figure(2) semilogx(epoch,mse,'ro') hold off entrenamiento.pesos = W; entrenamiento.epocas = epoch; entrenamiento.estructura = L; entrenamiento.error = mse; [Programa: setupbackpropagation.m] X = [ ; ]; D = [... 0 ];

9 X1 = [ ]; X1 = X1'; D1 = eye(10); X2 = [ ]; X2 = X2'; Instrucciones de uso: se ejecuta el programa setupbackpropagation.m para inicializar la matriz de entradas y la matriz de salidas deseadas, y luego se ejecuta el comando: entrenamiento = backpropagation(x,d,l,rate,alfa,dmse), donde X es la matriz de entrada, D la matriz de salidas deseadas, L el vector de capas ocultas ([N L1 L2 Q]), rate la constante de aprizaje, alfa la constante de momento, y dmse el error deseado de convergencia. Este trabajo forma parte del requisito del curso de Redes Neuronales aplicadas a Control del Prof. Miguel Strefezza de la Universidad Simón Bolívar. Caracas, Marzo de 2009.

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa. TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos

Más detalles

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga

Más detalles

Tema: Aprendizaje Supervisado.

Tema: Aprendizaje Supervisado. Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4

Más detalles

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente

Más detalles

REDES NEURONALES ADAPTABLES

REDES NEURONALES ADAPTABLES REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables

Más detalles

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para

Más detalles

Tema 2 Primeros Modelos Computacionales

Tema 2 Primeros Modelos Computacionales Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple

Más detalles

Redes Neuronales Multicapa

Redes Neuronales Multicapa Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente

Más detalles

El Perceptrón Multicapa

El Perceptrón Multicapa El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del

Más detalles

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation

Más detalles

Tema 8: Redes Neuronales

Tema 8: Redes Neuronales Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/

Más detalles

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software

Inteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función

Más detalles

Aprendizaje: Perceptrón multi-capa

Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Conceptos básicos V:

Conceptos básicos V: C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0

Más detalles

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 6: Redes de Neuronas Recurrentes En este tema se estudian las redes de neuronas recurrentes. Se presentan en primer lugar

Más detalles

Introducción a las Redes Neuronales mediante el paquete neuralnet

Introducción a las Redes Neuronales mediante el paquete neuralnet Introducción a las Redes Neuronales mediante el paquete neuralnet El paquete neuralnet es un paquete de muy sencilla utilización que permite la aplicación, visulaización e implementación de redes neuronales.

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5 Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función

Más detalles

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias

CAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno

Más detalles

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías

Más detalles

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones Curso RNA Tema 0 TEMA 0 PRESENTACIÓN DEL CURSO REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Comienzo del Curso Presentación del Curso Enfoque y Contexto Objetivos Contenidos Teórico Contenido Práctico

Más detalles

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como

Más detalles

Relación 7 - Redes neuronales

Relación 7 - Redes neuronales Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura

Más detalles

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN

CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada

Más detalles

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018 Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas 4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos: Skynet Reloaded...decided our fate in a microsecond... P. García H. Rajchert I. Scena Sistemas de Inteligencia Artificial

Más detalles

Neural Network Toolbox

Neural Network Toolbox Neural Network Toolbox Sistemas Conexionistas - Curso 07/08 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón

Más detalles

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S. Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1

Más detalles

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza

Más detalles

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar

Más detalles

Redes neuronales en control de sistemas

Redes neuronales en control de sistemas Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz

Más detalles

CAPÍTULO Inteligencia Artificial y Redes Neuronales Artificiales

CAPÍTULO Inteligencia Artificial y Redes Neuronales Artificiales CAPÍTULO 1 INTRODUCCIÓN 1.1 Inteligencia Artificial y Redes Neuronales Artificiales Durante las últimas décadas se han ido desarrollando investigaciones importantes en el área de la inteligencia artificial.

Más detalles

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD

Más detalles

Unidad VII Redes Neuronales

Unidad VII Redes Neuronales Unidad VII Redes Neuronales Maestría en Sistemas Computacionales Clave: MPSCO-0108 6 Créditos Sesiones Sábados 10-13 Rafael Vázquez Pérez Agenda 7.1 Introducción a las Redes Neurales (ANN) 7.2 Tipos de

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al

Más detalles

Perceptrones Fernando Berzal,

Perceptrones Fernando Berzal, Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje

Más detalles

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell

CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales

Más detalles

Detección Multiusuario para DS-CDMA basado en SVM

Detección Multiusuario para DS-CDMA basado en SVM 9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos

Más detalles

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo

Más detalles

Entrenamiento de redes neuronales Fernando Berzal,

Entrenamiento de redes neuronales Fernando Berzal, Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos

Más detalles

CAPITULO 3 PERCEPTRON MULTICAPA.

CAPITULO 3 PERCEPTRON MULTICAPA. Capitulo 3. Perceptrón Multicapa. 14 CAPITULO 3 PERCEPTRON MULTICAPA. En el este capítulo se introducen los conceptos que describen a las redes neuronales como tecnología adaptiva de reconocimiento de

Más detalles

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar

Más detalles

Redes Neuronales Multicapa

Redes Neuronales Multicapa 4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos

Más detalles

Perceptron multicapa. Capítulo Introducción

Perceptron multicapa. Capítulo Introducción Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION

ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION En una RN entrenada, si las salidas calculadas por la red con nuevos ejemplos están próimas a los valores deseados, hay generalización (Haykin,

Más detalles

Clasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales

Clasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales Clasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales Cruz Teresa Rosales Hernández 1 y Orion Fausto Reyes Galaviz 2 Universidad Autónoma de Tlaxcala-

Más detalles

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con 319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos

Más detalles

Métodos de Aprendizaje en Redes Neuronales

Métodos de Aprendizaje en Redes Neuronales 11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y

Más detalles

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en 301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las

Más detalles

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas

Más detalles

Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela

Redes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción

Más detalles

Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales

Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales SRP Carlos Carrascosa Casamayor Vicente J. Julián Inglada Tema 3: Ðreas de La IA: Ejemplos de Investigaci n Actual (II) Redes

Más detalles

CONEXIONES DE ENTRADA (sinapsis): A través de las cuales la Unidad recibe activación desde otras Unidades.

CONEXIONES DE ENTRADA (sinapsis): A través de las cuales la Unidad recibe activación desde otras Unidades. RED NEURAL GENERALIZADA Resumen El amplio desarrollo del hardware de alta performance, así como la generalización de las máquinas de arquitectura paralela han abierto un amplio sendero a una alternativa

Más detalles

Tema 7 Redes Neuronales Recurrentes

Tema 7 Redes Neuronales Recurrentes Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS

Más detalles

CAPITULO 4. ENFOQUE A LA CLASIFICACION DE

CAPITULO 4. ENFOQUE A LA CLASIFICACION DE Capitulo 4. Enfoque a la Clasificación de Patrones. 44 CAPITULO 4. ENFOQUE A LA CLASIFICACION DE PATRONES En este capítulo se presenta la descripción de los distintos algoritmos que permiten a la red,

Más detalles

Perceptrón simple y perceptrón multicapa

Perceptrón simple y perceptrón multicapa UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Introducción a Las redes Neuronales (Neurales) CO-6612

Introducción a Las redes Neuronales (Neurales) CO-6612 a Las redes Neuronales (Neurales) CO-6612 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-112 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia: Simon

Más detalles

PLAN DE ESTUDIOS 2008-II SÍLABO

PLAN DE ESTUDIOS 2008-II SÍLABO UNIVERSIDAD RICARDO PALMA FACULTAD DE INGENIERÍA I. INFORMACIÓN GENERAL: DEPARTAMENTO ACADÉMICO DE INGENIERÍA PLAN DE ESTUDIOS 2008-II SÍLABO 1.1 Asignatura : INTELIGENCIA ARTIFICIAL Y SISTEMAS EXPERTOS

Más detalles

CAPITULO 5 DISEÑO DE UN CLASIFICADOR DE

CAPITULO 5 DISEÑO DE UN CLASIFICADOR DE Capitulo 5. Diseño de un Clasificador de Patrones. 60 CAPITULO 5 DISEÑO DE UN CLASIFICADOR DE PATRONES. En este capítulo se presenta un problema simple de clasificación de patrones, en el cual se pondrán

Más detalles

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética

Más detalles

teóricos: 3/2 prácticos: 1.5/1.5 CURSO: 3º CUATRIMESTRE: 2º CICLO: 1º

teóricos: 3/2 prácticos: 1.5/1.5 CURSO: 3º CUATRIMESTRE: 2º CICLO: 1º FICHA DE ASIGNATURAS DE INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS PARA GUÍA DOCENTE. EXPERIENCIA PILOTO DE CRÉDITOS EUROPEOS. UNIVERSIDADES ANDALUZAS DATOS BÁSICOS DE LA ASIGNATURA NOMBRE: Modelos

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Adaline-Madaline Utilizan un aprendizaje OFF LINE con supervisión denominado LMS (Least Mean Squared) o regla del mínimo error cuadrático medio (Widrow). También denominado Regla Delta. El aprendizaje

Más detalles

DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO

DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN DESCRIPCIÓN DEL DOCUMENTO: Este documento presenta la construcción de un laboratorio virtual básico para el diseño de redes

Más detalles

Tema 5: Introducción a las redes neuronales

Tema 5: Introducción a las redes neuronales Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017

Más detalles

Estudio empírico del desbalance de las clases sobre redes RBF y MLP. R. Alejo, J.M. Sotoca, V. García R.M. Valdovinos. Resumen.

Estudio empírico del desbalance de las clases sobre redes RBF y MLP. R. Alejo, J.M. Sotoca, V. García R.M. Valdovinos. Resumen. Estudio empírico del desbalance de las clases sobre redes RBF y MLP R. Alejo, J.M. Sotoca, V. García R.M. Valdovinos Institute of New Imaging Technologies Grupo Cómputo Aplicado Dept. Lenguajes y Sistemas

Más detalles

Anexo Redes Neuronales

Anexo Redes Neuronales Anexo Redes Neuronales Félix Monasterio-Huelin y Álvaro Gutiérrez 8 de abril de 2016 Índice Índice 1 Índice de figuras 1 1. El entorno del robot 2 2. Neurona y funciones de activación 2 2.1. Vector de

Más detalles

INDICE. Procedimiento 4. Mutación Paramétrica. 8

INDICE. Procedimiento 4. Mutación Paramétrica. 8 INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.

Más detalles

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.

Más detalles

Codificadores Neuronales

Codificadores Neuronales Codificadores Neuronales Pedro Almagro Blanco May 12, 2016 Red Neuronal Artificial Feedforward Multi-capa Hasta ahora hemos hecho uso de las redes neuronales feedforward como máquinas de cálculo, en esta

Más detalles

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado Trabajo final de grado Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales Autor Alfonso Ramón Varela Olmedo Tutores Miguel Ángel Naya Villaverde Emilio Sanjurjo

Más detalles

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Introducción a las Redes Neuronales Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín

Más detalles

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Redes de Neuronas Recurrentes Computación con Inspiración Biológica Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción

Más detalles

PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION

PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION UNIVERSIDAD DE BUENOS AIRES FACULTAD DE INGENIERÍA MAESTRÍA EN SIMULACIÓN NUMÉRICA Y CONTROL TRABAJO PRACTICO 2: PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION Presentada como requisito parcial para

Más detalles

ANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía)

ANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía) ANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía) Gerardo A. Colmenares L. Ph.D. IIES. Núcleo La Liria. Edif. G. Piso 3. Telf.: 2401082 Dirección E- mail: gcolmen@ula.ve, gcolmen@gmail.com

Más detalles

Red Neuronal para el Reconocimiento de Patrones

Red Neuronal para el Reconocimiento de Patrones Conferencia Taller Sistemas Neuro borrosos 26 de abril de 2017 Red Neuronal para el Reconocimiento de Patrones Juan Carlos Alvarado Pérez juan.alvarado@aunar.edu.co Facultad de Ingeniería Programa de ingeniería

Más detalles

CONTROL PREDICTIVO CON REDES NEURONALES COMO MODELO, UTILIZANDO EL METODO DE NEWTON-RAPHSON PARA LOGRAR LA MINIMIZACION DE LA FUNCION DE COSTO

CONTROL PREDICTIVO CON REDES NEURONALES COMO MODELO, UTILIZANDO EL METODO DE NEWTON-RAPHSON PARA LOGRAR LA MINIMIZACION DE LA FUNCION DE COSTO Scientia et Technica Año XV, No 41, Mayo de 2009. Universidad Tecnológica de Pereira. ISSN 0122-1701 203 CONTROL PREDICTIVO CON REDES NEURONALES COMO MODELO, UTILIZANDO EL METODO DE NEWTON-RAPHSON PARA

Más detalles

INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony

INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony Técnicas De La Inteligencia Artificial Programación Heurística Redes Neuronales. Evolución

Más detalles

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA 1. DATOS INFORMATIVOS MATERIA O MODULO: CODIGO: CARRERA: NIVEL: No. CREDITOS 4 CREDITOS TEORIA: 3 CREDITOS PRACTICA: 1 ESCUELA DE SISTEMAS

Más detalles

UNIVERSIDAD CARLOS III MADRID

UNIVERSIDAD CARLOS III MADRID UNIVERSIDAD CARLOS III MADRID PROYECTO FIN DE CARRERA INGENIERÍA INDUSTRIAL Desarrollo de una interfaz gráfica de redes neuronales usando Matlab AUTOR: ALFONSO MORENO RODRÍGUEZ TUTOR: ISABEL GONZÁLEZ FARIAS

Más detalles

Redes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009

Redes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009 Redes neuronales Back Propagation Enrique Calot 4 de octubre de 2009 1 1. Introducción Una red neuronal de tipo back propagation permite aprender mediante un conjunto de ejemplo (entrada-salida) comunmente

Más detalles

CAPÍTULO 3: REDES NEURONALES RECURRENTES

CAPÍTULO 3: REDES NEURONALES RECURRENTES Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,

Más detalles

Apuntes de Inteligencia Artificial

Apuntes de Inteligencia Artificial PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR FACULTAD DE INGENIERÍA Apuntes de Inteligencia Artificial Laboratorio: Perceptrón Simple JORGE AGUILAR JARAMILLO LABORATORIO : NEURONA Y PERCEPTRON SIMPPLE Objetivos.

Más detalles

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales

Más detalles