BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES
|
|
- Santiago Valenzuela Espejo
- hace 5 años
- Vistas:
Transcripción
1 BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES Paul Acquatella B. Universidad Simón Bolívar, Valle de Sartenejas, Caracas, Venezuela. Resumen Este trabajo presenta una breve introducción al entrenamiento de redes neuronales multicapas bajo el algoritmo de Back-Propagation basado en el descenso de gradiente y de la regla delta, junto con su implementación numérica. Se simula una red en el entorno MATLAB, entrenándola para resolver un problema de reconocimiento de caracteres y el conocido problema del XOR. Los resultados obtenidos resultan de gran interés y muestran excelente desempeño. Sio el algoritmo una aproximador de funciones, este puede ser utilizado en muchos problemas donde se requiera la identificación de sistemas, clasificación de patrones, etc. Palabras claves: Redes Neuronales, Perceptrón multicapas, entrenamiento, reconocimiento de patrones, backpropagation, regla delta, descenso de gradiente. I. INTRODUCCIÓN El interés por la investigación en redes multicapas parte de los trabajos de Rosenblatt (1962) sobre Perceptrones y los de Widrow y sus alumnos sobre MADALINES (1962). Sin embargo, como hemos visto, el Perceptrón simple es capaz de resolver problemas de clasificación e implementar funciones lógicas, como por ejemplo, la función OR, pero es incapaz de implementar la función lógica XOR. Sobre estas limitaciones, Minsky y Papert (1969) publicaron un libro titulado Perceptrons que supuso el abandono por parte de muchos científicos de la investigación en redes neuronales, pues no se encontraba un algoritmo de aprizaje capaz de implementar funciones de este tipo [4]. Las limitaciones de las redes de una sola capa hicieron que se plantease la necesidad de implementar redes con más número de capas, es decir, introducir capas ocultas entre la capa de entrada y la capa de salida de manera que se pudiese implementar cualquier función con el grado de precisión deseado. Por ejemplo, con un Perceptrón con dos capas se puede implementar la función lógica XOR, como vimos en el trabajo anterior en la implementación de MADALINES. Al tener estas redes una topología más complicada, también se complicó la forma para encontrar los pesos correctos durante el aprizaje de las mismas, ya que este proceso es el que decide qué características de los patrones de entrada son representadas por la capa oculta de neuronas. En 1986 se abrió un nuevo panorama en el campo de las redes neuronales con el redescubrimiento por parte de Rumerlhard, Hinton y Williams del algoritmo de retro propagación (referido en este artículo como backpropagation). La idea básica de backpropagation fue descubierta por Werbos en su tesis doctoral en El algoritmo de backpropagation es un método eficiente para el entrenamiento de un Perceptrón Multicapa como se prete demostrar con este artículo. Se puede decir que puso fin al pesimismo que había surgido en 1969 con la aparición del libro de Minsky y Papert sobre el campo de las redes neuronales [3]. En la sección II de este artículo se explica brevemente la estructura de la red multicapa y sus conceptos básicos. En la sección III se explican el algoritmo de backpropagation. Finalmente, en la sección IV se realiza una implementación práctica del algoritmo estudiado para un problema de reconocimiento de patrones, y para la discriminación del XOR. II. ESTRUCTURA DE LAS REDES El Perceptrón multicapa es una red de alimentación hacia adelante (feed-forward) compuesta por una capa de unidades de entrada (sensores), otra capa de unidades de salida y un número determinado de capas intermedias de unidades de proceso, también llamadas capas ocultas porque no tienen conexiones con el exterior. Cada sensor de entrada está conectado con las unidades de la segunda capa, y
2 cada unidad de proceso de la segunda capa está conectada con las unidades de la primera capa y con las unidades de la tercera capa, así sucesivamente. Un ejemplo de esta arquitectura es mostrado en la Figura 1. donde el conjunto incluye todas las neuronas en la capa de salida de la red. Denotando como el número total de patrones de aprizaje contenidos en el conjunto de entrenamiento, el error cuadrático medio de energía es obtenido sumando sobre todos los patrones y luego normalizando sobre el conjunto de patrones como sigue: 1 (3) Figura 1. Perceptrón multicapa Con esta red se preter establecer una correspondencia entre un conjunto de entrada y un conjunto de salidas deseadas, de manera que la red pueda ser usada como un aproximador general de cualquier función. El vector patrón de entrada, aumentado por un sesgo fijo, es representado como,,,. Este vector de entrada es ajustado por un vector,,, para formar la respuesta análoga. El peso corresponde al sesgo (bias). La salida obtenida para la primera capa es la entrada de la capa subsiguiente, y así sucesivamente a través de las capas ocultas hasta llegar a la capa de salida. Las respuestas análogas de cada capa son evaluadas a través de una función de activación sigmoidea (como por ejemplo, la tangente hiperbólica) para resultar en una respuesta acotada. III. ALGORITMO BACK-PROPAGATION El error a la salida de la neurona (sio esta una neurona en la capa de salida) en la iteración (es decir, en la presentación del -ésimo patrón) es definido por: (1) Se define el valor instantáneo de energía de error para la neurona como. De igual forma, el valor instantáneo de la energía de error total es obtenido sumando todos los en la capa de salida de la red; estas son las solas neuronas visibles para las cuales se puede calcular el error directamente. Podemos entonces escribir: 1 2 (2) La energía de error instantánea y la energía de error media son función de los parámetros libres (los pesos sinápticos y niveles de sesgo) de la red. Para un conjunto de entrenamiento dado, representa la función de costo como una medida del desempeño del aprizaje. El objetivo del proceso de aprizaje es ajustar los parámetros libres de la red para minimizar. Para lograr esto se usa una aproximación similar a la usada para la derivación del algoritmo de LMS. Específicamente, se considera un método simple de entrenamiento en el cual los pesos son ajustados patrón por patrón hasta que una época (una presentación completa de los patrones de entrenamiento) haya sido completada. Los ajustes de pesos son hechos en concordancia con los errores respectivos calculados para cada patrón presentado a la red. El campo local inducido producido a la entrada de la función de activación de la neurona es por lo tanto: (4) donde es el número total de entradas (sin incluir el sesgo) aplicadas a la neurona. El peso sináptico (correspondiente a la entrada fija 1) equivale al sesgo aplicado a la neurona. Por e, la salida de la función de activación que aparece a la salida de la neurona en la iteración viene dada por: (5) De manera similar al algoritmo LMS, el algoritmo Back-Propagation aplica una corrección al peso sinaptico, que es proporcional a la derivada parcial. De acuerdo a la regla de la cadena, se puede expresar este gradiente como:
3 (6) La derivada parcial representa un factor de sensibilidad, determinando la dirección de búsqueda en el espacio de pesos para los pesos sinápticos. Diferenciando ambos lados de la ecuación (2) con respecto a, se obtiene: (7) Diferenciando ambos lados de la ecuación (1) con respecto a, se obtiene: 1 (8) Ahora, diferenciando la ecuación (5) con respecto a, se obtiene: (9) donde el uso de prima significa diferenciación con respecto al argumento. Finalmente, diferenciando la ecuación (4) con respecto a, se obtiene: (10) Usando las ecuaciones de la (7) a la (10) se obtiene: (11) La corrección aplicada a es definida por la regla delta: (12) donde es el parámetro de aprizaje del algoritmo de backpropagation. El uso del signo negativo en la ecuación (12) representa el descenso de gradiente en el espacio de pesos. En consecuencia, el uso de la ecuación (11) en la (12) resulta en: (13) donde el gradiente local es definido por: (14) De las ecuaciones (13) y (14) se puede notar que un factor clave involucrado en el cálculo del ajuste de pesos es la señal de error a la salida de la neurona. En este contexto podemos identificar dos casos distintos, depio de en donde es localizada la neurona. En el caso 1, la neurona es una salida. Este caso es simple de tratar ya que cada salida de la red es comparada con una salida deseada, obteniéndose fácilmente el error asociado a la salida. En el caso 2, la neurona se encuentra en una capa oculta. Aunque las neuronas de las capas ocultas no son directamente accesibles, ellas comparten responsabilidad del error asociado a la salida de la red. La cuestión es cómo penalizar o compensar las neuronas ocultas por su responsabilidad en el error. Este es el problema de la asignación de créditos, resuelto de forma elegante retro propagando el error por la red. Caso 1 Neurona está en la capa de salida Cuando la neurona es localizada en la capa de salida de la red, esta es comparada con la salida deseada para obtener directamente el error mediante la ecuación (1). Tenio este cálculo realizado, se calcula el gradiente local empleando la ecuación (14). Caso 2 Neurona está en una capa oculta Cuando la neurona es localizada en una capa oculta de la red, no existe una salida deseada para esa neurona. El error de una neurona oculta debe ser obtenido recursivamente en términos de los errores de las neuronas a las cuales está conectada. En este caso, luego de desarrollar el gradiente local en función de estos errores, se obtiene que: (15) Finalmente, a continuación se presenta el algoritmo de Back-Propagation para un conjunto de entrenamiento, dado: 1. Inicialización. Los pesos y las funciones de activación son inicializados.
4 2. Presentación del conjunto de entrenamiento. Se presenta una época completa del conjunto de patrones de entrenamiento a la red. Para cada patrón del conjunto de entrenamiento, ordenados de alguna forma, ejecutar las secuencias de cálculo hacia delante y hacia atrás como descrito en los puntos 3 y 4, respectivamente. 3. Cálculo hacia delante. Sea el patrón de entrenamiento de la época por,, con el vector de entrada aplicado a la capa de entrada de la red y el vector de salidas deseadas presentado al final de la red en la capa de salida. Calcular los campos locales inducidos y salidas de las funciones de activación de la red procedio de la capa de entrada, capa por capa, hasta la capa de salida por toda la red. El campo local inducido para la neurona en la capa es: (16) donde es la salida de la función de activación de la neurona en la capa anterior 1 en la iteración y es el peso sináptico de la neurona en la capa correspondiente a la neurona en la capa 1. Para 0, se tiene que = +1 y es el sesgo aplicado a la neurona en la capa. Asumio el empleo de una función sigmoidea, la salida de la neurona en la capa es: (17) Si la neurona es de la primera capa oculta (es decir, 1): (18) donde es el -ésimo elemento del patrón de entrada. Si la neurona es de la capa de salida (es decir, ): (19) Se calcula el error en la salida: (20) donde es el -ésimo elemento del vector de salida deseada. 4. Cálculo hacia atrás. Calcular los gradientes locales de la red, definidos por: (21) para la neurona en la capa de salida, y (22) para la neurona en la capa oculta, donde el uso de prima significa diferenciación con respecto al argumento. Se ajustan los pesos sinápticos de la red en la capa según la regla delta generalizada: 1 1 (23) 1 donde es el parámetro de aprizaje y es la constante de momento del algoritmo. 5. Iteración. Iterar los cálculos hacia delante y hacia atrás bajo los puntos 3 y 4 presentando nuevas épocas de patrones de entrenamiento a la red hasta que algún criterio de convergencia sea alcanzado. IV. APLICACIÓN Y RESULTADOS DE SIMULACIÓN Para simular el funcionamiento de una red multicapas entrenada mediante el algoritmo Backpropagation se plantean los dos problemas siguientes: A. OR EXCLUSIVO (XOR) Se plantea la resolución del muy conocido problema del XOR, cuya resolución no es posible con un Perceptrón simple. El XOR consiste en un operador lógico con la siguiente descripción para dos entradas binarias: A B A XOR B Figura 2. XOR Desarrollando el algoritmo Back-Propagation bajo el ambiente MATLAB se valida el funcionamiento del entrenamiento para este problema. Se entrena una red con una capa oculta de 3 neuronas. La red consiste entonces en una arquitectura de 2 entradas, 2 neuronas en la capa oculta y 1 salida (red 231). La entrada y salida deseada son presentado como: donde:
5 Es decir, la red entrenada discriminará dos clases bipolares depio de la entrada dada. La salida de la red se considera de una clase u otra depio de si su valor es próximo a +1 o a -1. El algoritmo converge con una tolerancia de error del orden de 110. En las figuras 3 y 4 se muestran las curvas de la convergencia del error de dos corridas para 0,2 y 0,8. En este caso, el algoritmo converge en 47 y 41 épocas con errores cuadráticos medios de y respectivamente. En la figura 5 se puede notar que disminuyo el parámetro de aprizaje y la constante del momento ( 0,1 y 0,1) el algoritmo tarda más tiempo en converger (491 épocas). Figura 5. Convergencia., y, B. RECONOCIMIENTO DE CARACTERES Se plantea un problema de reconocimiento de caracteres con la siguiente descripción: Dado un panel de entrada compuesto por una matriz de 75 puntos, se consideran tres clases diferentes donde se preten clasificar las muestras que se introducen. Los patrones de entrenamiento correspondientes a cada clase son los caracteres de los números 1, 2 y 3 como se muestra en la Figura 5. Figura 3. Convergencia., y, Figura 6. Representación grafica de los patrones de entrenamiento Cuando a la entrada se le presente una muestra diferente a la de los patrones correctos, el sistema presentara a su salida la información decodificada de la clase a la que pertenece la muestra, o la clase a la cual mejor se aproxima. La red neuronal dispone de 35 entradas que corresponden a las posiciones enumeradas en la matriz de la Figura 6. El valor de cada entrada puede ser 1 si la posición es blanca y (1 si la posición es negra. Por otro lado, se dispone de 3 salidas, una por cada clase. Figura 4. Convergencia., y,
6 Figura 7. Posiciones enumeradas de los patrones de entrenamiento El problema puede ser resuelto con menos neuronas en la capa oculta. En la figura 9 se muestra los resultados con 4 neuronas en la capa oculta (sio la estructura de la red 3543), con para 0,2 y 0,8. Es de notar que con la nueva configuración el aprizaje ocurre mucho más rápido, obteniéndose convergencia en 7 épocas con un error cuadrático medio de Con el algoritmo Back-Propagation desarrollado bajo el ambiente MATLAB se valida el funcionamiento del entrenamiento para este problema. Se entrena una red con una capa oculta de 10 neuronas. La red consiste entonces en una arquitectura de 35 entradas, 10 neuronas en la capa oculta y 3 salidas (red 35103). La entrada y salida deseada son presentado como: donde: Es decir, la red entrenada discriminará las tres clases depio de la entrada dada. La salida de la red se considera de una clase u otra depio de si su valor es próximo a +1 o a -1. El algoritmo converge con una tolerancia de error del orden de 110. En la figura 8 se muestra la curva de la convergencia del error para 0,2 y 0,2. En este caso, el algoritmo converge en 85 épocas con un error cuadrático medio de Figura 9. Convergencia., y, De la misma manera, cuando se introduce una muestra con error en un punto, la red clasifica perfectamente dicha muestra en la clase correcta. V. CONCLUSIONES Basado en descenso de gradiente y en la regla delta, el algoritmo de backpropagation fue desarrollado con la motivación de entrenar redes multicapas para la aproximación general de funciones partio del hecho de realimentar el error en la estructura de la red para un mejor ajuste de pesos. Los resultados obtenidos resultan de gran interés y muestran excelente desempeño. Sio el algoritmo una aproximador de funciones, este puede ser utilizado en muchos problemas donde se requiera la identificación de sistemas, clasificación de patrones, etc. VI. REFERENCIAS Figura 8. Convergencia., y, [1] Rosemblatt, F., 1962, Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms, Washington, DC: Spartan. [2] Widrow, B. and Hoff, M. E., Jr. 1960, Adapting switching circuits, in 1960 IRE WESCON Convention Record, Part 4, New York: IRE, pp [3] P. M. Lewis II y C.L. Coates, Threshold Logic. New York: John Wiley and Sons, [4] Daniel Graupe. Principles of artificial neural networks. 2 nd Edition, World Scientific, 2007.
7 [Programa: backpropagation.m] %Algoritmo de Entrenamiento de BACKPROPAGATION para Redes Neuronales %por Paul Acquatella B. %Creado: 27 Enero 2009 function entrenamiento = backpropagation(x,d,l,rate,alfa,dmse) %% 1. Inicialización Y Cálculo de Parámetros %Parámetros del algoritmo mse = Inf; epoch = 1; %Asumio Pesos Iniciales Malos %Se calculan los tamaños respectivos de las matrices [N,P] = size(x); %Numero de Patrones P y Entradas N [Q,Pd] = size(d); %Numero de Patrones P y Salidas Q depth = length(l); %Profundidad de la red - nro capas %Inicializar Matriz de Pesos para cada capa en el rango [-1,1] W = cell(1,depth-1); %Pre-alocacion de la matriz de pesos for m = 1:depth-2 W{1,m} = [-1+2*rand(L(1,m+1),L(1,m)+1)]; W{} = [-1+2*rand(L(),L(-1)+1)]; %Inicializar Matrices de los delta-pesos de ajuste dw = cell(1,depth-1); %Pre-alocacion de los delta pesos for m = 1:depth-1 dw{m} = zeros(size(w{m})); %Inicializar los campos locales inducidos 'v' v = cell(1,depth); %Pre-alocacion de los campos locales for i=1:depth-1; v{i} = [zeros(l(i),1); 1]; v{} = zeros(l(),1); %Inicializar las salidas 'y' de cada capa y = cell(1,depth-1); %Pre-alocacion de las salidas locales for i=1:depth-2; y{i} = zeros(l(i+1),1); y{} = zeros(l(),1); %% 2. Cálculo Forward y Backward para cada epoch while (mse > dmse) && (epoch <= 10000) e = zeros(q,p); err = zeros(1,p); for p = 1:P %Cálculo Forward capa-por-capa para cada patrón p v{1}(1:-1) = X(:,p); for i = 1:depth-1 y{i} = W{i}*v{i}; if i < depth-1 v{i+1}(1:-1) = tansig(y{i}); %Cálculo de la salida else v{i+1} = tansig(y{i}); %Cálculo de la salida %Cálculo de la señal de error e(:,p) = D(:,p)-v{}; %Cálculo de la energía del error if size(d,1) == 1 err(1,p)=0.5*(e(:,p).^2); elseif size(d,1) > 1 err(1,p)=0.5*sum(e(:,p).^2);
8 %Cálculo Backward capa-por-capa para cada patrón p delta = e(:,p).*(tansig('dn',y{})); %Ajuste de pesos for i = depth-1:-1:1 dw{i} = rate * delta * v{i}' + alfa.*dw{i}; W{i} = W{i} + dw{i}; if i > 1 delta = tansig('dn',y{i-1}).*(delta'*w{i}(:,1:-1))'; %Cálculo del mean square error mse = (1/P)*sum(err); epoch = epoch +1; hold on figure(2) semilogx(epoch,mse,'ro') hold off entrenamiento.pesos = W; entrenamiento.epocas = epoch; entrenamiento.estructura = L; entrenamiento.error = mse; [Programa: setupbackpropagation.m] X = [ ; ]; D = [... 0 ];
9 X1 = [ ]; X1 = X1'; D1 = eye(10); X2 = [ ]; X2 = X2'; Instrucciones de uso: se ejecuta el programa setupbackpropagation.m para inicializar la matriz de entradas y la matriz de salidas deseadas, y luego se ejecuta el comando: entrenamiento = backpropagation(x,d,l,rate,alfa,dmse), donde X es la matriz de entrada, D la matriz de salidas deseadas, L el vector de capas ocultas ([N L1 L2 Q]), rate la constante de aprizaje, alfa la constante de momento, y dmse el error deseado de convergencia. Este trabajo forma parte del requisito del curso de Redes Neuronales aplicadas a Control del Prof. Miguel Strefezza de la Universidad Simón Bolívar. Caracas, Marzo de 2009.
TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.
TLU(s) MULTICAPAS Se pueden implementar funciones en TLU con más de una capa 1 05 2 15 2 3 z 3 15 2 4 05 No eisten, en la actualidad, mecanismos de entrenamiento que permita conocer los pesos sinápticos
Más detallesLas Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V
CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga
Más detallesTema: Aprendizaje Supervisado.
Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Introducción a la Robótica Inteligente Álvaro Gutiérrez de abril de 208 aguti@etsit.upm.es www.robolabo.etsit.upm.es Mapas Predicción Robótica M l M r W ij S S 2 S 3 S 4
Más detallesPerceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL
Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente
Más detallesREDES NEURONALES ADAPTABLES
REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables
Más detallesRedes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento
Redes Neuronales Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento de las neuronas biológicas. Se usan principalmente para el reconocimiento de patrones complejos. Para
Más detallesTema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
Más detallesRedes Neuronales Multicapa
Undécima sesión 16 de abril de 2010 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con
Más detallesRedes Neuronales Artificiales
Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente
Más detallesEl Perceptrón Multicapa
El Perceptrón Multicapa N entradas M neuronas de salida L: neuronas en la capa oculta E = 1 p M ( zi ( k) yi ( k) ) k = 1 i= 1 Implementación de la función XOR Regiones de clasificación en función del
Más detallesTécnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation
Más detallesTema 8: Redes Neuronales
Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/
Más detallesInteligencia Artificial (Curso ) Grado en Ingeniería Informática - Ingeniería del Software
Inteligencia Artificial (Curso 0-0) Grado en Ingeniería Informática - Ingeniería del Software Redes neuronales Cuestión : Decir si las siguientes afirmaciones son verdaderas o falsas: Si tomamos la función
Más detallesAprendizaje: Perceptrón multi-capa
Técnicas de inteligencia artificial Asignatura troncal: 4.5cr, 4ºCurso Ing Inf Aprendizaje: Perceptrón multi-capa 2003-2004 F.Escolano, O.Colomina, M.A. Cazorla Perceptrón 1 Indice Regla delta Modelo computacional
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Otra forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesConceptos básicos V:
C261-69 69 Tópicos Avanzados: Redes Neuronales Artificiales Conceptos básicos Dra. Ma. del Pilar Gómez Gil Primavera 2009 pgomez@acm.org V:13-01-09 Modelo Básico y Abstracto de un Neurón Artificial x 0
Más detallesOPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes
OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Tema 6: Redes de Neuronas Recurrentes En este tema se estudian las redes de neuronas recurrentes. Se presentan en primer lugar
Más detallesIntroducción a las Redes Neuronales mediante el paquete neuralnet
Introducción a las Redes Neuronales mediante el paquete neuralnet El paquete neuralnet es un paquete de muy sencilla utilización que permite la aplicación, visulaización e implementación de redes neuronales.
Más detallesInteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5
Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función
Más detallesCAPÍTULO 3. Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias
CAPÍTULO 3 REDES NEURONALES ARTIFICIALES 3.1 Introducción Las redes neuronales artificiales, ANNs por sus siglas en inglés, son el resultado de varias décadas de investigaciones desarrolladas en torno
Más detallesRedes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez
Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías
Más detallesTEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones
Curso RNA Tema 0 TEMA 0 PRESENTACIÓN DEL CURSO REDES NEURONALES ARTIFICIALES Y SUS APLICACIONES Comienzo del Curso Presentación del Curso Enfoque y Contexto Objetivos Contenidos Teórico Contenido Práctico
Más detallesAnálisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Red de función de base radial Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Las funciones de base radial han sido utilizadas en diversas técnicas de reconocimiento de patrones como
Más detallesRelación 7 - Redes neuronales
Sistemas Inteligentes 0-0 Relación - Redes neuronales Problemas Ejercicio. Explicar cómo se usaría una red neuronal para obtener un reconocedor de letras escritas a mano. Describir con precisión qué estructura
Más detallesCAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN
CAPÍTULO 4 IMPLEMENTACIÓN DE LA TRANSFORMADA DE DISTANCIA CON UN PERCEPTRÓN MULTICAPA EN MATLAB 4.1 Matlab Matlab ha demostrado ser un programa de desarrollo muy completo en distintas áreas, más que nada
Más detallesPerceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018
Perceptrón Simple Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA Rosana Matuk Primer Cuatrimestre 2018 Rosana Matuk (DC-FCEyN-UBA) Perceptrón simple Primer Cuatrimestre 2018 1 / 29 Objetivo
Más detallesAprendizaje Automatizado. Redes Neuronales Artificiales
Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano
Más detalles4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas
4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesUso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded
Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos: Skynet Reloaded...decided our fate in a microsecond... P. García H. Rajchert I. Scena Sistemas de Inteligencia Artificial
Más detallesNeural Network Toolbox
Neural Network Toolbox Sistemas Conexionistas - Curso 07/08 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T10: Redes Neuronales.aic.uniovi.es/ssii Índice Redes Neuronales Artificiales Fundamentos biológicos Perceptrón Funciones de activación Redes de neuronas Entrenamiento: Perceptrón
Más detallesRedes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.
Redes Neuronales Elementos básicos de las redes neuronales carlos.andres.delgado@correounivalle.edu.co Carlos Andrés Delgado S. Facultad de Ingeniería. Universidad del Valle Agosto de 2017 Contenido 1
Más detallesÁrea Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales
Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Perceptron Parte I Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín Hernández Espinoza
Más detallesReconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales
Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar
Más detallesRedes neuronales en control de sistemas
Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz
Más detallesCAPÍTULO Inteligencia Artificial y Redes Neuronales Artificiales
CAPÍTULO 1 INTRODUCCIÓN 1.1 Inteligencia Artificial y Redes Neuronales Artificiales Durante las últimas décadas se han ido desarrollando investigaciones importantes en el área de la inteligencia artificial.
Más detallesTUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB
TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD
Más detallesUnidad VII Redes Neuronales
Unidad VII Redes Neuronales Maestría en Sistemas Computacionales Clave: MPSCO-0108 6 Créditos Sesiones Sábados 10-13 Rafael Vázquez Pérez Agenda 7.1 Introducción a las Redes Neurales (ANN) 7.2 Tipos de
Más detallesRedes Neuronales Artificiales
Red de Hopfield Almacenar un conjunto de p patrones de forma tal que cuando se presente un nuevo patrón, la red responda produciendo alguno de los patrones previamente almacenados que más se parezca al
Más detallesPerceptrones Fernando Berzal,
Fernando Berzal, berzal@acm.org Introducción Redes neuronales artificiales Modelos de redes Modelo de neurona artificial Funciones de activación La neurona de McCulloch y Pitts El algoritmo de aprendizaje
Más detallesCI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Back. Cap 20.5 Russel & Norvig Cap 4 Mitchell
CI5438. Inteligencia Artificial II Clase 6: Redes Multicapas - Backpropagation Cap 20.5 Russel & Norvig Cap 4 Mitchell Universidad Simón Boĺıvar 8 de Octubre de 2008 Redes Multicapas de Unidades Sigmoidales
Más detallesDetección Multiusuario para DS-CDMA basado en SVM
9 Otra técnica basada en el aprendizaje y más conocida que la anterior es la basada en. Vamos a realizar una pequeña comparativa teórica de sobre ambas técnicas de clasificación. Estudiaremos los conceptos
Más detallesAnálisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo
Más detallesEntrenamiento de redes neuronales Fernando Berzal,
Entrenamiento de redes neuronales Fernando Berzal, berzal@acm.org Entrenamiento de redes neuronales Modos de entrenamiento Preprocesamiento de los datos Funciones de activación Inicialización de los pesos
Más detallesCAPITULO 3 PERCEPTRON MULTICAPA.
Capitulo 3. Perceptrón Multicapa. 14 CAPITULO 3 PERCEPTRON MULTICAPA. En el este capítulo se introducen los conceptos que describen a las redes neuronales como tecnología adaptiva de reconocimiento de
Más detallesDefinir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales
Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas
Más detallesRedes Neuronales Artificiales
Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar
Más detallesRedes Neuronales Multicapa
4 de abril de 2011 Relación entre capas y conjuntos bajo estudio Estructura Regla de decisión XOR Clases no linealmente separables Regiones generalizadas Una capa Regiones separables con hiperplanos Dos
Más detallesPerceptron multicapa. Capítulo Introducción
Capítulo 3 Perceptron multicapa 3.1. Introducción En este capítulo se estudiará una de las clases de redes de neuronas, conocida como Perceptron multicapa o red multicapa con conexiones hacia adelante.
Más detallesRedes neuronales con funciones de base radial
Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura
Más detallesALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION
ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION En una RN entrenada, si las salidas calculadas por la red con nuevos ejemplos están próimas a los valores deseados, hay generalización (Haykin,
Más detallesClasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales
Clasificación de Datos de Olor de Café provenientes de una Nariz Electrónica Utilizando Redes Neuronales Cruz Teresa Rosales Hernández 1 y Orion Fausto Reyes Galaviz 2 Universidad Autónoma de Tlaxcala-
Más detallesCONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con
319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos
Más detallesMétodos de Aprendizaje en Redes Neuronales
11 de abril de 2011 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y
Más detalles3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en
301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las
Más detallesCONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)
Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas
Más detallesRedes Neuronales Artificiales para predicción en series temporales. Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela
Redes Neuronales Artificiales para predicción en series temporales Alba Martín Lázaro José Miguel Martínez Romera Pablo Morales Mombiela Contenidos 1. Redes Neuronales Artificiales 2. RNA para predicción
Más detallesTema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales
Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales SRP Carlos Carrascosa Casamayor Vicente J. Julián Inglada Tema 3: Ðreas de La IA: Ejemplos de Investigaci n Actual (II) Redes
Más detallesCONEXIONES DE ENTRADA (sinapsis): A través de las cuales la Unidad recibe activación desde otras Unidades.
RED NEURAL GENERALIZADA Resumen El amplio desarrollo del hardware de alta performance, así como la generalización de las máquinas de arquitectura paralela han abierto un amplio sendero a una alternativa
Más detallesTema 7 Redes Neuronales Recurrentes
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS
Más detallesCAPITULO 4. ENFOQUE A LA CLASIFICACION DE
Capitulo 4. Enfoque a la Clasificación de Patrones. 44 CAPITULO 4. ENFOQUE A LA CLASIFICACION DE PATRONES En este capítulo se presenta la descripción de los distintos algoritmos que permiten a la red,
Más detallesPerceptrón simple y perceptrón multicapa
UNL - FICH - Departamento de Informática - Ingeniería Informática Inteligencia Computacional Guía de trabajos prácticos Perceptrón simple y perceptrón multicapa. Objetivos Aplicar diferentes arquitecturas
Más detallesAnálisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,
Más detallesIntroducción a Las redes Neuronales (Neurales) CO-6612
a Las redes Neuronales (Neurales) CO-6612 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-112 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Bibliografia: Simon
Más detallesPLAN DE ESTUDIOS 2008-II SÍLABO
UNIVERSIDAD RICARDO PALMA FACULTAD DE INGENIERÍA I. INFORMACIÓN GENERAL: DEPARTAMENTO ACADÉMICO DE INGENIERÍA PLAN DE ESTUDIOS 2008-II SÍLABO 1.1 Asignatura : INTELIGENCIA ARTIFICIAL Y SISTEMAS EXPERTOS
Más detallesCAPITULO 5 DISEÑO DE UN CLASIFICADOR DE
Capitulo 5. Diseño de un Clasificador de Patrones. 60 CAPITULO 5 DISEÑO DE UN CLASIFICADOR DE PATRONES. En este capítulo se presenta un problema simple de clasificación de patrones, en el cual se pondrán
Más detallesRedes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla
Redes Neuronales Introducción José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla Indice Motivación Arquitectura Leyes de Aprendizae Aplicaciones DILEMA MEMORIA CALCULO Aritmética
Más detallesteóricos: 3/2 prácticos: 1.5/1.5 CURSO: 3º CUATRIMESTRE: 2º CICLO: 1º
FICHA DE ASIGNATURAS DE INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS PARA GUÍA DOCENTE. EXPERIENCIA PILOTO DE CRÉDITOS EUROPEOS. UNIVERSIDADES ANDALUZAS DATOS BÁSICOS DE LA ASIGNATURA NOMBRE: Modelos
Más detallesRedes Neuronales Artificiales
Adaline-Madaline Utilizan un aprendizaje OFF LINE con supervisión denominado LMS (Least Mean Squared) o regla del mínimo error cuadrático medio (Widrow). También denominado Regla Delta. El aprendizaje
Más detallesDISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO
DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN DESCRIPCIÓN DEL DOCUMENTO: Este documento presenta la construcción de un laboratorio virtual básico para el diseño de redes
Más detallesTema 5: Introducción a las redes neuronales
Tema 5: Introducción a las redes neuronales F. J. Martín Mateos, J. L. Ruiz Reina et al. Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla nteligencia Artificial IA 2017
Más detallesEstudio empírico del desbalance de las clases sobre redes RBF y MLP. R. Alejo, J.M. Sotoca, V. García R.M. Valdovinos. Resumen.
Estudio empírico del desbalance de las clases sobre redes RBF y MLP R. Alejo, J.M. Sotoca, V. García R.M. Valdovinos Institute of New Imaging Technologies Grupo Cómputo Aplicado Dept. Lenguajes y Sistemas
Más detallesAnexo Redes Neuronales
Anexo Redes Neuronales Félix Monasterio-Huelin y Álvaro Gutiérrez 8 de abril de 2016 Índice Índice 1 Índice de figuras 1 1. El entorno del robot 2 2. Neurona y funciones de activación 2 2.1. Vector de
Más detallesINDICE. Procedimiento 4. Mutación Paramétrica. 8
INDICE Introducción. 3 Objetivo 4 Procedimiento 4 Algoritmo Principal. 6 Inicialización de la Población 6 Función de Aptitud.. 7 Selección de la Nueva Población. 7 Mutación Estructural 8 Mutación Paramétrica.
Más detallesANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES
ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Perceptrón Simple William Campillay-LLanos williamcampillay@gmail.com https://sites.google.com/site/williamcampillay/home Departamento de Matemática, Física y Estadística.
Más detallesCodificadores Neuronales
Codificadores Neuronales Pedro Almagro Blanco May 12, 2016 Red Neuronal Artificial Feedforward Multi-capa Hasta ahora hemos hecho uso de las redes neuronales feedforward como máquinas de cálculo, en esta
Más detallesLIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado
Trabajo final de grado Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales Autor Alfonso Ramón Varela Olmedo Tutores Miguel Ángel Naya Villaverde Emilio Sanjurjo
Más detallesÁrea Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales
Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales Tema: Introducción a las Redes Neuronales Profesor: Víctor Tomás T. Mariano. Alumnos: Leticia Hernández Hernández Agustín
Más detallesRedes de Neuronas Recurrentes Computación con Inspiración Biológica
Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción
Más detallesPERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION
UNIVERSIDAD DE BUENOS AIRES FACULTAD DE INGENIERÍA MAESTRÍA EN SIMULACIÓN NUMÉRICA Y CONTROL TRABAJO PRACTICO 2: PERCEPTRONES SIMPLE, MULTICAPA Y BACKPROPAGATION Presentada como requisito parcial para
Más detallesANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía)
ANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía) Gerardo A. Colmenares L. Ph.D. IIES. Núcleo La Liria. Edif. G. Piso 3. Telf.: 2401082 Dirección E- mail: gcolmen@ula.ve, gcolmen@gmail.com
Más detallesRed Neuronal para el Reconocimiento de Patrones
Conferencia Taller Sistemas Neuro borrosos 26 de abril de 2017 Red Neuronal para el Reconocimiento de Patrones Juan Carlos Alvarado Pérez juan.alvarado@aunar.edu.co Facultad de Ingeniería Programa de ingeniería
Más detallesCONTROL PREDICTIVO CON REDES NEURONALES COMO MODELO, UTILIZANDO EL METODO DE NEWTON-RAPHSON PARA LOGRAR LA MINIMIZACION DE LA FUNCION DE COSTO
Scientia et Technica Año XV, No 41, Mayo de 2009. Universidad Tecnológica de Pereira. ISSN 0122-1701 203 CONTROL PREDICTIVO CON REDES NEURONALES COMO MODELO, UTILIZANDO EL METODO DE NEWTON-RAPHSON PARA
Más detallesINVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony
INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony Técnicas De La Inteligencia Artificial Programación Heurística Redes Neuronales. Evolución
Más detallesPONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS
PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA 1. DATOS INFORMATIVOS MATERIA O MODULO: CODIGO: CARRERA: NIVEL: No. CREDITOS 4 CREDITOS TEORIA: 3 CREDITOS PRACTICA: 1 ESCUELA DE SISTEMAS
Más detallesUNIVERSIDAD CARLOS III MADRID
UNIVERSIDAD CARLOS III MADRID PROYECTO FIN DE CARRERA INGENIERÍA INDUSTRIAL Desarrollo de una interfaz gráfica de redes neuronales usando Matlab AUTOR: ALFONSO MORENO RODRÍGUEZ TUTOR: ISABEL GONZÁLEZ FARIAS
Más detallesRedes neuronales Back Propagation. Enrique Calot 4 de octubre de 2009
Redes neuronales Back Propagation Enrique Calot 4 de octubre de 2009 1 1. Introducción Una red neuronal de tipo back propagation permite aprender mediante un conjunto de ejemplo (entrada-salida) comunmente
Más detallesCAPÍTULO 3: REDES NEURONALES RECURRENTES
Capítulo 3 Redes Neuronales Recurrentes 15 CAPÍTULO 3: REDES NEURONALES RECURRENTES En este capítulo se describen las principales características y elementos de tres tipos de redes neuronales: feedforward,
Más detallesApuntes de Inteligencia Artificial
PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR FACULTAD DE INGENIERÍA Apuntes de Inteligencia Artificial Laboratorio: Perceptrón Simple JORGE AGUILAR JARAMILLO LABORATORIO : NEURONA Y PERCEPTRON SIMPPLE Objetivos.
Más detallesCapítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA
III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA 32 III. REDES NEURONALES ARTIFICIALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III.1 CONCEPTOS GENERALES En sus orígenes las Redes Neuronales
Más detalles