Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO V

Documentos relacionados
APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3)

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

Redes Neuronales. Elementos básicos de las redes neuronales Carlos Andrés Delgado S.

Redes Neuronales Multicapa

El Perceptrón Multicapa

Tema: Aprendizaje Supervisado.

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Redes Neuronales Artificiales

Redes Neuronales Artificiales

Tema 8: Redes Neuronales

Aprendizaje Automatizado. Redes Neuronales Artificiales

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

Tema 2 Primeros Modelos Computacionales

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

Redes Neuronales Artificiales

Redes Neuronales Artificiales

Tema 6. Reconocimiento de voz

Redes de Neuronas de Base Radial

Redes Neuronales. Las redes neuronales son modelos computacionales que buscan imitar el funcionamiento

REDES NEURONALES ADAPTABLES

Análisis de Datos. Red de función de base radial. Profesor: Dr. Wilfrido Gómez Flores

Area Académica: ICBI, Sistemas Computacionales. Tema: Aprendizaje No Supervisado (Aprendizaje Asociativo)

SISTEMAS INTELIGENTES

Introducción a Las redes Neuronales (Neurales) CO-6612

Redes Neuronales Artificiales

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Apuntes de Sistemas Conexionistas - Penedo

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Redes Neuronales. Introducción. José Manuel Quero Reboul Dpto. Ingeniería Electrónica Universidad de Sevilla

Aprendizaje no supervisado

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Aprendizaje Automatizado. Redes Neuronales Artificiales

Tema 7 Redes Neuronales Recurrentes

Métodos de Aprendizaje en Redes Neuronales

BACK-PROPAGATION: UN ALGORITMO DE ENTRENAMIENTO PARA REDES NEURONALES

Redes Neuronales Multicapa

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

ANEXO B REDES NEURONALES ARTIFICIALES BASADAS EN ART

Aprendizaje: Perceptrón multi-capa

Entrenamiento de redes neuronales Fernando Berzal,

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Tema 6: Redes de Neuronas Recurrentes

REDES NEURONALES INTELIGENCIA ARTIFICIAL II

Introducción a las Redes Neuronales Articiales

ADALINE Y PERCEPTRON

Uso de una red neuronal multicapa para el reconocimiento de caracteres griegos. Skynet Reloaded

Introducción a las Redes de Neuronas

Perceptrón simple y perceptrón multicapa

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

CAPÍTULO 2 MARCO TEÓRICO

Neural Network Toolbox

Codificadores Neuronales

Redes neuronales en control de sistemas

Aprendizaje no supervisado: Mapas Auto-organizados SOM - Inspiración y objetivos - Aprendizaje - Ejemplo y aplicaciones

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Historia de las Redes Neuronales

Simulación a Eventos Discretos. Clase 8: Análisis de resultados

Introducción a las Redes de Neuronas

ALGUNOS COMENTARIOS SOBRE GENERALIZACION EN BACKPROPAGATION

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.

Detección Multiusuario para DS-CDMA basado en SVM

Ingeniería en Sistemas Computacionales. Inteligencia Artificial. Ing. Bruno López Takeyas. Unidad I Tema 2 Redes Neuronales

Perceptrón Simple. Aspectos Prácticos y Algoritmos Redes Neuronales, DC-FCEyN-UBA. Rosana Matuk Primer Cuatrimestre 2018

REDES NEURONALES ARTIFICIALES EN PREDICCIÓN DE SERIES DE TIEMPO: UNA APLICACIÓN A LA INDUSTRIA

Redes Neuronales Artificiales

CAPÍTULO 3: REDES NEURONALES RECURRENTES

REDES NEURONALES NO SUPERVISADAS

Redes Neuronales Artificiales. MTI. Eduardo Cruz Romero

Red Neuronal Artificial

Perceptron multicapa. Capítulo Introducción

IMPLEMENTACIÓN DE UN SISTEMA INFORMÁTICO PARA LA VALORACIÓN DE FINCAS RÚSTICAS BASADO EN LA TECNOLOGÍA DE LAS REDES NEURONALES.

Perceptrones Fernando Berzal,

REDES NEURONALES. IAM01 o IAMO2. INGENIERÍA Programa(s) DES: Ingeniería Educativo(s): Matemática Tipo de materia:

Guía docente 2007/2008

ANÁLISIS MULTIVARIANTE Y APLICACIONES (Postgrado en Economía)

CAPITULO 3 PERCEPTRON MULTICAPA.

Redes Neuronales Recurrentes

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

Secretaría de Docencia Dirección de Estudios Profesionales

4 Teoría de clasificadores

Métodos de modelado y clasificación de patrones. clasificación de patrones

2.4.1 Antecedentes. Las redes con aprendizaje no supervisado (también

ÍNDICE. Prefacio... xi

Inteligencia de Negocios

OBJETIVO INTRODUCCIÓN

MODELIZACIÓN DE LA VOLATILIDAD CONDICIONAL EN ÍNDICES BURSÁTILES COMPARATIVA MODELO EGARCH VERSUS RED NEURONAL BACKPROPAGATION

EL PERCEPTRON MULTICAPA (MLP) 6

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

Lingüística computacional

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado

Scientia Et Technica ISSN: Universidad Tecnológica de Pereira Colombia

Práctica 5: Clasificación con número variable de ejemplos.

Transcripción:

CAPÍTULO V V. ALGORITMOS NEURONALES Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga de las redes neuronales se denominan pesos sinápticos. El entrenamiento se realiza mediante patrones-ejemplo, siendo dos los tipos de aprendizaje: supervisado y no supervisado. V.. El aprendizaje supervisado Si la red utiliza un tipo de aprendizaje supervisado debemos proporcionarle parejas de patrones entrada-salida y la red neuronal aprende a asociarlos. En terminología estadística equivale a los modelos en los que hay vectores de variables independientes y dependientes: técnicas de regresión, análisis discriminante, modelos de series temporales, etc. En este tipo de aprendizaje se suelen considerar tres formas: Aprendizaje por corrección de error, Aprendizaje por refuerzo y aprendizaje estocástico. a.) Aprendizaje por corrección de error. Consiste en ajustar los pesos de las conexiones de la red en función de la diferencia entre los valores deseados y los obtenidos en la salida; es decir, en función del error cometido. Una regla o algoritmo simple de aprendizaje por error podría ser como la siguiente: wji = α yi (dj yj)

.. i y y i W ji W jn W j. Unidad U j y j n Donde: wji : Variación en el peso de la conexión entre las neuronas i y j ( w ji = w ji actual w ji anterior ) y i : Valor de salida de la neurona i. d j : Valor de salida deseado para la neurona j. yj : Valor de salida obtenido de la neurona j. α : aprendizaje. Factor de aprendizaje (0 < α <= ) que regula la velocidad del Un ejemplo de este tipo de algoritmo es la regla de aprendizaje del Perceptron, utilizada en el entrenamiento de la red de dicho nombre, desarrollada por Rosenblatt en 958. Éste presenta algunas limitaciones, como no considerar la magnitud del error global cometido durante todo el proceso de aprendizaje, sino que considera solamente los errores locales de cada información por separado. Otro algoritmo de este tipo, pero que mejora el del Perceptron y permite un aprendizaje más rápido y un campo de aplicación más amplio es el

denominado regla delta o regla del error mínimo cuadrado (Widrow y Hoff, 960). Se aplica en las redes ADALINE, con una sola neurona de salida, y MADALINE, con varias neuronas de salida. Este error medio se expresa de la siguiente manera: Error global P N ( k) ( k ) j j = P k = j= ( y d ) Donde: N: Número de neuronas de salida P: Número de informaciones que debe aprender la red N k k ( j yj d j= ésima ) : Error cometido en el aprendizaje de la información k- Por lo tanto, se trata de encontrar unos pesos para las conexiones de la red que minimicen esta función de error. Para ello, el ajuste de los pesos de las conexiones de la red se puede hacer de forma proporcional a la variación relativa del error que se obtiene al variar el peso correspondiente: w ji Error = k wji global Mediante este procedimiento, se llega a obtener un conjunto de pesos con los que se consigue minimizar el error medio. Otro algoritmo de aprendizaje por corrección de error, propuesto en 986, lo constituye el denominado regla delta generalizada o algoritmo de retropropagación del error (error backpropagation), conocido también como regla LMS(Least-Mean-Square Error) multicapa. Se trata de una generalización de la regla delta para poder aplicarla a redes con conexiones hacia delante (feedforward) con capas o niveles ocultos de

neuronas que no tienen relación con el exterior. Son redes con capa de entrada, capas ocultas y capa de salida. Estas redes multicapa pueden utilizarse en muchas más aplicaciones que las ya mencionadas Perceptrón, ADALINE y MADALINE, pero su proceso de aprendizaje es mucho más lento debido a que durante el mismo se tiene que explorar el espacio de posibles formas de utilización de las neuronas de las capas ocultas; es decir, se debe establecer cuál va a ser su papel en el funcionamiento de la red. a.) Aprendizaje por refuerzo. Es un aprendizaje supervisado más lento que el anterior, que se basa en no disponer de un ejemplo completo del comportamiento deseado; es decir, no indicar exactamente la salida que se desea que proporcione la red ante una determinada entrada. En este aprendizaje la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida obtenida se ajusta a la deseada (éxito = + ó fracaso = -), y en función de ello se ajustan los pesos. a.3) Aprendizaje estocástico. Este tipo de aprendizaje consiste básicamente en realizar cambios aleatorios a los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad. V.. El aprendizaje no supervisado o autoorganizado Si el entrenamiento es no supervisado, únicamente debemos suministrar a la red los datos de entrada para que extraiga los rasgos característicos esenciales. En

terminología estadística equivale a los modelos en los que sólo hay vectores de variables independientes y buscan el agrupamiento de los patrones de entrada: análisis de conglomerados o cluster, escalas multidimensionales, etc. Estas redes deben encontrar las características, regularidades, correlaciones o categorías que se pueden establecer entre los datos de entrada. Puesto que no hay un supervisor que indique a la red la respuesta que debe generar una entrada concreta, cabría preguntarse precisamente por lo que la red genera en estos casos. Existen varias posibilidades en cuanto a la interpretación de las salidas, que dependen de su estructura y del algoritmo de aprendizaje empleado. En algunos casos, la salida representa el grado de familiaridad o similitud entre las entradas y las informaciones que se le han mostrado hasta entonces (en el pasado). En otro caso podría realizar una clusterización o establecimiento de categorías, indicando a la salida a qué categoría pertenece la información presentada en la entrada, siendo la propia red quien debe encontrar las categorías apropiadas a partir de correlaciones entre las informaciones presentadas. Finalmente, algunas redes con aprendizaje no supervisado realizan un mapeo de características (feature mapping), obteniéndose en las neuronas de salida una disposición geométrica que representa un mapa topográfico de las características de los datos de entrada, de tal forma que si se presentan a la red informaciones similares, siempre sean afectadas neuronas de salida próximas entre sí, en la misma zona del mapa.