ADALINE Y PERCEPTRON



Documentos relacionados
Aprendizaje Automatizado. Redes Neuronales Artificiales

CAPÍTULO 4: ALGORITMOS DE APRENDIZAJE

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

Potencial eléctrico. du = - F dl

Estructuras de Repetición Repita Mientras

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

REDES AUTOORGANIZATIVAS II

Mecánica Racional 20 TEMA 3: Método de Trabajo y Energía.

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas

Capítulo 2. Las Redes Neuronales Artificiales

_ Antología de Física I. Unidad II Vectores. Elaboró: Ing. Víctor H. Alcalá-Octaviano

HERRAMIENTAS DE EXCEL PARA EL ANALISIS Y VALORACION DE PROYECTOS DE INVERSION (I)

Clasificación de Música por Genero Utilizando Redes Neuronales Artificiales. Elkin García, Germán Mancera, Jorge Pacheco

Primer Hackathon Reto de IA de Google en la UGR Redes neuronales. El perceptrón. Pedro A. Castillo Valdivieso

CAPITULO 3 REDES HIBRIDAS-COMPLEJAS. 3.1 Descripción de la Red Híbrida Compleja (HCNN)

Procesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid

Unidad III: Programación no lineal

CÁLCULO DIFERENCIAL E INTEGRAL I EVALUACIÓN DE RECUPERACIÓN E0100

Instituto Tecnológico de Massachussets Departamento de Ingeniería Eléctrica e Informática Circuitos electrónicos Otoño 2000

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

MADRID / JUNIO 06 LOGSE / MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES / OPCIÓN A/ EXAMEN COMPLETO

Introducción a Las redes Neuronales (Neurales) CO-6612

Fundamentos del trazado electrocardiográfico

Centro de Capacitación en Informática

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

Álgebra Vectorial. Principios de Mecánica. Licenciatura de Física. Curso

Funciones definidas a trozos

UNIVERSIDAD DE ATACAMA

Inteligencia artificial: todo comienza con una neurona.

INTRODUCCIÓN A VECTORES Y MAGNITUDES

Práctica 10. Redes Neuronales

Ejercicio Nº 3: Realizar aumentos en una Tabla de Sueldos

Inteligencia Artificial. Redes Neurales Artificiales

CAPÍTULO 3. ALGORITMOS DE PREVISIÓN BASADOS EN LA EXTRAPOLACIÓN DE LOS DATOS MÁS RECIENTES

UNIDAD 6. Programación no lineal

Integrales paramétricas e integrales dobles y triples.

BANCOS. Manejo de Bancos. Como crear una ficha de Banco? Como modificar los datos de una ficha de Banco? Como borrar una ficha de Banco?

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

TEMA 3 PROFESOR: M.C. ALEJANDRO GUTIÉRREZ DÍAZ 2 3. PROCESAMIENTO DE CONSULTAS DISTRIBUIDAS

Unidad 3 Direccionamiento IP (Subnetting)

Transistor de Juntura de Efecto de Campo Es unipolar con canal tipo n o tipo p Dopado Gate > dopado canal

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

Resolución de problemas. Temas: VOR e ILS

Optimización, Solemne 2. Semestre Otoño 2012 Profesores: Paul Bosch, Rodrigo López, Fernando Paredes, Pablo Rey Tiempo: 110 min.

Unidad 5 Utilización de Excel para la solución de problemas de programación lineal

SISTEMAS INTELIGENTES

MANUAL DE USUARIOS DEL MODULO DE EVALUACIÓN DE DESEMPEÑO SISTEMA DE ADMINISTRACIÓN DE SERVIDORES PÚBLICOS (SASP)

Capitulo V Administración de memoria

Ejercicios resueltos con acumuladores. Pseudocódigo y diagramas de flujo. Bucle desdesiguiente (for-next). (CU00160A)

164 Ecuaciones diferenciales

Resistencia de Materiales

1. Ecuaciones no lineales

Software para Seguimiento de Clientes. Descripción del Producto

Capítulo 4 Procesos con estructuras de repetición

ARREGLOS DEFINICION GENERAL DE ARREGLO

UNIDAD 4 PROCESOS DE MARKOV

Quién ejerce la fuerza? Quién la recibe?

MANUAL DE USUARIO CONTROL LOGÍSTICO DE TIEMPOS

3. MODELO MACROECONOMICO. 3.1 Oferta y demanda agregada nacional y su efecto en la economía internacional

MÉTODO DEL CAMBIO DE BASE PARA CÁLCULO MANUAL DE SUBREDES CON IP V4.0

Las leyes de Kepler y la ley de la Gravitación Universal

Covarianza y coeficiente de correlación

Métodos generales de generación de variables aleatorias

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

PAU, 2014 (septiembre)

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL

Te damos los elementos básicos de los vectores para que puedas entender las operaciones básicas.

Teclado sobre una PDA para Personas con Parálisis Cerebral

Teoría del Juego - Juegos Combinatoriales Imparciales

UNIDAD 4. Producción: proceso por el cual los insumos se combinan, se transforman y se convierten en productos.

P/. Factura Electrónica D/. Manual de Usuario Proveedores

MATERIAL 2 EXCEL 2007

Métodos Iterativos para Resolver Sistemas Lineales

BREVE MANUAL DE SOLVER

GEOMETRÍA MOLECULAR. Lic. Lidia Iñigo

Órbitas producidas por fuerzas centrales

Cálculo Simbólico también es posible con GeoGebra

1. Hallar los extremos de las funciones siguientes en las regiones especificadas:

x : N Q 1 x(1) = x 1 2 x(2) = x 2 3 x(3) = x 3

Guía 2 Del estudiante Modalidad a distancia. Modulo CÁLCULO UNIVARIADO ADMINISTRACIÓN TURÍSTICA Y HOTELERA II SEMESTRE

Laboratorio Física I

Ejercicios. 5.2 [5] < 5.3> Este ejercicio es similar al 5.1, pero ahora considere los fallos causados por permanecer en 1 (la señal es siempre 1).

Operación de Microsoft Word

Capítulo 5: Pruebas y evaluación del sistema. A continuación se muestran una serie de pruebas propuestas para evaluar varias

PROPORCIONALIDAD - teoría

CAPITULO 4. Inversores para control de velocidad de motores de

PROCEDIMIENTO DE EVALUACIÓN Y ACREDITACIÓN DE LAS COMPETENCIAS PROFESIONALES CUESTIONARIO DE AUTOEVALUACIÓN PARA LAS TRABAJADORAS Y TRABAJADORES

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD OPCIÓN A

Distancia entre vértices en multigrafos de isogenias de curvas elípticas

Tarea 7 Soluciones. Sol. Sea x el porcentaje que no conocemos, entonces tenemos la siguiente. (3500)x = 420. x = = 3 25

APLICACIONES DE LA DERIVADA

Escuela Académico Profesional de Economía Curso. Examen Parcial No. 1 (solucionario) Tema. Varian 2, 3, 4, 5, 6, 8 y 14 Profesor

Tema 2 Primeros Modelos Computacionales

Sistemas Operativos. Clase 14: protección y seguridad.

Región de Murcia Consejería de Educación, Ciencia e Investigación. Manual Usuario FCT

4.7 Igualación de canal (no ciega)

Informática Bioingeniería

Ejercicios de Programación Lineal

Llamamos potencia a todo producto de factores iguales. Por ejemplo: 3 4 =

Novedades incluidas en Discovery 4.50

Transcripción:

Tema 3: Adaline y Perceptron Sistemas Conexionistas 1 ADALINE Y PERCEPTRON 1. Adaline 1.1. Características. 1.. Regla de Aprendizaje (LMS). Regla Delta. 1.3. Aplicaciones. 1.3.1. Clasificación de vectores. 1.3.. Tratamiento de Señales. 1.4. Madaline.. Perceptron.1. Características... Regla de Aprendizaje..3. Problema XOR..4. Diferencias entre la convergencia entre el Adaline y el Perceptron.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas ADALINE (Freeman capt. ) Características Es un tipo de aprendizaje OFF Line. Se enmarca dentro del tipo de aprendizaje por corrección de error. Se utiliza para entrenar un Elemento Simple de Procesado, con una función de transferencia lineal. Se le conoce también con el nombre de Regla de Widrow-Hoff. (Adaline: Adaptive Linear Elemento). Se pueden combinar un cierto nº de PEs en la capa de salida (estructura con un cierto grado de complejidad). La regla se aplica sobre cada uno de los PE de manera individual.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 3 x1 W11 Wp1 1 f y1 W10 f = función lineal W1n 1 p f yp xn Wpn Wp0 1 Es aplicada a estructuras Lineales: y = w + w x j j0 ji i i= 1 n Idea: Modificación de Pesos para tratar de reducir la diferencia entre la salida deseada y la actual (para cada patrón). Se denomina LMS: minimiza el Error Cuadrático Medio sobre todos los patrones de entrenamiento.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 4 Cálculo de Pesos Óptimos Sea el conjunto de entrenamiento: (X,D): patrones de entrada y salidas deseadas. X ---- conjunto de L vectores de dimensión n. D ---- conjunto de L vectores de dimensión m (en este caso m=1). Salida Deseada. Y ---- conjunto de L vectores de dimensión m ( en este caso m=1). Salida Obtenida Se trata de minimizar: Sea Yk la salida obtenida para el patrón k. E = d y El error para el patrón k k k k entonces : L 1 El Error Cuadrático Medio: < Ek >= Ek =< ( dk y > L k) L 1 < E >= =< >= k Ek ( d y L k k) k= 1 k= 1 n y = k wj xj j= 0 ( d wx) d w x x w d x w =< t t k k >=< >+ < t > < t > k k k k k

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 5 Sea: t xx dx E R =< > P =< > ξ =< > k k k k k t t ξ =< > + d k w Rw P w Para hallar el mínimo derivamos con respecto a W y se hace igual a 0: ξ( w) = Rw P w * Rw * w = R 1 P P = 0 Consecuencias: Posee un extremo. El extremo es mínimo

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 6 Ejercicio: Probar que el valor mínimo del error cuadrático medio se puede escribir de la manera siguiente: ξ mínimo d k =< > t * P w Demostración : ξ ξ mínimo t t dk w Rw P w t t * t w P = t * * P w = P w ξ mínimo 1 w R w =< > + * * = P R= P ( ) t t d * * * k w Rw P w =< > + implicando: ξ mínimo d k =< > t * P w

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 7 Cálculo de W*: Método de Gradiente Descendente. Diferentes Métodos: Método: Buscar por todo el espacio de pesos hasta encontrar los que hiciesen el error mínimo. Realizar una búsqueda aleatoria. Realizar una búsqueda Dirigida. Se inicializan los pesos aleatoriamente (pto. de partida). Se determina, la dirección de la pendiente más pronunciada en dirección hacia abajo. Se modifican los pesos para encontrarnos un poco más abajo en la superficie.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 8 Sea W(t) el vector de pesos en el instante t. En t+1: W(t+1)=W(t) + W(t) Dirección opuesta y más pronunciada Dirección opuesta al gradiente de la Superficie ξ(w(t)) Para obtener la magnitud del cambio µ ξ(w(t)) Se realiza la siguiente aproximación:

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 9 ξ t E E E () < > = < > k k k k k Entonces como: ( ) Tenemos: ( t) = ( t) Obteniendo ξ wt ( + 1) = wt ( ) + µ ξ E t = ( d w ( t) x ) k E k k k E x k k k x t k a) µ pequeña. b) µ alta.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 10 Algoritmo: 1- Inicialización de pesos. - Se aplica un patrón de entrada (entradas y salida deseada). 3- Se computa la salida lineal que se optiene de la red. 4- Se calcula el error cometido para dicho patrón. 5- Se actualizan las conexiones mediante la ecuación obtenida anteriormente. 6- Se repiten los pasos del al 5 para todos los patrones de entrenamiento. 7- Si el error cuadrático medio es un valor reducido aceptable, termina el proceso. Sino se vuelve al paso.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 11 Aplicaciones: La principal aplicación de las redes tipo Adaline se encuentra en el campo de procesamiento de señales. Concretamente en el diseño de filtros capaces de eliminar ruido en señales portadoras de información. Otra aplicación es la de los filtros adaptativos: Predecir el valor futuro de una señal a partir de su valor actual.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 1 CONCLUSIONES Una simple capa de PE lineales pueden realizar aproximaciones a funciones lineales o asociación de patrones. Una simple capa de PE lineales puede ser entrenada con algoritmo LMS. Relaciones No Lineales entre entradas y salidas no pueden ser representadas exactamente por redes lineales. Dichas redes harán aproximaciones lineales. Otro tipo de redes abordarán la resolución de problemas no lineales.

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 13 REGLA DEL PERCEPTRÓN (Rosenblatt) (Neural Computing, capt. 3) Supongamos un PE con una función de transferencia del tipo Hardlimiter y en donde las entradas son binarias o bipolares (mismo que Adaline pero con esas restricciones). La regla que rige el cambio de pesos es: Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + Xi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - Xi(t) Si la salida = 1 y debería de ser -1. Sobre la regla anterior se han realizado diferentes modificaciones:

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 14 A) Wi(t+1) = Wi(t) Si la salida es correcta. Wi(t+1) = Wi(t) + µxi(t) Si la salida = -1 y debería de ser 1. Wi(t+1) = Wi(t) - µxi(t) Si la salida = 1 y debería de ser -1. Con µ [0,1], término de control de ganancia y velocidad de aprendizaje. B) Otra de las modificaciones propuestas fue sugerida por Widrow and Hoff. Ellos propusieron una regla basada en la regla Delta. (Es la más utilizada). Los Pesos cambian según la formula: wt ( + 1) = wt ( ) + µ k k E x Tomando las entradas y salidas como bipolares tenemos que el cambio en los pesos se produce de la manera siguiente:

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 15 w w µ z zw w ( t + 1) = i w ( t) en otro caso i z i ( t+ 1) = () t + () t si () t 0 i i i i i = x x i i d + si = + 1 si d i i = 1 Con esta regla de aprendizaje se obtiene una convergencia finita si el conjunto de entrenamiento es linealmente separable. EJEMPLO: XOR

Tema 3: Adaline y Perceptrón Sistemas Conexionistas 16 Solución con Capas: x1 x W1 W f x0 0 y f = Hard-Limiter 0 * W1 + 0 * W = 0 W1,W 1 * W1 + 0 * W = 1 W1 = 1 0 * W1 + 1 * W = 1 W = 1 1 * W1 + 1 * W = 1 No posible. x1 w1= w11=- 1 f w 11=1 w1= 1 f Salida Solución Tres Capas x w=- f w 1=1 f = Hard-Limiter PE sin Tendencia