Asignatura: MODELOS COMPUTACIONALES. Horario Clases: Martes y Jueves 17:30-19:30 Aula: 3.05

Documentos relacionados
Tema 3: Ðreas de la IA: Ejemplos de Investigaci n Actual (III) Redes Neuronales

Redes Neuronales. Introducción a las redes neuronales Carlos Andrés Delgado S.

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales

Área Académica: Instituto de Ciencias Básicas e Ingeniería, Sistemas Computacionales. Tema: Introducción a las Redes Neuronales

REDES NEURONALES. Una esquema simplificado de una neurona se muestra en la siguiente figura. Cuerpo celular. Dendrita. Axón.

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS

Redes neuronales en control de sistemas

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

REDES NEURONALES ADAPTABLES

MODELOS DE COMPUTACION II

Redes Neuronales Artificiales

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Introducción a las Redes de Neuronas

Carrera : Academia de Sistemas y Computación. a) RELACIÓN CON OTRAS ASIGNATURAS DEL PLAN DE ESTUDIOS ASIGNATURAS TEMAS ASIGNATURAS TEMAS

Redes Neuronales. Parte I. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Introducción a las Redes Neuronales

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Dra. Ma. del Pilar Gómez Gil Primavera 2013

Secretaría de Docencia Dirección de Estudios Profesionales

Redes Neuronales Artificiales

Lección 6 Redes Neuronales Artificiales Curso Básico

Redes Neuronales Artificiales

Pontificia Universidad Católica del Ecuador

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

INVESTIGACIÓN OPERATIVA Redes Neuronales Artificiales y Aplicaciones INTEGRANTES: Armijos Mauricio Jara Iza Rony

Tópicos Avanzados: Inteligencia Computacional I

Tema 8: Redes Neuronales

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Neurona. Células y Fibras nerviosas Célula Nerviosa. Sensoriales, motoras y de asociación Nucleo Actividades metabólicas Conexiones sinápticas

Redes Neuronales Artificiales. MTI. Eduardo Cruz Romero

Redes Neuronales Artificiales

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Tema 2: Un poco de Historia

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE INTRODUCCIÓN Y TEORÍA DE LA COMPUTACIÓN

Nombre de la Unidad de Aprendizaje. Seminario de solución de problemas de Inteligencia Artificial II

CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍAS DIVISIÓN DE ELECTRÓNICA Y COMPUTACIÓN

GUÍA DOCENTE. Ingeniería Informática en Sistemas de Información Doble Grado:

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

LIM. Modelización del conjunto motor-transmisión de un automóvil a partir de datos experimentales. Trabajo final de grado

Intensificación en "Lenguajes e Inteligencia Artificial"

Capítulo 3 REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA III. REDES NEURONALES Y SU APLICACIÓN EN LA INGENIERÍA SÍSMICA

GUÍA DOCENTE Computación Neuronal y Evolutiva. Grado en Ingeniería Informática

UC I. Rest. Ciclo Tipo UCR

Redes Neuronales Artificiales

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción y teoría de la computación

GRADO EN INGENIERIA INFORMATICA

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Introducción a las Redes Neuronales Articiales

Tema 7 Redes Neuronales Recurrentes

Plan 95 Adecuado. DEPARTAMENTO: ELECTRÓNICA CLASE: Electiva de Especialidad. ÁREA: SISTEMAS DE CONTROL HORAS SEM.: 4 HS.

GUÍA DE APRENDIZAJE PROGRAMACION ORIENTADA A OBJETOS

Red Neuronal para el Reconocimiento de Patrones

PROYECTO DOCENTE ASIGNATURA: "Inteligencia Artificial"

EL MODELO NEURONAL DE McCULLOCH Y PITTS Interpretación Comparativa del Modelo

PROYECTO DOCENTE ASIGNATURA: "Inteligencia Artificial"

Inteligencia Artificial

Introducción a la Inteligencia Artificial

DLAI - Aprendizaje Profundo para Inteligencia Artificial

UNIDAD I.- INTRODUCCIÓN

Ingeniería del Software II

PROGRAMA INSTRUCCIONAL INTELIGENCIA ARTIFICIAL

SÍLABO INTELIGENCIA ARTIFICIAL Y ROBÓTICA ÁREA CURRICULAR: CIENCIAS DE LA COMPUTACIÓN CICLO: VII SEMESTRE ACADÉMICO: 2018-I : : 04

UNIVERSIDAD TECNOLOGICA DE LOS ANDES VICE RECTORADO ACADEMICO FACULTAD DE INGENIERÍA ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS E INFORMÁTICA

Planificaciones Inteligencia Artificial. Docente responsable: CABRERA JOSE LUIS. 1 de 5

Sistemas Control Embebidos e Instrumentación Electrónica UNIVERSIDAD EAFIT Semestre 2010/2 2009/2

ING. EN SISTEMAS COMPUTACIONES TEMA A EXPONER: REDES NEURONALES

COMPUTACION INTELIGENTE (PRIMERA PARTE: INTRODUCCION)

Asignaturas antecedentes y subsecuentes

FACULTAD DE INGENIERÍA

Sistemas Expertos e Inteligencia Artificial

Análisis Espacial aplicando Técnicas de Inteligencia Artificial

SÍLABO INTELIGENCIA ARTIFICIAL Y ROBÓTICA ÁREA CURRICULAR: CIENCIAS DE LA COMPUTACIÓN SEMESTRE ACADÉMICO: 2017-II : : 04.

Escuela Técnica Superior de Ingeniería Civil e Industrial. Máster en Técnicas en Investigación, Desarrollo e Innovación en Ciencias e Ingeniería

INGENIERÍA EN COMPUTACIÓN. INGENIERÍA EN COMPUTACIÓN División Departamento Licenciatura

Ingeniería Informática

Prof. Marvin Minsky. Con la colaboración de With the collaboration of

Horas teoría-horas prácticas-horas trabajo adicional-horas totales-créditos: Edgar O. Reséndiz Flores

FUNDAMENTOS DE PROGRAMACIÓN II

GUÍA DOCENTE Computación Neuronal y Evolutiva. Grado en Ingeniería Informática

INTELIGENCIA ARTIFICIAL I

ANX-PR/CL/ GUÍA DE APRENDIZAJE

GUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES

Redes neuronales artificiales

Grado en Ingeniería Informática Curso Convocatoria de Julio

Diseño de In eño de In erf aces erf Hombre Hombr -Máquina Máqu

Especialidades en GII-TI

Inteligencia Artificial. Redes Neurales Artificiales

Esta ciencia resuelve problemas relacionados

Programa Regular. Asignatura: Lenguajes Formales y Autómatas. Carrera: Ingeniería en Informática. Ciclo Lectivo: Segundo Cuatrimestre 2017

Definición de IA. Ana Lila Laureano-Cruces Universidad Autónoma Metropolitana - Azacapotzalco

Pabellón 1 - Lunes - 1º Cuatrimestre Lunes - Pabellón 1 Asignatura Concepto Turno Día Pab. Aula Desde Hasta Cálculo Numérico Práctico Turno 2

PROGRAMA. Álgebra Lineal E.T.S. Ingeniería Industrial. Curso

1. IDENTIFICACIÓN DEL PROGRAMA DESARROLLADO POR UNIDADES DE APRENDIZAJE

Módulo Común Optativo Inteligencia Artificial aplicada 1º 2º 3 Optativa. DIRECCIÓN COMPLETA de CONTACTO para TUTORÍAS. HORARIO de TUTORÍAS

SONIDO E IMAGEN. Programación I y II. Curso 1 o Grupo A Aula UNIVERSIDAD DE MÁLAGA Dpto. Lenguajes y CC. Computación E.T.S.I.

REDES NEURONALES ARTIFICIALES APLICADAS AL DISEÑO EN INGENIERÍA

Guía Docente FACULTAD ESCUELA POLITÉCNICA SUPERIOR

Transcripción:

Asignatura: MODELOS COMPUTACIONALES Ingeniería a técnica t en informática de gestión Horario Clases: Martes y Jueves 17:30-19:30 Aula: 3.05 Profesor: Leonardo Franco Despacho 3.2.29 Email: lfranco@lcc.uma.es Web: http://www.lcc.uma.es/~lfranco Horario tutorías : Lunes: 10:30-13:30 hs. Miércoles: 17:00-19:30 hs. Por favor, avisar por correo eléctrónico la asistencia a tutorías para confirmar horario

OBJETIVOS Conocer y comprender los fundamentos y las características de los modelos de computación basados en redes neuronales artificiales Redes neuronales como paradigma de computación paralela distribuida, donde se sustituye la programación por el aprendizaje. Aprender a modelar y resolver, mediante redes de neuronas artificiales: problemas clásicos de optimización, control, clasificación y diagnóstico, reconocimiento de caracteres, restauración de imágenes, compresión de datos, aproximación de funciones y predicción.

PROGRAMA - Introducción a los modelos computacionales y a la neurocomputación. - Redes recurrentes: Red de Hopfield - Perceptrón simple - Perceptrones multicapas y problemas de clasificación - Redes autoorganizadas de Kohonen - Redes estocásticas: Máquina de Boltzmann. Redes de Elman

Bibliografía Artículos, apuntes, presentaciones de clase http://www.lcc.uma.es/~lfranco Apuntes del catedrático José Muñoz http://www.lcc.uma.es/~munozp Campus virtual (En breve). Hertz, J.A., Krogh, & Palmer, Introduction to the theory of neural computation, Addison-Wesley, 1991 Haykin, S. Neural Networks, Mcmillan, 1994. Rojas, R. Neural Networks, A Systematic Introduction". Ed.: Sprinter Verlag. 1996. Freeman, J.A., Skapura, D.M. Redes Neuronales, Algoritmos, Addison- Wesley, 1993 Martín Del Brío, B., Sanz Molina, A. Redes Neuronales y sistemas borrosos,

Metodología docente Clases teóricas en pizarra, complementadas con presentaciones con proyector de transparencias. Clases prácticas en laboratorio usando lenguaje de programación MATLAB para la Resolución de problemas. En Marzo empezaremos con el laboratorio (ya se les avisará el aula y el día de comienzo): 1 Clase a la semana de teoría 1 Clase en laboratorio

EVALUACIÓN La asignatura pertenece al plan piloto de adaptación al espacio europeo de educación superior ( EEES ). Evaluación continua Asistencia: 10% Evaluada en todas las clases prácticas y en algunas clases teóricas. Realización de trabajos propuestos y participación activa: 15% 4 Ejercicios de control al final de los temas principales: 20% Examen Final 55% (Es necesario aprobarlo)

4 Controles 1. Introducción a los modelos computacionales y a la neurocomputación. Redes recurrentes: Red de Hopfield. 2. Redes neuronales basadas en la decisión. 3. Redes multicapas para aproximación de funciones. 4. Sistemas autoorganizados: Redes de Kohonen. Examen Final: Dado un problema, qué método puedo aplicar?

Competencias más importantes que trata de fomentar esta asignatura -- Resolución de problemas usando modelos de redes neuronales -- Creatividad -- Razonamiento crítico -- Aprendizaje autónomo

Qué es una Red Neuronal? Sistema de procesamiento masivo de información compuesto de unidades de proceso simples, llamadas neuronas, que se utiliza para almacenar conocimiento a través de un proceso de aprendizaje. Está basado en la idea de cómo funciona el cerebro en los siguientes dos sentidos: 1. El conocimiento de la red es adquirido a través de un proceso de aprendizaje. 2. El conocimiento se almacena en las conexiones entre las neuronas, llamadas pesos sinápticos.

La corteza cerebral Funciones mentales elevadas: lenguaje, reconocimiento visual, creatividad. Muy eficiente energéticamente en comparación con ordenadores tradicionales Sistema conocido más complejo, conteniendo billones de neuronas y trillones de sinapsis. Modelado a través de millones de años de evolución. Aprendizaje

Differentes escalas en el sistema nervioso (Churchland & Sejnowksi (1992), Trappenberg, 2002).

Doctrina de la neurona Santiago Ramón y Cajal (Premio Nobel de Medicina y Neurofisiología, 1906)

esde el punto de vista anátomo-fisiológico, el kilo y 00 gramos de material orgánico que compone nuestro rebro está dispuesto en una red, formada por unos 100 illones de células especializadas, llamadas neuronas. a teoría de la neurona postula que estas células están paradas unas de otras, son independientes, pero capaces e comunicarse entre ellas. Santiago Ramón y Cajal (1852-1934) (PremioNobel 1906)

Relación Cerebro Red neuronal artificial El cerebro se puede contemplar como un ordenador complejo, no lineal y paralelo que procesa gran cantidad de información. Su capacidad de organizar las neuronas para realizar ciertas computaciones, como el reconocimiento de objetos, en menos de 0.2 segundos, supone una rapidez de cálculo muy superior al ordenador actual más potente. El cerebro es una red neuronal muy compleja: 10 ^ 12 Neuronas (1 billón) 10 ^16 Sinapsis (10.000 sinapsis por neurona)

Redes neuronales artificiales Modelos simplificados que emulan el funcionamiento del cerebro Las redes de neuronas artificiales son modelos computacionales paralelos que constan de unidades de proceso (neuronas) adaptativas y masivamente interconectadas. Son, por tanto, procesadores distribuidos masivamente en paralelo para almacenar conocimiento experimental y hacerlo disponible para su uso.

2.2 Qué es una Red Neuronal? Características importantes de las RNAs: -- Aprender a través de ejemplos -- No linealidad función de activación capacidad de cómputo -- Adaptabilidad: Modifican sus pesos sinápticos para adaptarse a los cambios del entorno. -- Tolerancia a fallos: Por una parte, si una neurona o un enlace de la red neuronal son dañados, la respuesta de la red probablemente no quedará afectada. Una persona nace con unos 100 billones de neuronas y a partir de los cuarenta años, o antes, se pierden más de 40.000 neuronas diarias, que no son reemplazadas y, sin embargo, continuamos aprendiendo.

Cerebro vs. Ordenadores Procesamiento de la información Memoria Adaptarse a nuevas tareas Evolucionan Necesitan energía Pueden dañarse

Cerebro Simplificación Motivación Diferencias y similitudes Ordenadores Redes neuronales

Tanto las redes neuronales como las máquinas de von Neumann son Modelos de computación Máquinas de Turing universales

RNA Ordenadores Muchos procesadores Computación distribuida Aprendizaje Problemas que no conocemos una solución algorítmica exacta 1 CPU Computación en se Programación Cálculo matemáti algoritmos

Estudiaremos los problemas que pueden resolverse usando el modelo computacional distribuido de redes neuronales. El cerebro es mucho más complejo y podríamos estudiar su modelado usando redes neuronales pero nos centraremos en problemas que podemos resolver usando computación distribuida.

Para qué problemas son útiles las redes neuro Problemas en los que desconocemos la dinámica interna pero tenemos datos para entrenar el modelo. Reconocimiento de patron Diagnóstico médico Predicción de bolsa Fraude con tarjetas de cré Problemas de optimización Los ordenadores tradicionales son muy efectivos en problemas en los cuales conocemos el algoritmo.

Sistema inteligente de Diagnóstico médico Inteligencia artificial tradicional Redes Neuronales Reglas que codifiquen todo el conocimiento de un médico Entrenar con un conjunto de casos de pacientes Modificación de pesos sinápticos Incorporamos las reglas Las reglas surgen de acuerdo a los ejemplos

Reseña histórica de la Neurocomputación Los comienzos (década de los cuarenta) Trabajo de Warren McCulloch y Walter Pitts publicado en 1943 bajo el título: "A logical calculus of the ideas immanent in nervous activity" En este trabajo se muestra que incluso las formas más simples de redes neuronales pueden computar, en principio, funciones aritméticas y lógicas. MODELO DE NEURONA SIMPLE : suma de entradas con umbral En 1949, Donald Hebb, psicólogo canadiense: "The Organization of Behavior" donde se propone la primera ley de aprendizaje para las redes de neuronas artificiales, conocida como REGLA de HEBB.

Reseña histórica de la Neurocomputación La primera edad de oro ( Décadas de los cincuenta y sesenta) En 1962, Frank Rosenblatt introdujo y desarrolló una amplia gama de redes neuronales artificiales llamadas perceptrones que en principio crearon bastante entusiasmo. La regla de aprendizaje del perceptrón utiliza un ajuste iterativo de pesos cuando la respuesta de la unidad es incorrecta, que es más potente que la regla de Hebb. Ya en 1960, Bernard Widrow y su alumno Marcian Hoff desarrollaron una regla de aprendizaje que es muy parecida a la regla de aprendizaje del perceptrón y que es la precursora de la regla de retropropagación para redes multicapa.

En 1969, Marvin Minsky y Seymour Papert, en su libro titulado "Perceptrons", mostraron las limitaciones del perceptrón (con una sola capa) para aprender funciones de índole general. Las conclusiones de este libro frenaron la investigación en redes neuronales debido a la falta de financiación a proyectos basados en estos modelos.

Breve reseña histórica de la Neurocomputación Los años tranquilos (década de los setenta) Los trabajos tempranos de Teuvo Kohonen (1972) de la Universidad de Tecnología de Helsinki desarrollaron las redes neuronales de memoria asociativa. Así mismo, James Anderson (1968, 1972), de la Universidad de Brown, comenzó su investigación en las redes de memoria asociativa. Hay que destacar también, los trabajos de Stephen Grossberg (director del Center for Adaptative Systems de la Universidad de Boston ) y sus muchos colaboradores, como Gail Carpenter, con quien desarrolló una teoría de redes neuronales autoorganizadas, llamada teoría de resonancia adaptativa (l985, 1987 y 1990).

El Modelo de Hopfield MEMORIA ASOCIATIVA John Hopfield

Red de Hopfield Red neuronal totalmente conectada auto-asociativa Permite almacenar información y Recuperarla cuando se presenta sólo Una parte de la información guardada

Breve reseña histórica de la Neurocomputación La publicación en 1986 de los dos volúmenes titulados: "Parallel Distributed Processing" editados por los psicólogos David Rumelhart de la Universidad de California (en San Diego) y James McClelland de la Universidad de Carnegie-Mellon, produjo una gran explosión en este campo. En ellos se recoge un método general efectivo de entrenamiento de una red neuronal multicapa (la regla Delta generalizada) que permite resolver, entre otros, el problema XOR.

Breve reseña histórica de la Neurocomputación En 1987 se celebró en San Diego la primera conferencia abierta sobre redes neuronales (IEEE International Conference on Neural Networks), con más de 1700 participantes, y se formó la International Neural Network Society (INNS). En 1988 nace la revista Neural Networks; le sigue la revista Neural Computation en 1989 y la IEEE Transaction on Neural Networks en 1990. Posteriormente han ido apareciendo otras muchas y se han creado Institutos de Investigación y programas de formación en Neurocomputación. Otra razón del creciente interés por la redes neuronales es la mejora en la capacidad de computación. Para ello se han desarrollado redes neuronales ópticas e implementaciones VLSI. El progreso de la neurocomputación va emparejado con el progreso en el diseño de neurocomputadores.

Cronología: 1948 Modelo simple de neurona - McCullogh-Pitts 1949 Regla de aprendizaje de Hebb 1962 Perceptron introducido por Rosenblatt 1969 Limitaciones del perceptron - Libro de Minsky & Papert 1982 Modelo de memoria asociativa - Red de Hopfield 1986 PDP Algoritmos de procesamiento paralelo - Retropropagación 95 -- Coexisten dos áreas Neurociencia computacional (modelar el comportamiento del cerebro) Aplicaciones a la ingeniería (centrado en aplicaciones sin necesario fundamento biológico)

Redes neuronales artificiales Las redes de neuronas artificiales son modelos computacionales. Modelos simplificados que emulan el funcionamiento del cerebro Operan masivamente en paralelo para almacenar conocimiento experimental y hacerlo disponible para su uso en diversos