PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes

Documentos relacionados
DLAI - Aprendizaje Profundo para Inteligencia Artificial

Redes neuronales. Un recorrido por su matemática, arquitectura y aprendizaje. Eduardo Paluzo Hidalgo. 30 de enero de Universidad de Sevilla

Deep Learning Software Frameworks

ASIGNATURAS OBLIGATORIAS

PROGRAMA DE CURSO. Código Nombre INTRODUCCIÓN A LA MINERÍA DE DATOS Nombre en Inglés Introduction to Data Mining Unidades

CURSO DE POSGRADO EN INTERFACES AVANZADAS Y VISIÓN ARTIFICIAL: UN ENFOQUE PRÁCTICO

Modelos con adversario [GANs] Fernando Berzal,

Inteligencia Artificial II

Avances en visión artificial gracias al Aprendizaje Profundo

PLAN DE ESTUDIOS 2008-II SÍLABO

UC I. Rest. Ciclo Tipo UCR

ANX-PR/CL/ GUÍA DE APRENDIZAJE

Deep Learning para el Reconocimiento de Texto Manuscrito. Trabajo Fin de Grado

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Ricardo Aler. Tema 7. Introducción a Deep Learning

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes ,5 5,5. Resultados de Aprendizaje

Seminario Deep Learning. Presenta. Magdiel Jiménez Guarneros. 16 de Junio de 2016

Malla de Ingeniería Informática Facultad De Ciencias y Tecnología UMSS Cochabamba

Deep Learning Seminario Minería de Datos

Universidad de Costa Rica Facultad de Ingeniería Escuela de Ciencias de la Computación e Informática Licenciatura en Computación e Informática

Grado en Ingeniería Informática Curso Convocatoria de Julio

Licenciatura en informática

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Nombre de la Unidad de Aprendizaje. Seminario de solución de problemas de Inteligencia Artificial II

PLAN DE ESTUDIOS DE LA ESPECIALIDAD DE CIENCIA DE LA COMPUTACIÓN

Universidad de Costa Rica Sistema de Aplicaciones Estudiantiles SAE

PLAN DE ESTUDIOS 2010 DE LA ESPECIALIDAD DE CIENCIA DE LA COMPUTACIÓN

Universidad Nacional de San Agustín VICE RECTORADO ACADÉMICO SILABO

PROGRAMA DE CURSO. Personal Resultados de Aprendizaje

Smart Sound Processing for the digital living: Smart COmpuTing. SSPressing Scot. Universidad de Oviedo (UOVI) Parte II: Deep Computing

TEMA 0 Y SUS APLICACIONES. Redes Neuronales Artificiales y sus Aplicaciones

Universidad de Costa Rica Sistema de Aplicaciones Estudiantiles SAE

GRADO EN INGENIERIA INFORMATICA

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

CARRERA DE INGENIERIA DE SISTEMAS

POSGRADO EN CIENCIAS EXACTAS Y SISTEMAS DE LA INFORMACIÓN PLAN: 2005

Licenciado en Ciencias de la Computación

PROGRAMA DE CURSO. Código Nombre Arquitectura de Sistema de Alta Disponibilidad Nombre en Inglés High-Availability System Architecture SCT

Universidad de Costa Rica Sistema de Aplicaciones Estudiantiles SAE

Pontificia Universidad Católica del Ecuador

PROPUESTA DE MINOR CIENCIA DE LOS DATOS. DATA SCIENCE Resultados de Aprendizaje del Minor

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

11. FUENTES DE INFORMACIÓN

Línea de Especialización Control de Sistemas

LICENCIATURA LICENCIATURA EN CIENCIAS DE LA COMPUTACIÓN PLAN: 2052 OPCIÓN: Horas Teo.

Ingeniería Informática

Línea de Especialización Inteligencia Computacional y Robótica

13. PLAN DE ESTUDIOS 2018

PROGRAMA DE CURSO. Código Nombre CC4005 TALLER DE PROGRAMACION COMPETITIVA A Nombre en Inglés COMPETITIVE PROGRAMMING A SCT

5. PLANIFICACIÓN DE LAS ENSEÑANZAS

RNN y LSTM Redes Neuronales Profundas

PROGRAMA DE CURSO. Personal CC3301 Programación de Software de Sistemas Resultados de Aprendizaje

PROGRAMA DE CURSO. Personal Computación Resultados de Aprendizaje

Sistema Plan Estudio Martes, 18 de Noviembre de :46 - Actualizado Viernes, 30 de Junio de :30. Año Sem. Nº Asignatura Regulares

PLAN DE ESTUDIOS DE LA ESPECIALIDAD DE MATEMÁTICA

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

PROGRAMA DE CURSO. Personal ,0 1,5 5,5

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes

INSTITUTO POLITÉCNICO NACIONAL

UNIVERSIDAD CATÓLICA DE SANTA MARÍA

157 - GRADO EN INGENIERÍA INFORMÁTICA PRIMER CURSO CURSO

Inteligencia Computacional

Deep learning con TensorFlow

GRADUADO EN INGENIERÍA DE COMPUTADORES Guía de Aprendizaje. Información al estudiante

El Perceptrón Multicapa

Grado en Ingeniería de Computadores por la Universidad de Málaga Módulo I: Formación Básica

GRADUADO EN INGENIERÍA DE COMPUTADORES Guía de Aprendizaje. Información al estudiante

Reconocimiento de patrones. Proyecto Final

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Redes Neuronales Artificiales

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA)

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE SISTEMAS

INSTITUTO POLITÉCNICO NACIONAL SECRETARÍA ACADÉMICA DIRECCIÓN DE EDUCACION SUPERIOR PROGRAMA SINTÉTICO

Machine Learning y Deep Learning en AWS

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA FACULTAD CIENCIAS DE LA COMPUTACION

Aprendizaje: Perceptrón multi-capa

DESCRIPCIÓN Y HORARIO DE CURSOS I-2018

Deep Learning. Aplicaciones en Patología. Marcial García Rojo. Patólogo. Cádiz. Gloria Bueno. VISILAB Group. Universidad de Castilla-La Mancha

LICENCIATURA EN INGENIERÍA EN ELECTRÓNICA Y SISTEMAS INTELIGENTES

ORGANIZACIÓN DOCENTE del curso

FACULTAD DE INGENIERÍA

Asignaturas antecedentes y subsecuentes

2021: Odisea del Ciberespacio

(V2.0) SILABO CS261T.

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación a bajo nivel

COD COMPETENCIAS BÁSICAS DEL TÍTULO Mód Mat

TLU(s) MULTICAPAS. Se pueden implementar funciones en TLU con más de una capa.

UNIVERSIDAD POLITÉCNICA DE MADRID

PROGRAMA DE CURSO. Horas de Trabajo Personal Horas de Cátedra. Resultados de Aprendizaje

DEEP LEARNING GABRIEL VALVERDE CASTILLA

Carrera : Academia de Sistemas y Computación. a) RELACIÓN CON OTRAS ASIGNATURAS DEL PLAN DE ESTUDIOS ASIGNATURAS TEMAS ASIGNATURAS TEMAS

ANX-PR/CL/ GUÍA DE APRENDIZAJE

Intensificaciones y optatividad Proceso de petición y asignación de asignaturas

4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC:

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de Mayo de 2010 Fecha de última actualización: F1215 Matemáticas discretas 1/ 8

Transcripción:

PROGRAMA DE CURSO Código Nombre CC6204 Deep Learning Nombre en Inglés Deep Learning SCT Unidades Horas Docencia Horas de Trabajo Horas de Cátedra Docentes Auxiliar Personal 6 10 3 0 7 Requisitos Carácter del Curso CC3001 Electivo (pre y posgrado) Resultados de Aprendizaje El objetivo del curso es introducir a los estudiantes al área de aprendizaje basado en redes neuronales profundas, comúnmente conocida como Deep Learning. Las técnicas utilizadas en esta área han resultado fundamentales en los últimos avances en Inteligencia Artificial en particular en tareas como procesamiento de lenguaje natural y visión computacional. Durante el curso el estudiante será expuesto a la teoría detrás de los modelos de Deep Learning, comprenderá su funcionamiento, los usos posibles, y será capaz de construir y entrenar modelos que permitan solucionar problemas reales. Desde el punto de vista práctico, el curso pretende que los estudiantes sean capaces de implementar soluciones a problemas ingenieriles complejos que requieran conceptos de Inteligencia Artificial y Deep Learning, con foco en visión computacional y procesamiento de lenguaje natural. Desde el punto de vista teórico el curso busca que los estudiantes sean capaces de leer y comprender artículos científicos recientes del área y puedan así estar al día en los últimos avances en Deep Learning. Si bien la parte teórica es sumamente importante, el curso tendrá un claro sesgo práctico y la evaluación será en su gran parte basada en tareas de programación. En específico, al finalizar el curso los estudiantes serán capaces de: Concebir la solución a un problema real que se beneficie de las técnicas de Deep Learning, entendiendo claramente los pro y contras de una posible solución basada en esta tecnología, y las necesidades de datos, software, hardware y tiempo de computación. Diseñar una red neuronal profunda para un problema en específico considerando las distintas arquitecturas de redes posibles, las especificidades del problema en cuestión y los datos disponibles para entrenamiento. Implementar un modelo de red neuronal profunda usando librerías de software especializadas, y compararlo a otros modelos implementados según métricas objetivas de eficiencia y efectividad. Operar y optimizar el funcionamiento de modelos de redes neuronales profundas, entendiendo cómo modificar (hiper)parámetros, cuándo se debe re-entrenar, cuándo se debe conseguir más datos, etc. Saber cuándo y cómo se debe iterar sobre todos los puntos anteriores para mejorar la solución a un problema en cuestión, y, de ser necesario, consultar el estado del arte del área para implementar nuevas arquitecturas u optimizaciones.

Metodología Docente La metodología consiste en clases teóricas, revisión y presentación de artículos del estado del arte, trabajos prácticos y un proyecto. Asimismo, se considera un examen de medio semestre y uno final. El curso considera una parte teórica importante, pero tiene una tendencia altamente práctica a través de las tareas y proyectos. Evaluación General Práctica 2 Tareas 1 Proyecto (o 2 tareas adicionales) Teórica 1 control (mid-term) 1 examen Participación Revisión y presentación de papers. Nota Final: 40% Práctica, 40% Teórica y 20% Participación. Unidades Temáticas Número Nombre de la Unidad Duración en Semanas 1 Fundamentos 4 Contenidos Resultados de Aprendizajes de la Unidad I introducción a redes neuronales modernas. Capítulos: I.2, I.3, II.6 [1] Perceptrón, perceptrón multicapa, funciones de activación, no linealidad. Redes neuronales, cómo computan, qué no pueden computar, representación tensorial. Álgebra tensorial y cálculo tensorial. Funciones de error/pérdida y entrenamiento por descenso de gradiente. Grafos de computación y el algoritmo de BackPropagation. El alumno es capaz de: - Entender en detalle los fundamentos de redes neuronales profundas. - Implementar redes neuronales sin la necesidad de paquetes especializados, incluyendo algoritmos de optimización avanzados. - Analizar las bondades y deficiencias de un clasificador basado en redes neuronales profundas. - Operar y optimizar el funcionamiento de un modelo basado en redes neuronales profundas. - Organizar un proyecto simple de ingeniería basado en redes neuronales profundas considerando las necesidades de datos, software, hardware y tiempo de computación. Cap. I.2-3, II.6-8, II.11 [1]

II Algoritmos de aprendizaje, regularización y optimización. Capítulos: II.7, II.8 [1] Descenso de gradiente estocástico. Inicialización de parámetros, normalización, normalización de paquetes. Aprendizaje adaptativo Dropout Penalización de parámetros III Aspectos prácticos de entrenamiento y aprendizaje. Capítulo: II.11 [1] Conceptos clásicos de aprendizaje de máquina. Métricas de eficiencia, baselines, overfitting, underfitting. Búsqueda y selección de hiperparámetros. Técnicas de debugging Uso de GPUs en el entrenamiento Organizando una solución basada en Machine Learning y Deep Learning.

Número Nombre de la Unidad Duración en Semanas 2 Redes Convolucionales y Aplicaciones 5 Contenidos Resultados de Aprendizajes de la Unidad Redes Neuronales convolucionales Relación de CNN con el modelo biológico Estudio de arquitecturas CNN del estado del arte. Caffe y TensorFlow Visualización de modelos CNN. Búsqueda por Similitud usando Deep Features. Hashing de vectores de características usando Deep Learning. Class Activation Mapping. Modelos de Deep Learning para Detección de Objetos (imágenes) Modelos de Deep Learning para Segmentación de imágenes - Entender y aplicar redes neuronales en problemas de visión por computadora. - Entender y aplicar redes convolucionales. - Entender y desarrollar aplicaciones de búsqueda por similitud basada en deep-learning. - Utilizar herramientas como Caffe y TensorFlow para desarrollar modelos de deep-learning. - Entender y desarrollar aplicaciones de detección y etiquetado de imágenes utilizando modelos convolucionales. - Entender y desarrollar aplicaciones de segmentación de imágenes utilizando modelos de deep-learning. - Entender los conceptos de convolución y deconvolución en CNN. [1] Cap. II.9, II.12. [2] Cap 4, paper científicos. Número Nombre de la Unidad Duración en Semanas 3 Redes Recurrentes y Aplicaciones 3 Contenidos Resultados de Aprendizajes de la Unidad - Redes recurrentes - Backpropagation en el tiempo - Redes recurrentes bidireccionales. - Dependencias temporales a largo plazo. - Modelos con memoria externa explícita. - Aplicaciones en procesamiento de lenguaje natural y otras aplicaciones basadas en secuencias. El alumno es capaz de: - Entender en detalle los fundamentos de redes neuronales recurrentes y sus variaciones con dependencias temporales y memoria explícita. - Implementar modelos basados en redes neuronales recurrentes usando librerías tipo TensorFlow, Theano, o Pytorch. - Analizar el funcionamiento de redes neuronales recurrentes. Cap II.10, II.12 [1]

- Operar y optimizar el funcionamiento de un modelo basado en redes neuronales recurrentes. - Aplicar redes neuronales recurrentes al procesamiento de lenguaje natural y otras aplicaciones basadas en secuencias. Número Nombre de la Unidad Duración en Semanas 4 Tópicos Avanzados 3 Contenidos Resultados de Aprendizajes de la Unidad Se elegirán algunos de los siguientes contenidos: - Introducción a los Modelos Generativos. - Autoencoders - Autoencoder Variacionales - Generative Adversarial Networks - Neural Turing Machine (NeuralTM). - Computación Neuronal Derivable (DNC). - CapsNet. El estudiante será capaz de enfrentarse exitosamente a literatura científica del área, y entender los conceptos del estado del arte. Algunos de los resultados específicos serán: - Entender y aplicar autoencoders variacionales (VAEs). - Entender y aplicar modelos generativos usando Generative Adversarial Nets (GANs). - Identificar el contexto de aplicación de cada uno de los diferentes modelos deep analizados en el curso. - Conocer avances en el áreas (e.g. capsnet, NeuralTM, DNC). Cap. III.14, III.20 [1] papers científicos

Referencias Bibliográficas: [1] Deep Learning. Ian Goodfellow, Yoshua Bengio, Aaron Courville. 2016. ISBN : 9780262035613. http://www.deeplearningbook.org/ [2] Deep Learning: A practitioner s Approach. Josh Patterson, Adam Gibson. O Reilly, 2017. Papers Científicos: Artículos de Conferencias tipo CVPR, ICCV, ICML, ECCV, NIPS, ICLR, EMNLP. Artículos de Revistas tipo IJCV, PAMI. Librerías de código: Caffe, http://caffe.berkeleyvision.org/ TensorFlow, https://www.tensorflow.org/ Pytorch, http://pytorch.org/ Theano, http://deeplearning.net/software/theano/ Keras, https://keras.io/ Vigencia desde: Otoño 2018 Elaborado por: Jorge Pérez y José Manuel Saavedra