Métodos de Aprendizaje en Redes Neuronales

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Métodos de Aprendizaje en Redes Neuronales"

Transcripción

1 11 de abril de 2011

2

3 Entrenamiento de redes feedforward (Backpropagation) Siendo {z m, t m } m=1...n un conjunto de n patrones de entrenamiento, con z m las entradas conocidas para el m ésimo patrón y t m las salidas deseadas en cada neurona de salida para ese patrón Algoritmo Backpropagation 1 Iniciar aleatoriamente los pesos de la red 2 Para cada patrón m de entrenamiento, de 1 a n 1 Presentar un patrón de entrada z m a la Red Neuronal. 2 Propagar éstas entradas hacia la capa de salida. 3 Calcular el error en la capa de salida 4 `Retropropagar' dicho error hacia la capa oculta a través de la regla delta 5 Cambiar los pesos de las conexiones. 3 Si tras recorrerse todos los patrones el error cuadrático medio de la salida para todos y cada uno de ellos es menor a un umbral, terminar. En caso contrario, volver a 2

4 Propagación (Feedforward) Funcionamiento usual de la red (entrenada o durante entrenamiento). Consiste en Propagación 1 Inicializar todos los valores v i, i C 0 de las unidades de entrada con el patrón a procesar 2 Para cada capa C k, k 1 (oculta o salida) 1 Para cada neurona j en la capa C k 1 Calcular la entrada de la neurona net j = v i w ij + θ j i C k 1 2 Calcular la salida de la neurona v j = φ(net j )

5 Estimación y uso del Error El error global de la red en cada paso n del entrenamiento se puede cuanticar con la suma de errores cuadráticos E n = 1 (t j,m v j ) 2 2 j C out estableciéndose así la condición de parada, imponiendo un máximo error aceptable en la salida, ε max. Así, la condición es E n < ε max Se busca la minimización del error mediante la variación de los pesos, según E w ij = E net j net j w ij = E net j v i porque netj w ij = v i, la entradas a la neurona j desde la neurona i de la capa anterior. Esto nos deja la notación E net j δ n j = φ (net j )(t j,m v j )

6 ¾Porqué el resultado para δ j? Para las neuronas de salida, la contribución al error de cada neurona j sólo depende de su entrada {v i } i Cout 1 y de los pesos que la conectan con dicha entrada. Entonces E net j = puesto que v j = φ(net j ). net j = (t j,m v j (net j )) ( ) (v j(net j ) t j,m ) net j v j (net j ) = (t j,m v j (net j )) φ (net j )

7 Regla Delta adaptada Dado lo anterior, podemos plantear la expresión de actualización de pesos para conexiones con neuronas de la capa de salida w ij = η E w ij = ηδ j v i Para las neuronas ocultas, el error en la neurona oculta i de la capa k se estima considerando todos los errores inducidos en las neuronas de la capa siguiente. Teniendo la estimación inicial del error en la capa de salida, para calcular los δ i en las capas ocultas se hace: δ i = φ (net i ) w ij δ j j C k+1 y se aplica la misma regla de actualización iterativamente (tiempo n) para todas las conexiones de la red w n ij = ηδ j v i w n ij = w n 1 ij + w n ij

8 Algoritmo de Backpropagation Parámetros: η: tasa de aprendizaje, ε max : umbral de error, {z p, S p } N patrones de entrenamiento, N: número de patrones Inicializar todos los pesos w j con valores aleatorios Hacer 1 Inicializar bandera de error a falso 2 Para p = 0 hasta N 1 Propagar Estimar la salida, v i para el patrón de entrada z p 2 Calcular E. Si E > ε max cambiar a verdadero la bandera de error, sino, pasar a siguiente patrón z p+1 3 Con S p, estimar el δ j para cada neurona j de la capa de salida C out 4 Para todas las capas ocultas desde C out 1hasta C 1 1 Para todas las neuronas i de cada capa Calcular el error δ i y el θ i, actualizar θ i 5 Para todas las conexiones de la red Calcular el w ij Actualizar los pesos de las conexiones w ij Mientras bandera de error sea verdadera

9 Ejemplo Gráco Backpropagation

10 Estructura de la red Algoritmo Backpropagation Ryszard Tadeusiewcz "Sieci neuronowe", Kraków 1992.

11 Fase de propagación adelante I

12 Fase de propagación adelante II

13 Fase de propagación adelante III

14 Fase de propagación adelante IV

15 Fase de propagación adelante V

16 Fase de propagación adelante VI

17 Fase de retropropagación I

18 Fase de retropropagación II

19 Fase de retropropagación III

20 Fase de retropropagación IV

21 Fase de retropropagación V

22 Fase de retropropagación VI

23 Fase de actualización de pesos I

24 Fase de actualización de pesos II

25 Fase de actualización de pesos III

26 Fase de actualización de pesos IV

27 Fase de actualización de pesos V

28 Fase de actualización de pesos VI

29

30 Modelos Competitivos Auto-organizados: Red de Kohonen Estructura bicapa Las neuronas de la capa de entrada, x = [x 1, x 2,, x m ] son captadores simples (toman datos presentados a la red y los pasan a la siguiente capa de manera ponderada a través de los pesos a las conexiones). Las neuronas de la capa siguiente son una matriz bidimensional conocida como mapa auto-organizado, en la que los elementos se activan por regiones (vecindades), según sean los patrones de entrada Datos de complejidad arbitraria pueden ser proyectados al espacio del mapa auto-organizado de forma ponderada a través de un vector (matriz) de pesos. Esto es (para la késima iteración del entrenamiento) wi k = [ wi1, k wi2, k, win k ] T donde n es el número de neuronas.

31 Estructura de la red de Kohonen Neurona Ganadora Matriz de neuronas de salida r vecindad de la neurona ganadora i Neurona ganadora Entradas (sección) La vecindad se dene topológicamente como la bola B r

32 Aprendizaje en la Red de Kohonen El aprendizaje en la red de Kohonen es de tipo competitivo: Se premia a las neuronas que se activan de forma diferenciada ante un patrón de entrenamiento especíco Se trata de un modelo de aprendizaje nosupervisado No se presenta a la red un conjunto de salidas deseadas sino que se refuerza el comportamiento que se considera deseable El algoritmo de entrenamiento es un proceso de auto-organización Los patrones son presentados iterativamente en la capa de entrada e, iterativamente, los pesos se van ajustando de modo que una neurona o región es activada para cada patrón Las neuronas compiten entre sí por ser activadas de acuerdo a los patrones de entrada presentados, según una función de ponderación que refuerza la activación de la región más activa La tasa de aprendizaje es variable. p.ej µ k = 1 αk

33 Algoritmo de entrenamiento para la red de Kohonen 1 Inicialización: 1 El peso w 0 ij de cada conexión entre las neuronas i de la capa de entrada y j del mapa auto-organizado se asigna (aleatoriamente), 2 Denir la vecindad de las neuronas a través del valor r, su radio 2 Presentar un patrón de entrenamiento conocido z = [z 1, z 2,, z m] 3 Se determina la neurona n cuyo vector de pesos es el más cercano al vector patrón de entrada. Se suele emplear la distancia euclídea mind i(n), d i(n) = (x k i wk i,n )2 n i 4 Se actualizan los pesos de todas las conexiones w i,n, para la nésima unidad del mapa (n jo) w k+1 i,n = { w k i + µ k (x k i w k i,n) w k i,n si i B r si i / B r 5 Regresar a 2. hasta que k alcance un número de iteraciones especicado

34 Memorias Asociativas Bidireccionales (BAM) Casos particulares de la máquina de memoria bicapa sin conexiones laterales El conocimiento se almacena en los pesos de la red que asocian entradas con salidas mediante un proceso de transformación B La conguración de entradas y salidas debe tener una correspondencia intrínseca. Los valores entrantes y salientes suelen ser binarios ((0, 1) o (-1, 1)). Se suelen polarizar los patrones (representarlos como función signo) Las neuronas de la capa oculta permiten procesar el conocimiento de las conexiones sobre el patrón de entrada, aproximándolo a un patrón conocido previamente entrenado A Se genera un modelo de memoria asociativa

35 Funcionamiento de una red tipo BAM El Patrón de entrada es presentado a la red a través de la capa de entrada con valores en el vector A, propagándose a la capa de salida, B, a través de las conexiones con pesos en la matriz W, activándolas con un vector de valores B A W B Los valores de activación B de la capa oculta regresan a la capa visible mediante la aplicación de la matriz transpuesta de pesos W T B W T A El vector de valores obtenido en la capa A se propaga de nuevo hacia la capa oculta, generando nuevos valores de activación, B A W B Este proceso se repite hasta que la red alcance un estado estable (variaciones por debajo de un umbral aceptable - menor energía almacenada en W)

36 Funcionamiento de una red tipo BAM Ejemplo de implementación de una memoria BAM

37 Aprendizaje de una red tipo BAM 1 Inicializar aleatoriamente W 2 Leer un vector de entrada A y un vector de salida B, polarizándolos si es necesario (pasar de (0,1) a (-1,1)) 3 Para todos los elementos {w ij } que unen a neuronas a i A y b j B hacer w n+1 ij = w n ij + a ib j 4 Si hay más patrones de entrada, volver a 2. hasta presentarlos todos a la red BAM

38 Recuperación de patrones en una red tipo BAM 1 Leer un vector de entrada A en la red 2 Generar la salida B para el patrón de presentado. Para todos los b j 1 si b n+1 i a iw ij > 0 j = 0 si i a iw ij < 0 b n si i a iw ij = 0 3 Generar la salida A para el patrón de presentado. Para todos los a i 1 si a n+1 j b jw ij > 0 i = 0 si j b jw ij < 0 b n si j b jw ij = 0 4 Volver a 2. hasta que A y B dejen de cambiar.

Redes Neuronales Artificiales

Redes Neuronales Artificiales Algoritmo de retropropagación Back propagation Es utilizado para entrenar redes neuronales multicapa. Exige que la función de activación de las neuronas sea derivable y creciente. Las funciones comúnmente

Más detalles

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani

Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción

Más detalles

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa

Técnicas de inteligencia artificial. Aprendizaje: Perceptrón multi-capa Técnicas de inteligencia artificial Aprendizaje: Perceptrón multi-capa Índice Regla delta Modelo computacional Neuronas e hiperplanos Entrenamiento como ajuste supervisado No-separabilidad lineal Backpropagation

Más detalles

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Preguntas y Ejercicios para Evaluación: Tema 4

OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls. Preguntas y Ejercicios para Evaluación: Tema 4 OPENCOURSEWARE REDES DE NEURONAS ARTIFICIALES Inés M. Galván José M. Valls Preguntas y Eercicios para Evaluación: Tema 4 1. Indique características del aprendizae no supervisado que no aparezcan en el

Más detalles

Tema: Aprendizaje Supervisado.

Tema: Aprendizaje Supervisado. Sistemas Expertos e Inteligencia Artificial. Guía No. 9 1 Tema: Aprendizaje Supervisado. Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Objetivos Específicos

Más detalles

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Perceptrón multicapa. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Perceptrón multicapa Profesor: Dr. Wilfrido Gómez Flores 1 Introducción De acuerdo con el consejo de la IEEE Neural Networks de 1996, inteligencia artificial (IA) es el estudio de cómo

Más detalles

Redes de Neuronas Recurrentes Computación con Inspiración Biológica

Redes de Neuronas Recurrentes Computación con Inspiración Biológica Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción

Más detalles

Tema 8: Redes Neuronales

Tema 8: Redes Neuronales Tema 8: Redes Neuronales Pedro Larrañaga, Iñaki Inza, Abdelmalik Moujahid Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/

Más detalles

Redes de Neuronas de Base Radial

Redes de Neuronas de Base Radial Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta

Más detalles

Tema 7 Redes Neuronales Recurrentes

Tema 7 Redes Neuronales Recurrentes Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS

Más detalles

Neural Network Toolbox

Neural Network Toolbox Neural Network Toolbox Sistemas Conexionistas - Curso 07/08 La Neural Network Toolbox es un paquete de Matlab que contiene una serie de funciones para crear y trabajar con redes de neuronas artificiales.

Más detalles

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red

Self Organizing Maps. Self Organizing Maps. SOM/KOHONEN Network Mapas Auto-organizativos. Estructura de la Red. Estructura de la Red SOM/KOHONEN Network Mapas Auto-organizativos Capitulo 6 Análisis Inteligente de datos Self Organizing Maps La red SOM es creada por Teuvo Kohonen en la década de los 8, rápidamente paso a ser una de las

Más detalles

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES

ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES ANEXO II.- TEORÍA SOBRE REDES NEURONALES ARTIFICIALES 1. Concepto de red neuronal artificial Una red neuronal artificial (RNA) es un modelo matemático que intenta reproducir el modo de funcionamiento y

Más detalles

Algoritmo del perceptron DISCRETO VARIABLES

Algoritmo del perceptron DISCRETO VARIABLES Algoritmo del perceptron DISCRETO VARIABLES I (nº de iteraciones) K (contador de ejemplos) W[i:1..n+1] (pesos del perceptron) X[i:1..n] (valores de la entrada en el ejemplo actual) Y (valor de la salida

Más detalles

Tema 2 Primeros Modelos Computacionales

Tema 2 Primeros Modelos Computacionales Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Neuronales Artificiales Alejandro Osses Vecchi 11 de julio de 2009 1. Introducción Comenzaremos con una definición simple y general de Red Neuronal para, en las próximas secciones, explicar y profundizar

Más detalles

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones.

Tema: Red Neuronal Hopfield. Reconocimiento de Patrones. Sistemas Expertos e Inteligencia Artificial. Guía No. 10 1 Facultad: Ingeniería Escuela: Computación Asignatura: Sistemas Expertos e Inteligencia Artificial Tema: Red Neuronal Hopfield. Reconocimiento

Más detalles

Anexo Redes Neuronales

Anexo Redes Neuronales Anexo Redes Neuronales Félix Monasterio-Huelin y Álvaro Gutiérrez 8 de abril de 2016 Índice Índice 1 Índice de figuras 1 1. El entorno del robot 2 2. Neurona y funciones de activación 2 2.1. Vector de

Más detalles

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en

3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL Descripción del Problema: La identificación de un sistema consiste en 301 3.7 IDENTIFICACION DE UN SISTEMA DINÁMICO NO LINEAL 3.7.1 Descripción del Problema: La identificación de un sistema consiste en determinar una función que relacione las variables de entrada con las

Más detalles

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL

Perceptrón multicapa. Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Perceptrón multicapa Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización Un poco de historia... Cómo resolver el problema XOR? Métodos de gradiente

Más detalles

REDES NEURONALES ADAPTABLES

REDES NEURONALES ADAPTABLES REDES NEURONALES ADAPTABLES Unidad 3: Redes neuronales artificiales y modelos de entrenamiento SubTemas 3.2 Perceptron simple Arquitectura Regla delta Multi Layer Perceptrón 3.3 Redes Neuronales Adaptables

Más detalles

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas

4. El perceptrón. 4.1 Introducción. 4.2 Consideraciones básicas 4. El perceptrón 4.1 Introducción El perceptrón es la forma más simple de una red neuronal usada para la clasificación de un tipo especial de patrones, los linealmente separables (es decir, patrones que

Más detalles

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB

TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB TUTORIAL SOBRE REDES NEURONALES APLICADAS EN INGENIERIA ELECTRICA Y SU IMPLEMENTACIÓN EN UN SITIO WEB MARIA ISABEL ACOSTA BUITRAGO CAMILO ALFONSO ZULUAGA MUÑOZ UNIVERSIDAD TECNOLOGICA DE PEREIRA FACULTAD

Más detalles

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez

Redes Neuronales. Parte II. Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez Redes Neuronales Parte II Facultad de Ciencias Exactas y Tecnología Universidad Nacional de Tucumán Mg. Ing. Gustavo E. Juárez UNIDAD TEMÁTICA : REDES NEURONALES Introducción. De/iniciones. Topologías

Más detalles

Tema 9: Introducción a las redes neuronales

Tema 9: Introducción a las redes neuronales D. Balbontín Noval F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla Neuronas artificiales: inspiración biológica El aprendizaje en

Más detalles

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION

UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO REPORTE DE INVESTIGACION Qué es el momento en una red backpropagation? U.A. REDES NEURONALES INTEGRANTES: JESUS BARRIOS CRESCENCIO

Más detalles

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:

Más detalles

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales

Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Definir un Equipo de Fútbol óptimo mediante Redes Neuronales Artificiales Abstract Este trabajo tiene como objetivo analizar, experimentar y comprender el funcionamiento y las características de los Sistemas

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO III

Las Redes Neuronales Artificiales y su importancia como herramienta en la toma de decisiones. Villanueva Espinoza, María del Rosario CAPÍTULO III herramienta en la toma de decisiones Villanueva Espinoza, María CAPÍTULO III III ELEMENTOS DE UNA RED NEURONAL ARTIFICIAL Las redes neuronales son modelos que intentan reproducir el comportamiento del

Más detalles

TÉCNICAS DE AGRUPAMIENTO

TÉCNICAS DE AGRUPAMIENTO TÉCNICAS DE AGRUPAMIENTO José D. Martín Guerrero, Emilio Soria, Antonio J. Serrano PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES Curso 2009-2010 Page 1 of 11 1. Algoritmo de las C-Medias. Algoritmos de agrupamiento

Más detalles

APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3)

APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3) Tema 2: Aprendizaje y Entrenamiento Sistemas Conexionistas 1 2.- Aprendizaje o Entrenamiento. 2.1.- Aprendizaje Automático. 2.2.- Tipos de aprendizaje. APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8;

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Tema 15: Combinación de clasificadores

Tema 15: Combinación de clasificadores Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial

Más detalles

Red Neuronal para el Reconocimiento de Patrones

Red Neuronal para el Reconocimiento de Patrones Conferencia Taller Sistemas Neuro borrosos 26 de abril de 2017 Red Neuronal para el Reconocimiento de Patrones Juan Carlos Alvarado Pérez juan.alvarado@aunar.edu.co Facultad de Ingeniería Programa de ingeniería

Más detalles

DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO

DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN GUIAS PARA EL DISEÑO DEL LABORATORIO DISEÑO DE UN LABORATORIO VIRTUAL BASICO DE REDES NEURONALES DE RETROPROPAGACIÓN DESCRIPCIÓN DEL DOCUMENTO: Este documento presenta la construcción de un laboratorio virtual básico para el diseño de redes

Más detalles

Redes neuronales en control de sistemas

Redes neuronales en control de sistemas Redes neuronales en control de sistemas Marco Teórico Las redes neuronales tratan de emular ciertas características propias de los humanos, una muy importante es la experiencia. El ser humano es capaz

Más detalles

Neurona. Células y Fibras nerviosas Célula Nerviosa. Sensoriales, motoras y de asociación Nucleo Actividades metabólicas Conexiones sinápticas

Neurona. Células y Fibras nerviosas Célula Nerviosa. Sensoriales, motoras y de asociación Nucleo Actividades metabólicas Conexiones sinápticas Redes Neuronales Neurona Células y Fibras nerviosas Célula Nerviosa Neuronas Bipolares Neuronas Multipolares Sensoriales, motoras y de asociación 50000 Nucleo Actividades metabólicas Conexiones sinápticas

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES

PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES PREDICCIÓN DE DEMANDA INSATISFECHA MEDIANTE EL USO DE REDES NEURONALES Guillermo MOLERO CASTILLO - g.moleroc@gmail.com Maestría en Ingeniería de la Computación, Universidad Nacional Autónoma de México

Más detalles

Introducción a las Redes de Neuronas

Introducción a las Redes de Neuronas Introducción a las Redes de Neuronas Departamento de Informática Universidad Carlos III de Madrid Avda. de la Universidad, 30. 89 Leganés (Madrid) Introducción de Redes de Neuronas Introducción Fundamentos

Más detalles

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)

CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas

Más detalles

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales

Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales

OTRAS CONSIDERACIONES. Introducción a las Redes Neuronales Artificiales OTRAS CONSIDERACIONES! Estrategias para generalización Existen diversas estrategias para mejorar la generalización: 1) Teoría de Regularización: Agregar una penalidad para lograr mejorar la forma de la

Más detalles

Comparación de los modelos de redes neuronales Hopfield y BPN aplicados a un sistema de Soporte a la Toma de Desiciones

Comparación de los modelos de redes neuronales Hopfield y BPN aplicados a un sistema de Soporte a la Toma de Desiciones Comparación de los modelos de redes neuronales Hopfield y BPN aplicados a un sistema de Soporte a la Toma de Desiciones Cisneros, Alberto Cividini, Sergio Capello, Mauro Casiva, Agustin Utgés, Javier Universidad

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

Aux 7. Introducción a la Minería de Datos

Aux 7. Introducción a la Minería de Datos Aux 7. Introducción a la Minería de Datos Gastón L Huillier 1,2, Richard Weber 2 glhuilli@dcc.uchile.cl 1 Departamento de Ciencias de la Computación Universidad de Chile 2 Departamento de Ingeniería Industrial

Más detalles

Introducción a las Redes Neuronales

Introducción a las Redes Neuronales Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación)

MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) Aprendiae Automático y Data Mining Bloque III MÉTODOS DE APRENDIZAJE INDUCTIVO (continuación) REDES NEURONALES 2 Redes neuronales (I) Red neuronal: método de aprendiae inductivo inspirado en la estructura

Más detalles

María Gabriela Vintimilla Sarmiento Darwin Alulema

María Gabriela Vintimilla Sarmiento   Darwin Alulema Desarrollo e Implementación de una Aplicación que Traduzca el Abecedario y los Números del uno al diez del Lenguaje de Señas a Texto para Ayuda de Discapacitados Auditivos Mediante Dispositivos Móviles

Más detalles

Teoría de grafos y optimización en redes

Teoría de grafos y optimización en redes Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,

Más detalles

Estado civil: {casado/a, soltero/a, divorciado/a}

Estado civil: {casado/a, soltero/a, divorciado/a} Universidad Rey Juan Carlos Curso 2011 2012 Inteligencia Artificial Ingeniería Informática Hoja de Problemas 9 1. Un banco quiere clasificar los clientes potenciales en fiables o no fiables. El banco tiene

Más detalles

Soluciones de la ecuación de onda ( ) ( ) ( ) ONDAS PLANAS. Ecuación de onda en coordenadas cartesianas. Separación de variables.

Soluciones de la ecuación de onda ( ) ( ) ( ) ONDAS PLANAS. Ecuación de onda en coordenadas cartesianas. Separación de variables. ONDAS PLANAS Soluciones de la ecuación de onda cuación de onda en coordenadas cartesianas Ω+ Ω Ω Ω Ω + + + Ω Separación de variables Ω X Y Z d X dy dz + + + X d Y d Z d X d Y d d X dy Z d dz + + cuaciones

Más detalles

Redes Neuronales Artificiales

Redes Neuronales Artificiales Neuronales Artificiales Eduardo Morales, Hugo Jair Escalante Coordinación de Ciencias Computacionales Instituto Nacional de Astrofísica, Óptica y Electrónica Septiembre, 2015 (INAOE) Septiembre, 2015 1

Más detalles

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12

Introducción a las Redes Neuronales. Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/12 Introducción a las Redes Neuronales Tomás Arredondo Vidal Depto. Electronica UTFSM 4/5/2 Introducción a las Redes Neuronales Contenidos Introducción a las neuronas Introducción a las redes neuronales artificiales

Más detalles

Análisis y Recuperación de Información

Análisis y Recuperación de Información Análisis y Recuperación de Información 1 er Cuatrimestre 2016 Página Web http://www.exa.unicen.edu.ar/catedras/ayrdatos/ Prof. Dra. Daniela Godoy ISISTAN Research Institute UNICEN University Tandil, Bs.

Más detalles

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex.

El método simplex 1. 1 Forma estándar y cambios en el modelo. 2 Definiciones. 3 Puntos extremos y soluciones factibles básicas. 4 El método simplex. El método simplex Forma estándar y cambios en el modelo. Definiciones. Puntos extremos y soluciones factibles básicas. 4 El método simplex. Definiciones y notación. Teoremas. Solución factible básica inicial.

Más detalles

ESTUDIO DEL GRUPO SOBRE TÉCNICAS EMERGENTES (Año 2007)

ESTUDIO DEL GRUPO SOBRE TÉCNICAS EMERGENTES (Año 2007) ESTUDIO DEL GRUPO SOBRE TÉCNICAS EMERGENTES (Año 2007) Resumen Las redes neuronales y los sistemas basados en lógica borrosa son las nuevas herramientas de uso más difundido en la actualidad, encontrándose

Más detalles

Examen de Septiembre de TACCIII y TAI (Modelo 2)

Examen de Septiembre de TACCIII y TAI (Modelo 2) Examen de Septiembre de TACCIII y TAI (Modelo 2) 12 de septiembre de 2008 1. La desordenación de la base de datos puede influir en el resultado obtenido mediante a) clasificación por distancia a las medias

Más detalles

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO Clasificación NO SUPERVISADA AGRUPAMIENTO Clasificación No Supervisada Se trata de construir clasificadores sin información a priori, o sea, a partir de conjuntos de patrones no etiquetados Objetivo: Descubrir

Más detalles

Redes Multicapa. Compuerta XOR

Redes Multicapa. Compuerta XOR Redes Multicapa LIMITACIÓN DEL PERCEPTRÓN El perceptrón puede resolver solamente problemas que sean linealmente separables, esto es problemas cuyas salidas estén clasificadas en dos categorías diferentes

Más detalles

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.

PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. Lucas García Cillanueva Paloma Jimeno Sánchez-Patón Leticia C. Manso Ruiz PROJECT GLASS Dentro de Google Labs Gafas

Más detalles

Técnicas de aprendizaje sobre series temporales

Técnicas de aprendizaje sobre series temporales Técnicas de aprendizaje sobre series temporales Contenido 1. Motivación. 2. Ejemplo del Problema. 3. Aproximaciones al problema de clasificación de series temporales. 4. Aprendizaje de reglas. 5. Boosting

Más detalles

REDES NEURONALES ARTIFICIALES AUTO-ORGANIZATIVAS DINÁMICAS

REDES NEURONALES ARTIFICIALES AUTO-ORGANIZATIVAS DINÁMICAS UNIVERSIDAD DE CHILE FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS DEPARTAMENTO DE INGENIERÍA ELÉCTRICA REDES NEURONALES ARTIFICIALES AUTO-ORGANIZATIVAS DINÁMICAS MEMORIA PARA OPTAR AL TÍTULO DE INGENIERO

Más detalles

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay

Más detalles

Redes neuronales con funciones de base radial

Redes neuronales con funciones de base radial Redes neuronales con funciones de base radial Diego Milone y Leonardo Rufiner Inteligencia Computacional Departamento de Informática FICH-UNL Organización: RBF-NN Motivación y orígenes RBF Arquitectura

Más detalles

Se trata de: Explicar el comportamiento de una variable dependiente ( Y ) en función de otras variables ( i ) 2 Investigar si las variables están asoc

Se trata de: Explicar el comportamiento de una variable dependiente ( Y ) en función de otras variables ( i ) 2 Investigar si las variables están asoc 4 ASOCIACION ENTRE VARIABLES En la investigación estadística- y en lo fundamental aquella relacionada a variables socioeconómicas-, es común encontrar variables relacionadas o asociadas Estadísticamente

Más detalles

4 Método propuesto basado en el Perceptrón Multicapa

4 Método propuesto basado en el Perceptrón Multicapa Capítulo 4 4 Método propuesto basado en el Perceptrón Multicapa En este capítulo se presenta el nuevo enfoque que se propone en esta tesis para la generación de series sintéticas de radiación solar. Está

Más detalles

APLICACIÓN DEL ALGORITMO ADABOOST.RT PARA LA PREDICCIÓN DEL INDICE COLCAP Y EL DISEÑO DE UN CONTROLADOR NO LINEAL LAURA MARCELA REYES FAJARDO

APLICACIÓN DEL ALGORITMO ADABOOST.RT PARA LA PREDICCIÓN DEL INDICE COLCAP Y EL DISEÑO DE UN CONTROLADOR NO LINEAL LAURA MARCELA REYES FAJARDO APLICACIÓN DEL ALGORITMO ADABOOST.RT PARA LA PREDICCIÓN DEL INDICE COLCAP Y EL DISEÑO DE UN CONTROLADOR NO LINEAL LAURA MARCELA REYES FAJARDO Universidad Distrital Francisco José de Caldas Facultad de

Más detalles

5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6.

5.- Diseña un Perceptrón simple con una capa intermedia (oculta) de unidades de proceso bipolares que implemente la función lógica XOR. 6. 05/IX/2005 E. T. S. de Ingeniería Informática Universidad de Málaga 1.- Demuestra el teorema de convergencia de una red de Hopfield binaria cuando se sigue una dinámica de computación asíncrona (secuencial).

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

La lección de hoy de febrero de Notación. Solución factible básica

La lección de hoy de febrero de Notación. Solución factible básica 1.3 1 de febrero de La lección de hoy Método simplex (continuación) Entregas: material de clase Nota: el diseño de esta presentación incluye animaciones que permiten verla en forma de diapositivas. Repaso

Más detalles

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con

CONCLUSIONES. La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con 319 CONCLUSIONES La teoría de Redes Neuronales Artificiales, presenta grandes ventajas con respecto a otros modelos típicos de solución de problemas de Ingeniería, una de ellas es su inspiración en modelos

Más detalles

Programación lineal: Algoritmo del simplex

Programación lineal: Algoritmo del simplex Programación lineal: Algoritmo del simplex Se considera la formulación estándar de un problema de programación lineal siguiendo la notación utilizada en las clases teóricas: Minimizar c t x sa: Ax = b

Más detalles

2. PRINCIPALES TIPOS DE REDES NEURONALES

2. PRINCIPALES TIPOS DE REDES NEURONALES 33 2. PRINCIPALES TIPOS DE REDES NEURONALES 2.1 PERCEPTRÓN 2.1.1 Antecedentes. La primera red neuronal conocida, fue desarrollada en 1943 por Warren McCulloch y Walter Pitts; ésta consistía en una suma

Más detalles

Resolución 3523 de 2012

Resolución 3523 de 2012 Enero 1 a Marzo 31 de 2016 Completación de llamadas internacionales entrantes 96% Completación de llamadas internacionales salientes 97% Octubre 1 a Diciembre 31 de 2015 Completación de llamadas internacionales

Más detalles

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002 Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material

Más detalles

Secretaría de Docencia Dirección de Estudios Profesionales

Secretaría de Docencia Dirección de Estudios Profesionales PROGRAMA DE ESTUDIO POR COMPETENCIAS REDES NEURONALES I. IDENTIFICACIÓN DEL CURSO Espacio Educativo: Facultad de Ingeniería Licenciatura: Ingeniería en Computación Área de docencia: Interacción Hombre-Máquina

Más detalles

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho D04 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar Concepto

Más detalles

RECOMENDACIÓN UIT-R S.1256

RECOMENDACIÓN UIT-R S.1256 Rec. UIT-R S.1256 1 RECOMENDACIÓN UIT-R S.1256 METODOLOGÍA PARA DETERMINAR LA DENSIDAD DE FLUJO DE POTENCIA TOTAL MÁXIMA EN LA ÓRBITA DE LOS SATÉLITES GEOESTACIONARIOS EN LA BANDA 6 700-7 075 MHz PRODUCIDA

Más detalles

Capítulo 5 Introducción a la Elaboración Proyecciones Financieras

Capítulo 5 Introducción a la Elaboración Proyecciones Financieras Capítulo 5 Introducción a la Elaboración Proyecciones Financieras Objetivo Identificar los principios que rigen la proyección financiera, así como los criterios que se utilizan para la elaboración de flujos

Más detalles

ANALISIS DE PROXIMIDADES

ANALISIS DE PROXIMIDADES -1- ANALISIS DE PROXIMIDADES (MULTIDIMENSIONAL SCALING (MDS)) José Luis Vicente Villardón Departamento de Estadística Universidad de Salamanca -- MODELOS DE MDS INTRODUCCION El Multidimensional Scaling

Más detalles

Conversión Electromecánica de Energía - II. Curso Máquinas Eléctricas

Conversión Electromecánica de Energía - II. Curso Máquinas Eléctricas Conversión Electromecánica de Energía - II Curso Máquinas Eléctricas Bibliografía 1- Conversión de Energía Eléctrica - Capítulo 3: Teoría Básica de los Convertidores Electromecánicos de Energía - Prof.

Más detalles

Aprendizaje Automatizado. Redes Neuronales Artificiales

Aprendizaje Automatizado. Redes Neuronales Artificiales Aprendizaje Automatizado Redes Neuronales Artificiales Introducción Una forma de emular características propias de los humanos: memorizar y asociar hechos. Se aprende de la experiencia. El cerebro humano

Más detalles

Redes de Kohonen y la Determinación Genética de las Clases

Redes de Kohonen y la Determinación Genética de las Clases Redes de Kohonen y la Determinación Genética de las Clases Angel Kuri Instituto Tecnológico Autónomo de México Octubre de 2001 Redes Neuronales de Kohonen Las Redes de Kohonen, también llamadas Mapas Auto-Organizados

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

Fuzzification. M.C. Ana Cristina Palacios García

Fuzzification. M.C. Ana Cristina Palacios García Fuzzification M.C. Ana Cristina Palacios García Introducción Es el proceso donde las cantidades clásicas se convierten a difusas. Requiere el identificar la incertidumbre presente en valores finitos o

Más detalles

Redes Neuronales Artificiales. MTI. Eduardo Cruz Romero

Redes Neuronales Artificiales. MTI. Eduardo Cruz Romero Redes Neuronales Artificiales MTI. Eduardo Cruz Romero Qué es una neurona? La neurona es la célula responsable de transferir la información y los impulsos eléctricos alrededor del cuerpo. Estructura Neuronal

Más detalles

Aprendizaje: Boosting y Adaboost

Aprendizaje: Boosting y Adaboost Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo

Más detalles

Modelo Predictivo del Crimen para la Región Metropolitana

Modelo Predictivo del Crimen para la Región Metropolitana Análisis Espacial de la Criminalidad basado en Georeferenciación de Denuncias José Miguel Benavente PhD Departamento de Economía. Departamento de Ingeniería Industrial. Universidad de Chile. Carabineros

Más detalles

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano

Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Simulación de Redes Neuronales Artificiales: Una Herramienta para la Docencia en Castellano Anita Alegre López 1, Sonia Mariño 1, David La Red 1 1 Dpto. Informática. Universidad Nacional del Nordeste.

Más detalles

DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL

DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL TECNIA,Vol 8 N 03, págs.11-17, 1999 Universidad Nacional de Ingeniería Lima - Perú DISEÑO E IMPLEMENTACIÓN DE UN NEUROCONTROLADOR APLICADO A UN SERVOSISTEMA NO LINEAL Arturo Rojas-Moreno, arojas@uni.edu.pe

Más detalles

Análisis de datos Categóricos

Análisis de datos Categóricos Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores

Más detalles

Práctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández

Práctica 3. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Emilio Parrado Hernández Práctica 3 Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Emilio Parrado Hernández Práctica 3: Cancelación de ruido mediante filtrado. Teoría Moderna de la Detección y la Estimación

Más detalles

Vectores y matrices. Problemas para examen

Vectores y matrices. Problemas para examen Vectores y matrices Problemas para examen Operaciones lineales con vectores 1. Programación: la suma de dos vectores. Escriba una función que calcule x + y, donde x, y R n. Calcule el número de flops.

Más detalles

Extracción de Bordes

Extracción de Bordes Visión por Computadora Unidad IV Extracción de Bordes Rogelio Ferreira Escutia Contenido 1) Conceptos sobre Bordes 2) Extracción de bordes por Derivadas 3) Operadores de Primera Derivada 1) Conceptos sobre

Más detalles

ANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB

ANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB 333 ANEXO A DESCRIPCIÓN DE LAS FUNCIONES UTILIZADAS EN MATLAB 1. Red tipo Perceptrón: Las siguientes son las herramientas de redes neuronales del Matlab 5.3: utilizadas en el entrenamiento de las redes

Más detalles

PRONÓSTICO DE CAUDALES DE DESHIELO A DISTINTAS ESCALAS TEMPORALES, USANDO REDES NEURONALES ARTIFICIALES EN LA CUENCA DEL RÍO MAPOCHO EN LOS ALMENDROS

PRONÓSTICO DE CAUDALES DE DESHIELO A DISTINTAS ESCALAS TEMPORALES, USANDO REDES NEURONALES ARTIFICIALES EN LA CUENCA DEL RÍO MAPOCHO EN LOS ALMENDROS PRONÓSTICO DE CAUDALES DE DESHIELO A DISTINTAS ESCALAS TEMPORALES, USANDO REDES NEURONALES ARTIFICIALES EN LA CUENCA DEL RÍO MAPOCHO EN LOS ALMENDROS MEMORIA PARA OPTAR AL TÍTULO DE INGENIERO CIVIL MONTSERRAT

Más detalles

Operaciones con matrices

Operaciones con matrices Operaciones con matrices Problemas para examen Operaciones lineales con vectores 1. Programación: la suma de dos vectores. Escriba una función que calcule x + y, donde x, y R n. Calcule el número de flops.

Más detalles