REDES NEURONALES INTELIGENCIA ARTIFICIAL II
REDES NEURONALES El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de reconocer el rostro de una persona resulta una tarea relativamente sencilla para el hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea costosa para un experto contable y una sencilla rutina para un ordenador básico La capacidad del cerebro humano de pensar, recordar y resolver problemas ha inspirado a muchos científicos intentar o procurar modelar en el ordenador el funcionamiento del cerebro humano. Los profesionales de diferentes campos como la ingeniería, filosofía, fisiología y psicología han unido sus esfuerzos debido al potencial que ofrece esta tecnología y están encontrando diferentes aplicaciones en sus respectivas profesiones.
REDES NEURONALES Neurona: base del funcionamiento del cerebro. Sistema de procesamiento cerebral de la información: Complejo, No lineal y Paralelo. Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo
Historia 1943. MacCulloch y Pitts (MacCulloch y Pitts, 1943) publicaban el artículo "A logical Calculus of ideas Immanent in Nervous Activity". La probabilidad que una neurona se activase dependía de la señal de entrada y de la sinapsis de conexión. 1949. Hebb (1949) Publica el libro "The organization of the Behavior" donde se describe cómo pueden aprender las neuronas. 1951. Marvin Minsky y Dean Edmons fabrican con tubos, motores y dispositivos mecánicos una máquina capaz de aprender. 1956. Organizada por Minsky, John mccarthy, Nathaniel Rochester y Claude Shannon se celebró la primera conferencia sobre Inteligencia Artificial.
Historia 1959. Frank Rosenblatt (Rosenblatt, 1959) desarrolla su concepto de perceptron. Un sistema que permitía interpretar patrones tanto abstractos como geométricos. 1962. Marcian Hoff. Desarrolla un modelo llamado ADALINE. Este modelo de RNA es capaz de clasificar los datos en espacios separables linealmente. 1969. Minsky y Papert (Minsky and Paperts, 1969) publican el libro llamado "perceptrons" en el que presentan el principal problema del perceptron, el famoso problema del XOR o el No exclusivo. 1986. Rumelhart, McClelland y el PDP (Rumelhart, McClelland & PDP, 1986) Estos dos investigadores fundaron el PDP (Parallel Distributed Processing) un grupo dedicado al estudio del conocimiento. De este grupo se editó el libro "Parallel Distributed Processing: Explorations in the Microstructures of Cognition".
Estructura artificial La función de activación puede ser una simple función escalón
Elementos de una red neuronal Se interconectan neuronas en tres tipos de capas: De entrada: reciben estímulos externos. Oculta: elementos internos de procesamiento (se pueden estructurar en varias capas). De salida: reciben la información procesada y retornan la respuesta del sistema al exterior.
Elementos de una red neuronal
Elementos de una red neuronal Las neuronas están conectadas por canales unidireccionales con peso. El peso wij está asociado al canal que conecta la neurona j con la neurona i. La entrada total de la neurona j es net j = Σw ij y i. La salida de la neurona j es y j = f(net j ).
Funciones de activación θ i representa un desplazamiento o umbral de activación (sesgo o bias). Se puede pensar θ i como el peso w 0i que conecta una neurona imaginaria x 0 con a 0 (t) = 1.
Función de activación escalón
Funciones de activación identidad y lineal-mixta
Función de activación sigmoidal
Regla de aprendizaje Biológicamente se acepta que la información memorizada en el cerebro se relaciona con los valores sinápticos de las conexiones. En las RNA se considera que el conocimiento se encuentra representado en los pesos de las conexiones. El proceso de aprendizaje se basa en cambios en estos pesos.
NEURONA ARTIFICIAL Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de cálculo que ante un vector de entradas proporciona una única salida. Elementos: Conjunto de entradas, xj Pesos sinápticos, wi Función de activación: w 1 x 1 + w 2 x 2 +... + w n x n = a y Función de transferencia: y = F (w 1 x 1 + w 2 x 2 +... + w n x n ) Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el sumador a
Fundamentos Es robusto y tolerante a fallas, diariamente mueren neuronas sin afectar su desempeño. Es flexible, se ajusta a nuevos ambientes de aprendizaje, no hay que programarlo. Puede manejar información difusa, con ruido o inconsistente. Es altamente paralelo. Es pequeño, compacto y consume poca energía.
Fundamentos Procesamiento de imágenes y de voz Reconocimiento de patrones Planeamiento Interfaces adaptivas para sistemas Hombre/máquina Predicción Control y optimización Filtrado de señales
Características Redes Neuronales El modelo de una neurona artificial es una imitación del proceso de una neurona biológica.
Características Existen varias formas de nombrar una neurona artificial, entre las formas conocidas encontramos, nodo, neuronodo, celda, unidad o elemento de procesamiento (PE).
Características Tener una inclinación natural a adquirir el conocimiento a través de la experiencia. Tienen una altísima plasticidad y gran adaptabilidad. Poseen un alto nivel de tolerancia a fallas. Tienen un comportamiento altamente no-lineal. La red no se programa se entrena.
Clasificación de las Redes Neuronales Aprendizaje supervisado Se asemeja al método de enseñanza tradicional con un profesor que indica y corrige los errores del alumno hasta que éste aprende la lección. Si la red utiliza un tipo de aprendizaje supervisado debemos proporcionarle parejas de patrones entrada-salida y la red neuronal aprende a asociarlos. series temporales, etc.
Clasificación de las Redes Neuronales Aprendizaje no supervisado No hay un profesor que corrija los errores al alumno; recuerda más al autoaprendizaje. El alumno dispone del material de estudio pero nadie lo controla. Si el entrenamiento es no supervisado, únicamente debemos suministrar a la red los datos de entrada para que extraiga los rasgos característicos esenciales.
Clasificación de las Redes Neuronales
Ventajas Redes Neuronales Algunas ventajas de las redes neuronales son : Aprenden de ejemplos. Procesan la información en paralelo. Pueden trabajar en sistemas no lineales. Trabajan mejor en sistemas ruidosos. No necesitan un modelo matemático. Capacidad de generalizar. Son baratas en su construcción.
Desventajas Redes Neuronales Algunas desventajas de las redes neuronales son : No se identifica claramente el mecanismo con el cual han resuelto un problema. No existe una metodología que nos indique que tipo de red debemos utilizar para resolver un problema específico, ni cuantas neuronas debemos utilizar en la capa escondida, o si tenemos que utilizar más de una capa escondida. Modelo de Clasificación incomprensible.
Nuevas tecnologías aplicadas a la documentación Um neurônio artificial Representación de un objeto que ha de ser aprendido x0 Entradas x1 x2 wj0 wj1 wj2 Pesos Função de Soma T Função de Función de Transferência Transparencia Saída i
Nuevas tecnologías aplicadas a la documentación Funcionamento de una red neuronal: Primero la red aprende y clasifica y después podemos utilizarla con otros ejemplos
Nuevas tecnologías aplicadas a la documentación Diferencias entre programas tradicionales y RN: Un programa tradicional es un conjunto de instrucciones que representan objetos del mundo real que codifican el conocimiento; ejecutará siempre lo que está codificado en las instrucciones. En una RN ningún conocimiento está codificado; es necesario enseñar presentando ejemplos. Básicamente, el conocimiento, al ser enseñado, se almacena en forma de pesos (valores) que darán a la red el comportamiento deseado. Simulando un comportamiento parecido al del ser humano
Redes neuronales artificiales: aprendizaje supervisado Ejemplo de entrenamiento: Aprender las entradas: Entrada = {1,1} deberá producir la salida = {1} Entrada = {0,0} deberá producir la salida = {0} Pesos iniciales: {-1,-1} Constante de aprendizaje: {1}
Redes neuronales artificiales: aprendizaje supervisado Función de transferencia: rampa Si el resultado de la suma < 0, entonces la salida = 0 Si el resultado de la suma >= 0 y <= 1, entonces la salida = entrada Si el resultado > 1, entonces la salida = 1
Redes neuronales artificiales: aprendizaje supervisado Presentamos el primer objeto... Usando la función suma tenemos: 1*-1 + 1*-1 = -2 Aplicando este resultado, la función T: 0
Redes neuronales artificiales: aprendizaje supervisado Recordemos que: Entrada = {1,1} debería producir la salida = {1} De momento, la salida obtenida fue = {0} Por tanto, hace falta un ajuste sináptico
Redes neuronales artificiales: aprendizaje supervisado Se aplica la regla Delta: Ajuste para el peso 1 Error = 1-0 = 1 Peso nuevo = -1 + (1 * 1 * 1) = 0 Ajuste para el peso 2 Error = 1-0 = 1 Peso nuevo = -1 + (1 * 1 * 1) = 0 Constante = 1 Error = salida esperada - salida obtenida Peso nuevo = Peso antiguo + ( Error * Entrada * Constante)
Redes neuronales artificiales: aprendizaje supervisado El primer objeto se presenta nuevamente Usando la función suma tenemos: 1*0 + 1*0 = 0 Aplicando este resultado, la función T: 1
Redes neuronales artificiales: aprendizaje supervisado Conclusiones: 1. Si presentamos nuevamente el segundo objeto, verificaremos que el resultado calculado es el esperado 2. Se considera, entonces, que la red ha aprendido