44
Universidad Especializada de Las Américas Facultad de Salud y Rehabilitación Integral Lic. Neurofisiología Clínica Cusro Informática Aplicada Prof. Rangel León Paradigma general de Aprendizaje en el Conexionismo, (Parte II).

Paradigma Gral. De Aprendizaje En El Conexionismo

Embed Size (px)

Citation preview

Universidad Especializada de Las AméricasFacultad de Salud y Rehabilitación Integral

Lic. Neurofisiología Clínica

CusroInformática Aplicada

Prof. Rangel León Paradigma general de Aprendizaje en el

Conexionismo, (Parte II).

CORRECCION DE ERRORES

Busca corregir el error producido por el patrón actual.

Consistes en ajustar los pesos de la conexión de la red en función de las deferencias entre los valores deseados y obtenidos en la salida.

Existen varios métodos de corrección de errores como es la del PECEPTRON, RETRO PROPAGACION, Y APRENDIZAJE POR REFORZMIENTO.

Perceptron En 1958 frank Rosenbalth desarrollo el modelo

simple de neuronas basdas en el modelo de MC Culloch y Petts y en la regla de corrección de errores.

Para el aprendizaje por corrección de error el perceptron contiene algoritmos fundamentales.

PERCEPTRON

El pretende asignar a cada entrada la salida deseada siguiendo un proceso de corrección de errores para determinar los pesos sinápticos apropiados.

PERCETRON Es una regla no lineal que solo nos da

respuestas binarias, la regla del perceptron es capaz de separara cualquier conjunto de patrones lineales separables.

En algunos casos cunado el conjunto no es linealmente separable el algoritmo no converge y produce una solución con un error grande. Para mejorar este comportamiento se introduce al perceptron en una zona muerta.

PERCEPTRON

Es de suma importancia este método porque por medio de ella se han desarrollado las redes adaline, y multicapa.

RETROPROPAGACION

Inventado por Bryson y Ho en 1969; revisado en los 80s (Rumelhart, Hinton, Williams)

Función de activación: sigmoide. (sigue siendo no lineal) Pasos del algoritmo (ver tambien seudocódigo) Se introduce una entrada en la red, y se propaga para

conseguir la salida La salida se compara con la salida correcta (error). El peso de cada conexión a una unidad de salida se

ajusta en la dirección adecuada (excitadora o inhibidora) y en la proporción adecuada para reducir el error. Se sigue un proceso similar para ajustar los errores de cada capa siguiente

Los tres pasos anteriores se repiten a través de un número de ciclos para diferentes patrones de entrada-salida. Normalmente en algunos cientos de ciclos el sistema converge y se obtienen los pesos adecuados.

Realmente el algoritmo de retropropagación es un algoritmo de descenso de gradiente en la superficie de error en el espacio de pesos. Potencialmente tiene el problema de mínimos locales.

Muy importante, idea clave: el algoritmo de retropropagación es una forma de repartir el cálculo del gradiente entre las distintas unidades, de manera que el cambio en cada peso puede calcularse por la unidad a la que afecta ese peso, y usando sólo información local.

RETROPROPAGACION

APRENDIZAJE POR REFORZAMIENTO

Define la manera de comportarse de un agente de tiempo dado en un tiempo exacto. Puede verse como mapeo entre los estados de ambiente que el agente percibe y las asociaciones que toma, cuando se encuentran en esos estados.

APRENDIZAJE POR REFORZAMIENTO

Consiste en aprender una conducta por que en nuestra experiencia se nos ha reforzado cada ves que hacemos.

Ej.: cada vez que un niño limpia su cuarto se le dan caramelos. Posiblemente vuelva a hacerlo hasta que termine de aprenderlo.

Memoria asociativa

Almacenamiento y recuperación de información por asociación con otras informaciones.

Permite recuperar información a partir de conocimiento parcial de su contenido, sin saber su localización de almacenamiento.

Las memorias asociativas son una de las redes neuronales artificiales más importantes con un amplio rango de aplicaciones en áreas tales como: Memorias de acceso por contenido, identificación de patrones y control inteligente.

Tipos de Memorias Asociativas Memorias heteroasociativas: establecen una

correspondencia de x (vector de entrada) en y (vector de salida), de distinta dimensión. Dichos patrones se llaman memorias principales o de referencia.

Memorias autoasociativas: establece la misma correspondencia que la memoria heteroasociativa pero siendo los patrones de entrada y de salida los mismos.

La memoria asociativa bidireccional (BAM) es una memoria heteroasociativa que asocia vectores bipolares (binarios) de distinta dimensión. La BAM consta de dos capas de elementos de proceso que están completamente interconectados entre capas.

Las unidades pueden o no tener conexiones de realimentación consigo mismas. Hay unos pesos asociados a las conexiones entre elementos de proceso, siendo estas conexiones bidireccionales.

Regla de Hebb y Mecanismo de auto-organización.

Regla de Hebb

Donald Hebb, apareciendo en su libro titulado " La Organización del Conocimiento" en 1949.

La ley: "Si un elemento de procesado simple recibe una entrada de otro elemento de procesado y ambos están activos, el peso correspondiente a su conexión debería reforzarse (aumentar)".

Las características en que se basa esta regla son:

Asociatividad. Autoorganización.

Regla de Hebb

Si las descargas entre dos neuronas i y j conectadas entre sí, son transmitidas por una conexión en forma repetida y persistente, algún mecanismo de crecimiento o cambio metabólico sucede a uno y a otro lado de la hendidura sináptica, resultando como consecuencia de ese refuerzo, que entre j e i aumenta el potencial o actividad Vij.

Regla de Hebb

La hipótesis de Hebb, basadas en investigaciones psicofisiológicas, presentan de manera intuitiva el modo en que las neuronas memorizan información y se plasman sintéticamente en la famosa regla de aprendizaje de Hebb.

Las conexiones entre dos neuronas se refuerza si ambas son activadas.

Regla de Hebb

Características: Trata de asociar patrones de salida a patrones de

entrada y la estructura se organiza a si misma. Se puede entender como un decodificador y un

codificador. Los pesos en estructuras que utilizan para su

aprendizaje este tipo de ley, se pueden considerar como la memoria necesaria para sintetizar estas relaciones asociativas.

La Regla de Hebb se puede expresar matemáticamente de

la forma siguiente:

Wij : conexión entre elemento i y j. yi : salida neurona i. xj : salida neurona j lr : representa la velocidad de aprendizaje

(0,1).

Regla de HebbMECANISMOS HEBBIANOS La clave del aprendizaje reside en que los pesos de las

diferentes conexiones neuronales pueden ser reajustados de una manera incremental, ya sea cuando los datos básicos tienen estructura.

Regla de Hebb

"Aunque algunos modelos teóricos suponen que la excitación es simétrica a la inhibición, en el neocórtex no lo es.

Las conexiones a larga distancia de una zona cortical a otra, surgen solamente mediante neuronas piramidales.

Son todas excitatorias. Los axones de la mayoría de las neuronas inhibitorias son, en cambio, bastante cortos y solamente influyen sobre neuronas del vecindario.

Regla de Hebb

Las neuronas excitatorias e inhibitorias difieren morfológicamente entre sí (con una posible excepción menor)...

Todas las neuronas reciben tanto excitaciones como inhibiciones, presumiblemente para evitar que queden siempre silenciosas o que se vuelvan salvajes.“

Francis Crick (en The Astonishing Hypothesis, p. 102) concreta de esta otra manera cómo aparecen excitaciones e inhibiciones.

Aprendizaje competitivo y estocastico

Aprendizaje competitivo: La cual dos neuronas de una capa compiten entre si por el privilegio de permanecer activos, tal que una neurona con mayor actividad será el único que participará del proceso de aprendizaje.

La competición ente neuronas se realiza en todas las capas de la red, existiendo en estas neuronas conexiones recurrentes de autoexcitación y conexiones de inhibición por parte de neuronas vecinas.

El objetivo de este aprendizaje es categorizar (clusterizar) los datos que se introducen en la red. De esta forma, las informaciones similares son clasificadas formando parte de la misma categoría, y por tanto deben activar la misma neurona de salida.

En este tipo de redes, cada neurona tiene asignado un peso total, suma de todos los pesos de las conexiones que tiene a su entrada. El aprendizaje afecta sólo a las neuronas ganadoras (activas), redistribuyendo este peso total entre todas las conexiones que llegan a al neurona vencedora y repartiendo esta cantidad por igual entre todas las conexiones procedentes de unidades activas.

Por tanto, la variación del peso de una conexión ente una unidad i y otra j será nula si la neurona j no recibe excitación por parte de la neurona i y otra j será nula si la neurona j no recibe excitación por parte de la neurona i, y se modificará si es excitada por dicha neurona i.

Existe otro caso particular de aprendizaje competitivo, denominado teoría de la resonancia adaptativa, desarrollado por Carpenter y Grossberg en 1986 y utilizado en la red feedforward /feedback de dos capas conocida como ART.

Esta red realiza un prototipo de las informaciones que recibe a la entrada, generando como salida un ejemplar o prototipo que representa a todas las informaciones que podrían considerarse pertenecientes a la misma categoría.

Aprendizaje estocástico

Este tipo de aprendizaje consiste básicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.

En el aprendizaje estocástico se suele hacer una analogía en términos termodinámicos, asociando la red neuronal con un sólido físico que tiene cierto estado energético.

En el caso de la red, la energía de la misma representaría el grado de estabilidad de la red, de tal forma que el estado de mínima energía correspondería a una situación en la que los pesos de las conexiones consiguen que su funcionamiento sea el que más se ajusta al objetivo deseado.

Según lo anterior, el aprendizaje consistiría en realizar un cambio aleatorio de los valores de los pesos y determinar la energía de la red. Si la energía es menor después del cambio; es decir, si el comportamiento de la red se acerca al deseado, se acepta el cambio; de lo contrario, se aceptaría el cambio en función de una determinada y preestablecida distribución de probabilidades.

Una red que utiliza este tipo de aprendizaje es la conocida como Boltzman Machine ideada por Hinton, Ackley y Sejnowski en 1984 que lo combina con el aprendizaje Hebbiano o con el aprendizaje por corrección de error (como la regla delta).

La Boltzman machine es una red con diferentes topologías alternativas pero siempre con unas neuronas ocultas que permiten, mediante un ajuste probabilística, introducir un ruido que va decreciendo durante el proceso de aprendizaje para escapar de los mínimos relativos de la función de energía favoreciendo la búsqueda del mínimo global.

El procedimiento de utilizar para escapar de mínimos locales suele denominarse simmulated annealing y su combinación con la asignación probabilística mediante la capa oculta es lo que se conoce como aprendizaje estocástico. La idea de todo esto es asemejar la red con un sólido físico que inicialmente presenta una alta temperatura (ruido) y que se va enfriando gradualmente hasta alcanzar el equilibro térmico (mínima energía).

Existe otra red basada en este tipo de aprendizaje denominado Cauchy Machine desarrollada por Szu en 1986 que es un refinamiento de la anterior y que emplea un procedimiento más rápido de búsqueda del mínimo global y una función de probabilidad diferente (la distribución de probabilidad de Cauchy frente a la de Boltzman utilizada en la anterior).

La máquina de Boltzmann usa estados binarios, conexiones bidireccionales, transiciones probabilísticas y puede tener unidades ocultas.

Para ajustar los estados de las unidades individuales se usa un mecanismo de transición de estados que está regido por el algoritmo de recocido simulado.

El modelo matemático de la Máquina de Boltzmann tiene dos atributos:

Se puede considerar como un modelo de implementación paralela en forma masiva del algoritmo de recocido simulado.

Permite el diseño de un algoritmo de aprendizaje basado en conceptos relativamente simples.

Una máquina de Boltzmann se puede ver como una red de varias unidades de dos estados (prendida = 1, apagada = 0) conectadas de cierta forma. El conjunto de conexiones normalmente incluye “auto conexiones” (conexiones de una unidad a sí misma).

Básicamente usa el criterio de aceptación del recocido simulado.

Existen dos modelos: Máquinas de Boltzmann secuénciales: las

unidades cambian de estado una a la vez. Máquinas de Boltzmann paralelas: las unidades

cambian de estado simultáneamente.

Gracias…