Redes neuronales y sistemas difusos-Resumen

Embed Size (px)

DESCRIPTION

Resumen del capitulo uno y tambien resumen de la introduccion

Citation preview

Redes Neuronales Y Sistemas Difusos

IntroduccionLos mtodos matemticos de las neuronas difusas emplean relaciones difusas adaptativas y operadores en la sinapsis, esto para convertir las entradas externas en salidas sinpticas. Si remontamos a pocas histricas, donde los intentos resultaban prematuros en relacin a la tecnologa disponible, podemos considerar que el camino hacia la construccin de maquinas inteligentes comienza en la segunda guerra mundial, con el diseo de ordenadores analgicos ideados para controlar caones antiareos o para navegacin. De este modo, combinando las nuevas teoras sobre la realimentacin, los avances de la electrnica de la posguerra y los conocimientos disponibles sobre los sistemas nerviosos de los seres vivos, se contruyeron maquinas capaces de responder y de aparender como los animales. Norbert Wiener acuo el termino ciberntica para designar este estudio unificado de control y de la comunicacin en los animales y las maquinas.A la par de los ordenadores analgicos y la ciberntica se inicia el desarrollo de los ordenadores digitales tal y como conocemos hy en dia, basados en la separacin de estructura y funcin, corriente que en adelante denominaremos Computacion Algoritmica.La computacin algortmica se basa por lo tanto, en resolver cada problema mediante un algoritmo, que se codifica en forma de programa y se almacena en memoria; el programa secuencial es ejecutado en una maquina secuecial.Los sistemas borrosos pueden describirse como un tipo de lgica multivaluada que permite manejar estos conceptos borrosos o difusos tipics del mundo real y que emula el tipo de razonamiento que los seres humanos realizamos con ellos haciendo uso de sentencias como SI habitacin esta muy fra Entonces pon la calefaccin al mximo. Podemos decir que mientras las redes neuroales emulan el hardware del cerebro, los sistemas borrosos se ocupan del lado mas software.En definitiva, hoy en dia vuelven a coexistir dos corrientes importantes dentro de la bsqueda de la inteligentia que son, mas que alternativas, complementarias. Por una parte la IA convencional, basada en algoritmos manipuladores de informacin simbolica, que se ejecutan sobre los ordenadores Von Neumann, que operan sobre la base de la lgica digital. Por otra parte, suelen agruparse las redes neuronales, los sitemas borrosos y otras tcnicas, que se incluyen en lo que se ha dado en denominar Inteligencia Computacional o Soft Computing, que en cierta medida imitan las construcciones desarrolladas por la naturaleza. Asi como el termino ABC de la inteligencia pueden contemplarse sus tres facetas: artificial, biolgica y computacional.

MICROPROCESADORES, COMPUTADORES Y CEREBRO.Los actuales computadores son maquinas de Von Neumann, en esencia una maquina de procesamientos que actua ejecutando en serie una secuencia de instrucciones o programa, que almacena en su memoria. La maquina esta compuesta por cuatro unidades bsicas: unidad de entrada de informacin, unidad de salida, unidad de procesamiento, y memoria.La mayor parte de los ordenadores disponibles en la actualidad son maquinas manipuladoras de smbolos que se basan en este esquema. La unidad de entrada de datos es el teclado o las unidades de disco;la unidad de salida es muy a menudi la pantalla o la impresora; la unidad de procesamiento o CPU es el microprocesador ; la memoria puede estar distribuida entre el disco duro, cintas, CD-ROM o la memoria central de semiconductor.El verdadero corazn del computador es el microprocesador, potente y complejsimo circuito electrnica, que en la actualidad puede integrar varios millones de componentes electrnicos en un espacio de alrededor de un centmetro cuadrado. El microprocesador es considerado en muchas ocasiones como la cumbre de la tecnologa humana, tanto por el nivel de desarrollo tecnolgico necesario para poder incluir millones de dispositivos electrnicos en tan reducido espacio, como por la potencia de calculo que pueden desarrollar

Parece obvio que para abordar esta clase de tareas debe recurrirse al procesamiento en paralelo. Una solucin puede ser el empleo de varias CPU operando a la vez, pero el esfuerzo necesaruon para construir un programa orientado a una maquina de este tipo es tremendo, muy dependiente de la estructura concreta de la maquina con la que se trabaje. Adems, aparecen importantes cuestiones adicionales, como el espacio que ocupa una maquina de estas caractersticas, la energa que consume, y sobre todo, su elevado coste econmico, circunstancias que hacen inviable su aplicacin ala construccin de, por ejemplo, un pequeo robot inteligente.Por el contrario, el cerebro, cuyas capacidades queremos emular, no opera de acuerdo al marco descrito. El cerebro no es una arquitectura Von Neumann, pues no esta formado por un mocroprocesador, ni siquiera esta constituido por unas cuantas CPU, sino que lo componen millones de procesadores elementales o neuronas, ampliamente interconectadas conformando redes de neuronas. La neurona es en realidad un pequeo procesador, sencillo, lento y poco fiable, sin embargo, en nuestro cerebro cohabitan unos cientos mil millones de neuronas operando en paralelo. Es aqu donde reside el origen de su poder de computo. Aunque individualmente las neuronas sean capaces de realizar procesamientos muy simples, ampliamente interconectadas a travez de sinapsis y trabajando en paralelo pueden desarrollar una actividad global de procesamiento enorme CerebroComputador

Velocidad de proceso10^-2seg(100hz)10^-9seg (1000Mhz)

Estilo de procesamientoparaleloSecuencial

Numero de procesadores10^11-10^14pocos

Conexiones10.000 por procesador Pocas

Almacenamiento del conocimientodistribuidoDirecciones fijas

Tolerancia a fallosamplianula

Tipo de control del procesoAuto-organizadoCentralizado

Redes Neuronales ArtificialesLas redes neuronales o sistemas neuronales artificiales constituyen en la actualidad un activo de campo multidisciplinar, en el que confluyen investigadores procedentes de muy diferentes reas, como la electrnica, fsica, matemticas, ingeniera, biologa o psicologa. No obstante, hay que tener muy presente que en las redes neuronales artificiales no se persigue ningn tipo de ambicion prometeica, como las de la IA en sus inicios, sino que se utilizan en el control de procesos industriales, reconocimiento de vehculos en los peajes de las autopistas o la previsin del consumo elctrico, objetivos desde un punto de vista tecnolgico. Es en este tipo de problemas practicos en los que los sistemas neuronales estn alcanzando excelentes resultados.

Inteligencia ArtificialRedes Neuronales

Enfoque descendenteEnfoque ascendente

Basado en la psicologiaBasado en la biologia

Que hace el cerebroComo lo hace el cerebro

Reglas SI/ENTONCESGeneralizacion a partir de ejemplos

Sistemas programadosSistemas entrenados

Logica, conceptos, reglasReconocimiento de patrones, gestalt

Arquitectura von NeumannSeparacion hardware/softwareArquitecturas paralelas, distribuidas, adaptivas. Autoorganizacion

Sistemas BorrososSistema inteligente que, a partir de un conjunto de funciones de pertenencia definidas en determinado universo de discurso y determinadas reglas definidas por un experto realiza una inferencia a partir de valores de las variables de entrada Si A es BAJA y B es ALTA Entonces C(A,B) es MEDIO.En definitiva, la lgica borrosa razona a partir de estos trminos lingsticos borrosos, haciendo uso de sentencas del tipo SI/ENTONCES, como por ejemplo, SI temperatura=fra ENTONCES enciende calefaccin o SI presin=muy alta ENTONCES abrir la valvula. Estas tendencias borrosas son en realidad representaciones naturales y compactas del conocimiento humano disponible sobre una materia.REDES NEURONALES Y SISTEMAS DIFUSOS Tratando de resumir lo expuesto hasta el momento, podemos permitirnos una cierta licencia afirmando quea) Las redes neuronales emulan el hardware del cerebrob) Los sistemas borrosos emulan el hardware del cerebro

Ambos temas los desarrollaremos con cierta extensin en las dos partes en las que dividimos el texto. Comenzaremos la exposicin con las redes neuronales artificiales, realizando una introduccin el tema, exponiendo los modelos de mayor inters desde un punto de vista practico, y mostrando como se construye un ANS y como se desarrollan aplicaciones basadas en ellos.

Las redes neuronales artificiales son capaces de descubrir automticamente relaciones entrada-salida en funcin de datos empricos, mercen a su capacidad de aprendizaje a partir de ejemplos; Los sistemas borrosos permiten emplear el conocimiento disponible por los expertos para el desarrollo de sistemas inteligentes.

MARCO TEORICO.(un poco de historia)

La historia de las redes neuronales artificiales comenzara con el cierfitico aragones Santiago Ramon y Cajal, descubridor de la estructura neuronal del sistema nervioso, en 1888 Ramon y Cajal demostr que el sistema nervioso en realidad estaba compuesto por una red de clulas individuales, las neuronas, ampliamente interconectadas entre si. Desde un punto de vista funcional, las neuronas constituyen procesadores de informacin sencillos. Como todo sistema de este tipo, poseen un canal de entrada de informacin, las dentritas, un rgano de computo, el soma, y un canal de salida, el axn. En las interneuronas el axn enva la informacin a otras neuronas, mientras que en las neuronas motoras lo hace directamente al musculo. Existe un tercer tipo neuronas, las receptoras o sensoras, que en vez de recibir la informacin de otras neuronas, las reciben directamente del exterior. Se calcula que una neurona del cortex cerebral recibe informacin, por termino medio, de unas 10000 neuronas, y enva impulsos a varios cientos de ellas.

GENERACION Y TRANSMISION DE LA SEAL NERVIOSALa unin que existe entre dos neuronas se denomia sinapsis. En el tipo de sinapsis mas comn no existe un contacto fsico entre las neuronas, sino que estas permanecen separadas por un pequeo vacio de unas 0.2 micras. En la relacin a la sinapsis, se habla de neuronas presinapticas (la que enva seales) y postsinapticas (la que las recibe). Las sinapsis son direccionales, es decir, la informacin fluye siempre en un nico sentidoLas seales nerviosas se pueden transmitir elctrica o qumicamente. La transmisin qumica prevalece fuera de la neurona, mientras que la elctrica lo hace en el interior. La transimision qumica se basa en el intercambio de neurotransmisores, mientras que la elctrica hace sos de descargas que se producen en el cuerpo celular, y que se propagan por el axn.La forma de comunicacin mas habitual entre dos neuronas es de tipo quimico. La neurona presinaptica libera unas sustancias complejas denominadas neurotransmisores, que atraviesan el vacio sinptico. Si la neurona postsinaptica posee en las dentriras o en el soma canales sensibles a los neurotransmisores liberados, los fijaran, y como consecuencia permitirn el paso de determinados iones atraveez de la membrana. Las corrientes ionicas que de esta manera se crean provocan pequeos potenciales postsinapticos, excitadores o inhibidores, que se integraran en el soma, tanto espacial como temporalmente: este es el origen de la existencia de sinapsis excitadoras y de sinapsis inhibidoras.Gerenando un pulso elctrico por el soma, el transporte activo que se produce a lo largo del axn permite que pueda transmitirse a grandes distancias sin degradarse. Cerebro y computadorLas redes neuronales no dejan de ser computadoras, mquinas que procesan datos. No obstante las diferencias entre una red neuronal artificial y una computadora convencional son elevadas. Obviamente, tambin existen grandes diferencias entre las redes neuronales artificiales y las de los humanos. A continuacin realizaremos un anlisis comparativo, para que simplificar la comprensin, cuando hablemos de cerebro artificial lo llamaremos computadora.En primer lugar, el cerebro humano es capaz de tratar gran cantidad de datos en poco tiempo pero no necesariamente con exactitud. Por su parte, la computadora ser capaz de procesar informacin mucho ms concreta y siempre seguir unas instrucciones dadas.Por otro lado, si nos fijamos en los impulsos nerviosos, en el caso del humano stos pueden variar pero, la computadora, al ser mecnica y automtica, tiene una frecuencia inalterable de transmisin y est dirigida por el reloj interno de la mquina.En tercer lugar, en cuanto al almacenaje, el cerebro humano guarda la memoria pero no se sabe dnde quedar almacenada, dado su carcter asociativo. En cambio, en la computadora la informacin se guarda en posiciones de memoria de acceso directo por su direccin.Un punto a favor de las computadoras que, en eso, superan al cerebro humano, es el de la velocidad. De este modo, en el cerebro, los impulsos fluyen a unos 30 metros por segundo frente a la computadora, donde los impulsos fluyen a la velocidad de la luz.Por otro lado, en el anlisis comparativo debemos destacar tambin similitudes importantes. As hay que destacar que, tanto en cerebro como la computadora codifican la informacin en impulsos digitales, ambos tienen compuertas lgicas, en ambos casos existen diferentes tipos de memoria y ambos tienen aproximadamente el mismo consumo de energa.

Los tres conceptos clave de los sistemas nerviosos, que se pretende emular en los artificiales son: paralelismo de calculo, memoria distribuida y adaptibilidad, al entorno. De esta manera, podemos hablar de las redes neuronales como sistemas paralelos, distribuidos y adaptivos.

UN SISTEMAS NEURONAL O CONEXIONISTA, esta compuesto por los siguientes elementos: Un conjunto de procesadores elementales o neuronas artificiales Un patrn de conectividad o arquitectura Una dinmica de activaciones Una regla o dinmica de aprendizaje El entorno donde opera

Se denomira procesador elementao o neurona a un dispositivo simple de calculo que, apartir de un vector de entrada procedente del exterior o de otras neuronas, proporciona una nica respuesta o salida. Los elementos que constituyen a la neurona de etiqueta i son los siguientes Conjunto de entradas, xj(t) Peros sinpticos de la neurona i,wij que representan la intensidad de interaccion entre cada neurona presinaptica j y la neurona postsinaptica i Regla de propagacin , que proporciona el valor del potencial postsinaptico de la neurona en funcin de sus pesos y entradas Funcion de activacin que proporciona el estado de activacin actual de la neurona i, en funcin de su estado anterior y de su potencial postsinaptico actual Funcion de salida que proporciona la salida actial de la neurona i en funcin de su estado de activacinDe este modo, la operacin de la neurona i puede expresarse como:

Este mpdep de neurona formal se inspira en la operacin de la biolgica, en el sentido de integrar una serie de entradas y proporcionar cierta respuesta que se propaga por el axn.

ENTRADAS Y SALIDASLas variables de entrada y salida pueden ser binarias (digitales) o continuas (analgicas), dependiendo del modelo y aplicacin. Por ejemplo, un perceptron multicapa o MLP admiten ambos tipos de seales. Asi, para tareas de clasificaicon poseera salidas digitales {0. +1}, mientras que para un problema de ajuste funcional de una aplicacin multivariable continua, se utilizaran salidas continuas pertenecientes a cierto intervalo.Dependiendo del tipo de salida, las neuroas suelen recibir nombres especficos. Asi las neuronas estndar cuya salida solo puede tomar los valores de 0 o 1 se suelen denominar genricamente neuronas de tipo McCulloch-Pitts, mientras que aquellas que nicamente pueden tener salidas -1 o +1 se suelen denominar neuronas tipo Ising . Si puede adoptar diversos valores discretos en la salida, se dice que se trata de la neurona de tipo Potts.

MODELO ESTANDAR DE NEURONA ARTIFICIALEn la practica suele utilizarse uno mas simple , que denominaremos neurona estndar, que constituye un caso particular del modelo del PDP, considerando que la regla de propagacin es la suma ponderada y que la funcin de salida es la identidad. De esta forma, la neurona estndar consiste en Un conjunto de entradas y pesos sinpticos Una regla de propagacin es la mas comn Una funcin de activacin que representa simultneamente la salida de la neurona y su estado de activacin

Con frecuencia se aade al conjunto de pesos de la neurona un parmetro adicional i, que denominaremos umbral, que se resta del potencial postsinaptico, por lo que el argumento de la funcin de activacin queda

Lo que representa aadir un grado de libertad adicional a la neurona. Veremos que en el caso de nodos de respuesta todo-nada este parmetro representara el umbral de disparo de la neurona, es decir, el nuvel minimo que debe alcanzar el potencial postsinaptico para que la neurona se dispare o active.En conlusion, el modelo de neurona que denominaremos estndar queda

ARQUITECTURA DE REDES NEURONALESSe denomina arquitectura a la topologa, estructura o patrn de conexionado de una red neuronal. En un ANS los nodos se conectan por medio de sinapsis, esta estructura de conexiones sinpticas determina el comportamiento de la red. Las conexiones sinpticas son direccionales, es decir, la informacin solamente puede propagarse en un nico sentido. En general, las neuronas se suelen agrupar en unidades estructurales que denominaremos capas. Las neuronas de una capa pueden agruparse, a su vez, formando grupos neuronales. Dentro de un grupo, o de una capa si no existe este tipo de agrupacin, las neuronas suelen ser del mismo tipo. Finalmente, el conjunto de una o mas capas constituye la red neuronal.

Se distinguen 3 tipos de capas: de entrada, de salida y ocultas. Una capa de entrada o sensorial esta compuesta por neuronas que reciben datos o seales procedentes del entorno. Una capa de salida es aquella cuyas neuronas proporcionan la respuesta de la red neuronal. Una capa oculta es aquella que no tiene una conexin directa con el entorno, es decir, que no se conecta directamente ni a rganos sensores un a efectores. Este tipo de capa proporciona a la red neuronal grados de libertad adicionales, gracias a los cuales puede encontrar representaciones internas correspondientes a determinados rasgos del entorno, proporcionando una mayor riqueza computacional

Atendiendo a distintos conceptos, pueden establecerse diferentes tipos de arquitecturas neuronales. Asi, en relacin a su estructura en capas, podemos hablar de redes monocapa y de redes multicapa. Las redes monocapa son aquellas compuestas por una nica capa de neuronas. Las redes multicapa son aquellas cuyas neuronas se organizan en varias capas.Asi mismo, atendiendo al flujo de datos en la red neuronal, podemos hablar de redes unidireccionales. En las redes unidireccionales, la informacin circula en un nico sentido, desde las neuronas de entrada hacia las de salida. En las redes recurrentes o realimetadas la informacin puede circular entre las capas en cualquier sentido, incluido en de salida-entrada.Una red neuronal es un grafo dirigido, con las siguientes propiedades: 1) A cada nodo i se asocia una variable de extado Xi 2) A cada conexin de los nodos se asocia un peso3) A cada nodo se asocia un umbral4) Para cada nodo se define una funcin, que depende de los pesos de sus conexiones, del umbral y de los estados de los nodos a el conectados. Esta funcin proporciona el nuevo estado del nodo.En la terminologa habitual de las redes neuronales, los nodos son las neuronas y las sinapsis las conexiones. Algunos de los conceptos ya expuestos quedaran redefinidos en este contexto de la siguiente manera: Se denomina neurona de entrada a las neuronas sin sinapsis entrantes Se denomina neurona de salida a las neuronas sin sinapsis salientes Las que no son ni de entrada un de salida se denominan neuronas ocultas Una red es unidireccional cuando no presenta bucles cerrados de conexiones Una red es recurrente cuando el flujo de informacin puede encontrar un bucle de atrs hacia adelante, es decir, una realimentacin.

CLASIFICACION DE LOS MODELOS NEURONALES A partir de lo visto hasta el momento puede deducirse que dependiendo del modelo de neurona concreto que se utilice, de la arquitectura o topologa de conexin, y del algoritmo de aprendizaje, surgirn distintos modelos de redes neuronales.

COMPUTABILIDAD NEURONALEn abu-mostafa se discute sobre las caractersticas computacionlaes de los ANS, demostrndose en particular que, al igual que los computadores digitales convencionales, las redes neuronales son formalmente capaces de resolver cualquier problema computacional. Una forma sencilla de verlo es la siguiente. Una red neuronal es capaz de implementar cualquier funcin booleana, pues hasta recordar la neugora realiza la funcin lgica NAND.REALIZACION DE REDES NEURONALESEl modo mas habitual de realizar una red neuronal consiste en simularla en un ordenador convencional, como un PC o una estacin de trabajo, haciendo uso de programas escritos en lenguajes de alto nivel, como C o Pascal. Aunque de esta manera se pierde su capacidad de calculo en paralelo, las presentaciones que ofrecen los ordenadores actuales resultan suficientes para resolver numerosos problemas practicos, permitiendo la simulacin de redes de tamao considerable a una velocidad razonable.APLICACIONES DE LAS REDES NEURONALESSe estima que a pesar de las limitaciones tcnicas, las redes neuronales aplicadas a la Bibliometra constituyen un campo de investigacin muy prometedor. Un ejemplo es presentado a continuacin. La disciplina muldidisciplinar de las redes neuronales es aplicada en esta seccin, donde se asume a la produccin de los documentos de patentes como indicador de la capacidad de desarrollo industrial. El objetivo es identificar posibles competidores, alianzas estratgicas, dependencia tecnolgica, etc. Se escogi para el primer ejemplo la representacin de la situacin tecnolgica de la Neisseria meningitidis.3 Las diferentes instituciones en la primera hoja de sus patentes hacen referencias a otras patentes, a partir de estos datos se puede inferir el impacto que produce una tecnologa o institucin en otra; Se puede sealar, entre otras, las siguientes reas de aplicaciones de los sistemas neuronales: Reconocimiento del habla, Reconocimiento de caracteres, visin, robotica, control, procesamiento de seal, prediccin, economa, defensa, bioingeniera, etc. Asi mismo estn incorporndose ANS para incorporar aprendizaje en los sistemas borrosos y a la confeccion de sistemas expertos conexionistas.DE LA NEURONA BIOLOGICA A LA ARTIFICIALUn modelo clsico de la operacin de la neurona biolgica es el propuesto por Hodgin y Huxley, que parte por considerar que la membrana celular actua como un condensador que tiene asociada una capacidad elctrica, En este modelo a cada una de las especies ionicas que entran y salen a travez de la membrana se asigna cierta intensidad elctrica; por otra parte, la membrana presenta diferente resistencia para cada tipo de ion. La capacidad elctrica CM asociada a la membrana celular integra dichas corrientes, y la tensin asi obtenida es finalmente convertida en trenes de pulsos de una determinada frecuencia en el soma.

Modelo elctrico de la membraba de la neurona. Los subndices hacen referencia a los iones sodio, potasio y el l a los iones que representan corrientes de fuga. U es el potencial de la membrana

CONCLUSIONLas Redes Neuronales Artificiales basadas en los sistemas nerviosos biolgicos reproducen al menos el funcionamiento del cerebro humano, sea en hardware o software, El aprendizaje de sistemas neuronales directas tiene un proceso mediante elempleodel algoritmo de retropropagacin (backpropagation), realizando el ajuste de pesos entre las capas de la red. La construccin de las redes neuronales artificiales hace uso de metodologas de desarrollo de software. Las redes neuronales artificiales tienen un amplio campo de aplicaciones donde se requiera la solucin a problemas, desde actividades de investigacin hasta aplicaciones comerciales e industriales.En resumen parece see que las tareas que peor llevan a cano nuestros actuales computadores y robots son precisamente aquellas que mas fciles resultan a los organismos biolgicos. Asi, aunque es relativamente sencillo conseguir que los operadores resuelvan complejos problemas aritmticos o jueguen al ajedrez, resulta sumamente difcil dotarles de la capacidad perceptiva y movilidad de una simple rana

BIBLIOGRAFIA Redes Neuronales y Sistemas Borrosos3Edicio AlfaomegaBonifacio Martin Del Brio y Alfredo Sanz Molina

13