7
REDES NEURONALES ARTIFICIALES La tecnología neuronal trata de reproducir el proceso de solución de problemas del cerebro. Así como los humanos aplican el conocimiento ganado con la experiencia a nuevos problemas o situaciones una red neuronal toma como ejemplos problemas resueltos para construir un sistema que toma realiza y clasificaciones. Los problemas adecuados para la solución neuronal son aquellos que no tienen solución computacional precisa o que requieren algoritmos muy extensos como en el caso de reconocimiento e imágenes. HISTORIA DE LAS REDES NEURONALES Alrededor de 1943 los investigadores Warren McCulloch y Walter Pitss propusieron el primer modelo simple de la neurona. En las década de los cincuenta y los setenta, el movimiento en redes neuronales fue liderado por B. Widrow y M.E.Hoof., quienes trabajaron con una maquina llamada Adaline (adaptive linear Element). Otro pionero fue el psicólogo Frank Rosenblatt de la universidada de Corell. En 1959, Rosenblatt construyo una maquina neuronal simple que llamo Perceptron. Esta tena una matriz con 400 fotoceldas que se conectaban aleatoriamente a 512 unidades tipo neurona. Cuando se representa un patrón a las unidades censoras estas envían una señal aun banco de neurona que indicaba la categoría de l patrón. El perceptron de Rosenblatt reconocio reconocio todas las letras del alfabeto. 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un

Redes neuronales

Embed Size (px)

Citation preview

Page 1: Redes neuronales

REDES NEURONALES ARTIFICIALES

La tecnología neuronal trata de reproducir el proceso de solución de problemas del cerebro. Así como los humanos aplican el conocimiento ganado con la experiencia a nuevos problemas o situaciones una red neuronal toma como ejemplos problemas resueltos para construir un sistema que toma realiza y clasificaciones.

Los problemas adecuados para la solución neuronal son aquellos que no tienen solución computacional precisa o que requieren algoritmos muy extensos como en el caso de reconocimiento e imágenes.

HISTORIA DE LAS REDES NEURONALES

Alrededor de 1943 los investigadores Warren McCulloch y Walter Pitss propusieron el primer modelo simple de la neurona. En las década de los cincuenta y los setenta, el movimiento en redes neuronales fue liderado por B. Widrow y M.E.Hoof., quienes trabajaron con una maquina llamada Adaline (adaptive linear Element).

Otro pionero fue el psicólogo Frank Rosenblatt de la universidada de Corell. En 1959, Rosenblatt construyo una maquina neuronal simple que llamo Perceptron. Esta tena una matriz con 400 fotoceldas que se conectaban aleatoriamente a 512 unidades tipo neurona. Cuando se representa un patrón a las unidades censoras estas envían una señal aun banco de neurona que indicaba la categoría de l patrón. El perceptron de Rosenblatt reconocio reconocio todas las letras del alfabeto.

1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a unProblema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales comoel aprendizaje de una función no-lineal. Esto demostró que el Perceptor era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.

1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje depropagación hacia atrás (backpropagation); cuyo significado quedó definitivamenteaclarado en 1985.

Page 2: Redes neuronales

1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.

1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).

A partir de 1986, el panorama fue alentador con respecto a lasinvestigaciones y el desarrollo de las redes neuronales. En la actualidad, sonnumerosos los trabajos que se realizan y publican cada año, las aplicacionesnuevas que surgen (sobretodo en el área de control) y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación).

DEFINICION DE REDES NEURONALES

Las redes neuronales se basan en generalizar información extraída de datos experimentales, tablas bibliografías o bases de datos los cuales se determinan por expertos humanos.dichas redes neuronales toman en cuneta las entradas (corriente, voltaje) y como salidas las señales del sistema (velocidad, temperatura y torque).

Ejemplo De Una Red Neuronal Totalmente Conectada

Page 3: Redes neuronales

Hay varias formas de definir a la s redes neuronales:

1) Una nueva forma de computación, inspirada en modelos biológicos.2) Un modelo matemático compuesto por un gran número de elementosProcesales organizados en niveles.3) un sistema de computación compuesto por un gran número de elementosSimples, elementos de procesos muy interconectados, los cuales procesan informaciónpor medio de su estado dinámico como respuesta a entradas externas.4) Redes neuronales artificiales son redes interconectadas masivamente enparalelo de elementos simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real del

REDES DE RETROPROPAGACION (backpropagation)

Es un principio para entender una red multicapa empleando el algoritmo de retropropagacion.

El algoritmo backpropagation para redes multicapa es una generalización del algoritmo de mínimos cuadrados. Ambos algoritmos realizan su laborDe actualización de peso y ganancias con base en el error medio cuadrático. La red propagation trabaja bajo aprendizaje supervisado y por tanto necesita un conjunto de instrucciones de entrenamiento que le describa cada salida y su valor de salida esperado.

Algoritmo Backpropagation

• No es garantizado que converja a zero en error deentrenamiento, puede converger a mínima local oscilar• En la practica converge a un bajo error para muchas redes• Muchas épocas (miles de iteraciones) pueden ser requeridas• Para evitar mínima local usar varias corridas (runs) con pesos inicializados aleatoriamente (randomrestarts).– Tomar resultados de red que da menor error.

Page 4: Redes neuronales
Page 5: Redes neuronales
Page 6: Redes neuronales

Algoritmo Backpropagation

• No es garantizado que converja a zero en error deentrenamiento, puede converger a mínima local oscilar• En la practica converge a un bajo error para muchas redes• Muchas épocas (miles de iteraciones) pueden ser requeridas• Para evitar mínima local usar varias corridas (runs) con pesos inicializados aleatoriamente (randomrestarts).– Tomar resultados de red que da menor error.