31
1 Universidad Autónoma de Coahuila. Ingeniero en Sistemas Computacionales. Materia: Metodología de la Investigación. Tema: Redes Neuronales Artificiales (RNA) Profesor: M.A. Juan Carlos López Sarmiento. Alumno: Cecilio Andreu Moctezuma. 22 de Octubre 2010

Redes neuronales

  • Upload
    anlie

  • View
    1.324

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Redes neuronales

1

Universidad Autónoma de Coahuila.

Ingeniero en Sistemas Computacionales.

Materia: Metodología de la Investigación.

Tema: Redes Neuronales Artificiales (RNA)

Profesor: M.A. Juan Carlos López Sarmiento.

Alumno: Cecilio Andreu Moctezuma.

22 de Octubre 2010

Page 2: Redes neuronales

2

INDICE GENERAL.

1. ¿Por qué esta investigación?.......................................................................3

2. El objetivo de esta investigación…………………………………..…….…….3

3. Introducción……………………………………………………….………..……4

4. Inspiración biológica……………………………………………….……..……..7

5. Definición de redes neuronales artificiales (RNA)…………….……………..7

6. Sistema neuronal biológico……………………………………….…...……….8

7. Sistema neuronal artificial…………………………………………....……….11

8. Niveles o capas de neuronas…………………………..……….…………....12

9. Evolución histórica………………………………………..……….………..…13

10. Campo de aplicación…………………………………………..……..……..…16

11. ¿Cómo se construyen las Redes Neuronales?..........................................17

12. Elemento básico. De la (RNA)…….……………………………..…….…..…17

13. Tipo de información que manejan (RNA)…………………………...………18

14. Los elementos que constituyen la neurona son……………….…..……….19

15. Peso sinóptico…………………………………………………….……………20

16. El aprendizaje de las redes neuronales……………………….….…………21

17. Ejemplo…………………………………………………………….……………22

18. Conclusión……………………………………………………….….………….30

19. Bibliografías……………………………………………………….……………31

Page 3: Redes neuronales

3

¿Por que de esta investigación?

Mi investigación es sobre redes neuronales, ya que en la actualidad se utilizan en

las empresas, hospitales, problemas matemáticos, etc. Porque se les puede

agregar una gran cantidad de datos y son mas rápidas en procesar la información

que el cerebro humano y tiene un margen de error muy mínimo o ninguno.

Actualmente son la punta de la tecnología por su gran procesamiento de

información. Hoy en día existen una gran cantidad de sistemas de software

comerciales que se basan en los análisis de datos para hacer tareas como:

análisis financieros, vigilancia, economía.

Los biólogos y los ingenieros de software, los de robótica han tenido que unirse

para poder llevar acabo este tipo de redes aportando cada uno parte de sus

conocimientos para hacer mas rápido una tarea especifica y compleja.

El objetivo de esta investigación es: darnos cuenta has donde a llegado el ser

humano con la ayuda de la tecnología y como a ido evolucionando que,

actualmente hay máquinas inteligentes y con la apariencia de un ser humano. Y

como se han inspirado en el cerebro los ingenieros para poder realizar este tipo de

investigaciones y poder llevarlas a la tecnología.

Conocer la inspiración biológica de las Redes Neuronales Artificiales (RNA)

y sus fundamentos.

Entender el funcionamiento de los modelos de las RNA.

Identificar en donde se pueden aplicar los modelos de RNA.

Page 4: Redes neuronales

4

Introducción.

Muchos de los desarrollos del hombre se deben a su capacidad para explicar y

emular funciones que son realizadas por seres vivos.

Por ejemplo, se puede citar el radar, que surge como imitación de la forma como

un murciélago es capaz de detectar los objetos que están en su camino sin

necesidad de verlos, por medio de emisión de una onda ultrasónica, la posterior

recepción de la señal de eco y su procesamiento. Así como el anterior hay muchos

ejemplos más: El helicóptero, el avión, el submarino.

Existen dos tipos de visión nocturna:

por aumento de luz y por visión

térmica, ambas técnicas son

utilizadas por los animales. La retina

de un animal (la parte de atrás del ojo

donde se forma la imagen) está

compuesto mayormente por dos tipos

de células sensibles a la luz llamadas

bastones y conos. Los bastones son

responsables para potenciar los

estímulos lumínicos pequeños

Page 5: Redes neuronales

5

Radares y murciélagos

Ambos, el radar y el murciélago utilizan

el mismo principio: el eco. Las ondas

reflejadas por los objetos son

percibidas por los oídos del murciélago

y, en el otro caso, por una antena de

radar que las transforma en

información.

El avión y las aves

El principio que utilizan los aviones es

básicamente el mismo que utilizan las

aves, es la forma del ala y su posición

relativa con respecto a la corriente de

aire lo que produce la fuerza de

sustentación.

El submarino y el nautilos

Los submarinos poseen "tanques de

inmersión" ubicados a ambas bandas

los que, una vez inundados, le dan al

submarino una flotabilidad apenas

positiva. Posee otro tanque, ubicado en

el centro, relativamente chico, que al

ser totalmente inundado le da al buque

flotabilidad negativa para ir a inmersión

Page 6: Redes neuronales

6

El camarón mantis y los

aparatos de DVD. El ojo del

camarón mantis puede convertir

luz de todos los colores del

espectro visible. Las

investigaciones apuntan a que,

tomando como modelo el ojo de

este camarón, los ingenieros

podrían fabricar un aparato de

DVD que reprodujera discos con

mucha más información que los

actuales.

Aunque el hombre ha sido capaz de emular funciones de los animales, para él

siempre ha sido un sueño poder conocer e imitar, la llamada por muchos la

máquina perfecta: el cerebro humano. Cuando la neurociencia pudo explicar de

forma un poco convincente el funcionamiento de la unidad principal de

procesamiento de información que posee el cerebro, la neurona, surge casi de

manera automática la idea de poder emular dicho funcionamiento en un elemento

artificial "La neurona artificial."

Page 7: Redes neuronales

7

Inspiración biológica.

El cerebro humano.

• Trata gran cantidad de información.

• Capacidad de tratar situaciones nuevas.

• Capacidad de aprendizaje

• Almacenamiento distribuido.

• No binario, no estable y no secuencial.

• Poder desconocido

• 1011 Neuronas (procesadores)

• 1000 – 10000 conexiones por neurona.

• Capacidad basada en las conexiones.

• Cada neurona es muy compleja.

Definición de redes neuronales artificiales (RNA).

Las Redes Neuronales Artificiales (RNA) o sistemas conexionistas son sistemas

de procesamiento de la información cuya estructura y funcionamiento están

inspirados en las redes neuronales biológicas. Consisten en un conjunto de

elementos simples de procesamiento llamados nodos o neuronas conectadas

entre sí por conexiones que tienen un valor numérico modificable llamado peso.

Page 8: Redes neuronales

8

Los tres conceptos claves de los sistemas biológicos, que se pretenden emular en

los artificiales son:

• Paralelismo de cálculo.

• Memoria distribuida.

• Adaptabilidad al entorno.

Las redes neuronales artificiales (RNAs) son modelos computacionales que

surgieron como un intento de conseguir formalizaciones matemáticas acerca de la

estructura del cerebro. Las RNAs imitan la estructura del hardware del sistema

nervioso, centrándose en el funcionamiento del cerebro humano, basado en el

aprendizaje a través de la experiencia, con la consiguiente extracción de

conocimiento a partir de la misma.

Sistema neuronal biológico:

Los elementos básicos de un sistema neuronal biológico son las neuronas,

agrupadas en redes compuestas por millones de ellas y organizadas a través de

una estructura de capas, que constituyen un sistema con funcionalidad propia.

Page 9: Redes neuronales

9

En general una neurona consta de un cuerpo celular más o menos esférico de 5 a

10 micras de diámetro, del que sale una rama principal el axón, y varias ramas

más cortas denominadas dendritas.

Neurona.

• Pueden presentar muchas formas, aunque presentan un aspecto similar.

• Cuerpo celular o soma (10 – 80 micras).

• Dendritas de entradas

• Un axón de salida

• Sinapsis de conexión.

Page 10: Redes neuronales

10

En la tabla 1 se muestra un paralelo entre un computador secuencial (Computador de Von Neumann) y un sistema biológico

Característica Computador secuencial Sistema biológico neuronal

Unidad de Procesamiento

Compleja, Veloz, Única Simple, Lenta, Muchas

Memoria Separada del procesador, Localizada

Integrada dentro del procesador, Distribuida, Direccionable por contenido

Procesamiento de los Datos

Centralizado, Secuencial, Programas almacenados

Distribuido ,Paralelo, Auto aprendizaje

Confiabilidad Muy vulnerable Robusto

Especialización Manipulaciones simbólicas y numéricas

Problemas perceptuales

Ambiente de operación

Bien definido, Muy restringido Pobremente definido, Sin restricciones

En la tabla 2 se muestra la velocidad de procesamiento de información del cerebro

y la computadora.

Page 11: Redes neuronales

11

Sistema neuronal artificial:

En un sistema neuronal artificial puede establecerse una estructura jerárquica

similar, de forma RNA puede concebirse como una colección de procesadores

elementales (neuronas artificiales), conectados a otras neuronas o bien a entradas

externas y con una salida que permite propagar las señales por múltiples caminos.

El elemento esencial de partida es la neurona artificial, que se organiza en capas;

varias capas constituyen una red neuronal; y, por ultimo, una red neuronal (o un

conjunto de ellas), junto con las interfaces de entrada y salida constituirán el

sistema neuronal.

Page 12: Redes neuronales

12

Niveles o capas de neuronas.

La distribución de neuronas dentro de una red se realiza formando niveles o capas

de un número de neuronas determinado, donde se conoce como capa o nivel a un

conjunto de neuronas cuyas entradas provienen de la misma fuente (que puede

ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede

ser otra capa de neuronas).

Se pueden distinguir tres tipos de capas:

1. Capa de Entrada.

Es la capa que recibe directamente la información proveniente de las

fuentes externas de la red

2. Capa Oculta.

Son internas a la red y no tiene contacto directo con el exterior. El número

de niveles ocultos puede estar entre cero y un número elevado. Las

neuronas de la capa oculta pueden estar interconectadas de diferentes

maneras, lo que determina, junto con su número, las distintas tipologías de

redes neuronales.

3. Capa de Salida.

Transfieren información de la red hacia el exterior.

Page 13: Redes neuronales

13

Evolución histórica

Los primeros análisis acerca del comportamiento del cerebro y el pensamiento se

deben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles

(384 – 422 A.C).y Platón (427 – 347 A.C), continuadas en la Edad Media por

Descartes (1596 – 1650) y por los filósofos empiristas del siglo XVII.

En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista

computacional, si bien los trabajos pioneros para la construcción de modelos

matemáticos que imitasen el comportamiento de las neuronas biológicas se deben

a Warren McCulloch y Walter Pitts (neurofisiólogo y matemático, respectivamente),

que presentaron en 1943 uno de los primeros modelos abstractos de una neurona

artificial.

Page 14: Redes neuronales

14

La historia de las redes neuronales puede dividirse en varios periodos:

1. Primeros intentos: Se realizaron algunas simulaciones usando lógica formal.

McCulloch and Pitts (1943) desarrollaron modelos de redes neuronales basados

en su conocimiento de neurología. Sus redes se basaban en neuronas simples,

consideradas como dispositivos binarios con umbrales fijos. Los resultados de sus

modelos fueron funciones lógicas elementales tales como "a o b" y "a y b". Dos

grupos (Farley and Clark, 1954; Rochester, Holland, Haibit and Duda, 1956) lo

intentaron usando simulaciones computacionales. El primer grupo conformado por

investigadores de IBM mantenía un contacto cercano con neurocientíficos de la

universidad de McGill.

2. Tecnología emergente y promisoria: No solo la neurociencia influía en el

desarrollo de las redes neuronales, también los físicos y los ingenieros contribuían

al progreso de las simulaciones de redes neuronales. Rosenblatt (1958) revitalizó

fuertemente el interés y la actividad en esta área cuando diseñó y desarrollo su

Perceptrón. El Perceptrón tiene tres capas, incluida la capa del medio denominada

de asociación. Este sistema pudo aprender a conectar y asociar unas entradas

dadas a una unidad de salida aleatoria. Otro sistema fue el ADALINE (ADAptive

LInear Element) el cual fue desarrollado en 1960 por Widrow and Hoff (de la

Universidad de Stanford). El ADALINE fue un dispositivo electrónico analógico

hecho de componentes simples, con un método de aprendizaje diferente al del

Perceptron, empleando una regla de aprendizaje basada en mínimos cuadrados

(LMS).

3. Periodo de frustración y desprestigio: En 1969 Minsky and Papert

escribieron un libro en cual ellos generalizaban las limitaciones de un Perceptron

monocapa a sistemas multicapa. En el libro ellos decían: "...nuestro intuitivo juicio

es que la extensión (a sistemas multicapa) es una tarea estéril". El resultado de las

afirmaciones de este libro fue eliminar la financiación para los investigadores que

trabajaban con simulaciones de redes neuronales. Las conclusiones del libro de

Page 15: Redes neuronales

15

Minsky and Papert soportadas con el desencanto de los investigadores en el área,

trajo como resultado un gran prejuicio contra la actividad de la misma.

4. Innovación: Aunque el interés público por las redes neuronales era mínimo,

varios investigadores continuaron trabajando en el desarrollo de métodos

computacionales basados en neuromorfología para problemas de identificación de

patrones. Durante este periodo varios paradigmas fueron generados, los cuales

aun continúan con trabajos modernos, se puede mencionar a: Steve Grossberg

and Gail Carpenter quienes desarrollaron la teoría de la resonancia adaptativa,

ART (Adaptive Resonance Theory), Anderson y Kohonen (1982) quienes

desarrollaron técnicas para aprendizaje asociativo. Hopfield (1984) quien

desarrolló una red neuronal haciendo un símil energético. Werbos (Paul Werbos

1982) desarrolló y usó el método de aprendizaje conocido como Backpropagation,

destacando que varios años después de popularizarse este método, es

actualmente la arquitectura de red neuronal mejor conocida y más utilizada en las

aplicaciones de redes neuronales. En esencia una red Back-propagation es un

Perceptron con múltiples capas, con diferentes funciones de activación en las

neuronas artificiales y con una regla de aprendizaje más robusta y confiable.

5. Resurgimiento: Durante el final de la década de los 70s y principios de los 80s,

fue importante el resurgimiento del interés en el campo de las redes neuronales.

Varios factores han influenciado este movimiento, tales como la aparición de libros

y conferencias que han dado a conocer las bondades de esta técnica a personas

de diferentes áreas.

El financiamiento a proyectos de investigación en redes neuronales en Europa,

EUA y Japón que han hecho que aparezcan una gran variedad de aplicaciones

comerciales e industriales.

Page 16: Redes neuronales

16

6. Hoy: Se han realizado progresos muy significativos en el campo de las RNA, lo

suficientes como para atraer una gran atención e interés en financiar

investigaciones. Ya se encuentran comercialmente circuitos integrados basados

en RNAs y las aplicaciones desarrolladas resuelven problemas cada vez más

complejos. Sin lugar a dudas, hoy es un periodo de transición y fuerte evolución

para la tecnología en redes neuronales.

Campo de aplicación.

Las Redes neuronales artificiales son interesantes para una gran cantidad de

personas de diferentes áreas:

Científicos de la computación que quieren averiguar sobre las propiedades

del procesamiento de información no-simbólica con una red neuronal y

sobre sistemas de aprendizaje en general.

Estadísticos utilizan redes neuronales como modelos de clasificación y

regresión no lineal flexible

Ingenieros de varias especialidades se aprovechan de las capacidades de

redes neuronales en muchas áreas, como procesamiento de señales y

control automático

Los científicos cognoscitivos ven redes nerviosas como un posible aparato

para describir modelos de pensamiento y conciencia (función cerebral de

alto-nivel).

Neuro-fisiólogos utilizan redes neuronales para describir y explorar

funciones cerebrales de medio-nivel (memoria del ej., sistema sensorial y

motriz).

Físicos usan redes neuronales para modelar fenómenos en mecánica

estadística y para muchas otras tareas.

Biólogos utilizan Redes Neuronales para interpretar sucesiones del

nucleótido.

Page 17: Redes neuronales

17

Filósofos y otras personas también pueden ser interesadas en Redes

Nerviosas por las varias razones.

Las RNA con su capacidad para deducir un significado desde datos complicados o

imprecisos, pueden ser utilizadas para detectar patrones o detectar una tendencia

que es muy compleja de hallar por una persona con modelos determísticos o por

otras técnicas computacionales tradicionales.

Una red entrenada puede ser vista como un experto en el manejo de la

información que se le ha dado para analizar. Este experto puede ser utilizado para

proporcionar proyecciones ante nuevas situaciones de interés.

¿Cómo se construyen las Redes Neuronales?

Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando

transistores o amplificadores operacionales, pero la mayoría de las RNA se

construyen en software, esto es en programas de computación.

Elemento básico de la (RNA).

Una neurona artificial es un elemento con entradas, salida y memoria que puede

ser realizada mediante software o hardware. Posee entradas (I) que son

ponderadas (w), sumadas y comparadas con un umbral (t).

La señal computada de esa manera, es tomada como argumento para una función

no lineal (f), la cual determinará el tipo de neurona y en parte el tipo de red

neuronal

Page 18: Redes neuronales

18

Tipo de información que manejan (RNA).

Las redes neuronales manejan dos tipos de información.

La primera, es la información volátil, que se refiere a los datos que se están

usando y varían con la dinámica de la computación de la red, se encuentra

almacenada en el estado dinámico de las neuronas

El segundo tipo de información que manejan las redes neuronales, es la

información no volátil que se mantiene para recordar los patrones aprendidos y se

encuentra almacenada en los pesos sinápticos.

Page 19: Redes neuronales

19

Sinápticos: la conexión entre el axón de una neurona y las dendritas de otra

recibe el nombre de sinapsis o synapsis, y determina la fuerza y tipo de relación

entre ellas.

Las conexiones sinápticas son las vías o caminos de comunicación entre los

diferentes elementos de procesos (neuronas) y entre éstos y las entradas/salidas

del sistema.

Los elementos que constituyen la neurona son:

• Conjunto de entradas, Xj(t).

• Pesos sinápticos de la neurona i. Wij representa la intensidad de

interacción entre cada neurona pre sináptica j y la neurona post sináptica i.

• Regla de propagación g(Wij, Xj(t)). Proporciona el valor del potencial post

sináptico hi(t) = g(Wij, Xj(t)) de la neurona i en función de sus pesos y

entradas.

Page 20: Redes neuronales

20

• Función de activación fi(ai(t-1), hi(t)), que proporciona el estado de

activación actual ai(t) =fi(ai(t-1), hi(t)) de la neurona i, en función de su

estado anterior ai(t-1) y de su potencial post sináptico actual.

• Función de salida Fi(ai(t)), que proporciona la salida actual yi(t) = Fi(ai(t)) de la

neurona i en función de su estado de activación.

De este modo, la operación de la neurona i puede expresarse como:

yi(t) = Fi(fi[ai(t-1), g(Wij, Xj(t))])

Interacción entre una neurona pre sináptica y una post sináptica:

Peso sináptico

Si el peso es positivo tendera a excitar a la neurona post sináptica, si el peso es

negativo tenderá a inhibirla. Así se habla de sinapsis excitadora e inhibidora en las

redes neuronales artificiales.

Page 21: Redes neuronales

21

El aprendizaje de las redes neuronales.

Es el proceso de presentar los patrones a aprender, a la red y el cambio de los

pesos de las conexiones sinápticas usando una regla de aprendizaje.

La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas,

que usando técnicas como minimización del error o la optimización de alguna

"función de energía", modifican el valor de los pesos sinápticos en función de las

entradas disponibles y con ello optimizan la respuesta de la red a las salidas que

deseamos.

El aprendizaje se basa en el entrenamiento de la red con patrones, que

usualmente son llamados patrones de muestra o entrenamiento. El proceso usual

del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los

pesos de las sinapsis, hasta que convergen a un conjunto de pesos óptimos que

representan a los patrones lo suficientemente bien, entonces mostrará una

respuesta satisfactoria para esos patrones. Esto es, sus pesos sinápticos se

ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento

que le hemos mostrado.

Podemos distinguir tres tipos de aprendizaje.

El modo más intuitivo es el Aprendizaje supervisado, que consiste en que la

red dispone de los patrones de entrada y los patrones de salida que deseamos

para esa entrada y en función de ellos se modifican los pesos de las sinapsis para

ajustar la entrada a esa salida.

Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en no

presentar patrones objetivos, si no solo patrones de entrada, y dejar a la red

clasificar dichos patrones en función de las características comunes de los

patrones.

Page 22: Redes neuronales

22

Existe otro tipo de aprendizaje, que usa una formula híbrida, el supervisor no

enseña patrones objetivos si no que solo le dice se acierta o falla en su respuesta

ante un patrón de entrada. Es el aprendizaje reforzado,

Ejemplo:

Resumen

Este trabajo tuvo como objetivo predecir las manifestaciones macroscópicas de los

dos principales fenómenos de transferencia de masa en tres frutas (melón,

lechosa y manzana) osmóticamente deshidratadas.

Se consideró el efecto de cinco variables de proceso: tipo de alimento,

concentración de la solución osmótica, tamaño de la fruta, temperatura y tiempo

de proceso, sobre la pérdida de agua y ganancia de sólidos de las frutas. Para ello

se desarrolló un modelo neuronal artificial compuesto por cinco neuronas de

entrada y dos capas ocultas de procesamiento de información compuestas por

cinco neuronas cada una, utilizando funciones sigmoides como medio de

comunicación, y dos neuronas de salida representando a las variables

dependientes del modelo. La arquitectura neuronal desarrollada y entrenada

mediante el algoritmo Levenberg-Marquardt permitió predecir más de los 90% de

la variabilidad de los datos en los dos fenómenos de transferencia estudiados,

constituyéndose en un modelo alternativo a las ecuaciones para métricas

desarrolladas hasta el momento.

Introducción

La deshidratación osmótica es una tecnología que ha sido aplicada principalmente

en frutas, con el objeto de reducir la actividad de agua y el contenido de humedad

de las mismas, para así generar alimentos de humedad intermedia con una

Page 23: Redes neuronales

23

estabilidad relativamente limitada, por lo cual, el proceso osmótico es usualmente

combinado con otra técnica de preservación que permita extender la vida útil del

alimento.

Generalmente, el proceso se desarrolla mediante la inmersión de trozos de fruta

en soluciones de sacarosa, mediante el control de variables como temperatura,

agitación y tiempo de proceso. En el curso de la tecnología se suscitan tres

fenómenos de transferencia de masa: la migración de agua desde la fruta hacia la

solución de impregnación, la transferencia de solutos de la solución a la fruta y la

salida de solutos propios del alimento a la solución.

El tercer fenómeno de transferencia resulta cuantitativamente despreciable en

comparación con los dos primeros, los cuales caracterizan el proceso y permiten

el logro de los objetivos ulteriores de la tecnología: la estabilidad del alimento

mediante el control de su contenido de humedad y la actividad de agua, y la

posibilidad de aplicación de efectos de formulación específicos mediante

componentes específicos.

En tal sentido, el objetivo de la presente investigación es desarrollar un modelo de

red neuronal artificial basado en un algoritmo de retro propagación del error, para

el modelado predictivo de los fenómenos de pérdida de agua y ganancia de

sólidos en frutas osmóticamente deshidratadas.

Page 24: Redes neuronales

24

Materiales y Métodos

Proceso de deshidratación osmótica

Las frutas usadas en la investigación, lechosa, melón y manzana, seleccionadas

en virtud de su naturaleza porosa y por ende facilitadora de los fenómenos de

transferencia de masa, se obtuvieron de un mismo establecimiento comercial, sin

lesiones externas y con características similares de forma, tamaño y color. Se

determinó el contenido de humedad inicial de las frutas, de acuerdo a la

metodología de la AOAC (AOAC, 1990), obteniéndose los siguientes resultados:

lechosa 88,93% ± 0,71% (n=5), melón 93,07% ± 0,85% (n=5) y manzana 87,32%

±0,82% (n=5). Una vez lavadas, las frutas fueron picadas en cubos mediante la

utilización de un vernier y un cuchillo previamente desinfectado. Es importante

señalar que las frutas, con características similares de madurez (de acuerdo a la

relación ºBrix / pH), fueron asignadas aleatoriamente a cada condición

experimental (1 fruta o individuo por tratamiento) y se obtuvieron 10 unidades

experimentales (cubos) de cada fruta para conformar una réplica de cada i-ésimo

tratamiento (Tabla I). La obtención de cubos de geometría regular con

características finitas, permitió reducir la dimensión característica de las frutas y

minimizar los tiempos de impregnación empleados. Una vez cortadas y registrado

el peso inicial de las muestras de frutas, las mismas se sumergieron en las

soluciones de impregnación (soluciones de sacarosa), para cada una de las

condiciones experimentales (Tabla I). Para satisfacer cada una de las condiciones

de temperatura, las soluciones fueron colocadas en baños de agua y tapadas para

evitar la evaporación de las soluciones. Al finalizar el tiempo de proceso, los trozos

de fruta fueron cuidadosamente secados con papel absorbente para remover el

exceso de solución osmótica de la superficie y su peso se registró

inmediatamente. Posteriormente, las muestras se secaron en un horno de

convección a 60ºC por 16h., y posteriormente en una estufa al vacío a 70ºC por

24h., para determinar la masa seca de las frutas osmóticamente tratadas y

Page 25: Redes neuronales

25

calcular por balance de masa el contenido de humedad de las mismas

(Panagiotou et al., 1998). Cada condición experimental se realizó por duplicado.

Con la primera réplica se entrenó la arquitectura neuronal artificial y con la

segunda, constituida a partir de muestras de frutas totalmente independientes de

las utilizadas para la primera réplica, se validó la habilidad predictiva y de

generalización del modelo (Millán et al., 2001).

Como se señaló en la introducción, los dos principales fenómenos de transferencia

de masa que se suscitan en la deshidratación osmótica, se evidencian

macroscópicamente mediante la pérdida de agua (PA) y la ganancia de sólidos

(GS), las cuales pueden ser definidas por las ecuaciones.

Page 26: Redes neuronales

26

Donde M0: masa inicial de fruta antes de ser sometida al tratamiento osmótico, M:

masa de fruta luego del tratamiento osmótico, m0: masa seca inicial de la muestra

de fruta, y m: masa seca de la fruta luego del tratamiento osmótico.

Desarrollo del modelo neuronal artificial

Se desarrolló una estructura neuronal de retro propagación del error con 5

neuronas de entrada, constituidas por las variables tipo de alimento (melón,

lechosa y manzana), concentración de la solución de impregnación, tamaño de la

muestra de fruta, temperatura y tiempo de proceso, y dos neuronas de salida,

representativas de la pérdida de agua y ganancia de sólidos, como

manifestaciones macroscópicas de la transferencia de agua desde la fruta hacia la

solución de impregnación y la transferencia de solutos desde la solución de

impregnación hacia la fruta, respectivamente. Los valores de entrada a las i-

ésimas neuronas de entrada estuvieron constituidos por los valores que

conforman las variables independientes mencionadas (Tabla I). A estos valores se

asoció aleatoriamente un peso de conexión de poca magnitud, que permitió la

propagación de la información a la primera capa de neuronas ocultas de

procesamiento de datos. La asignación aleatoria de los pesos de inicio de poca

magnitud es la técnica normalmente usada cuando no se dispone de información

previa acerca del sistema que se está modelando, ya que impide la temprana

Page 27: Redes neuronales

27

saturación de la red por cuanto induce a la ruptura de simetría. Así, la entrada neta

de la j-ésima neurona de la capa oculta puede representarse a través de la

ecuación

Donde xpi: entrada que recibe la neurona procedente de la i-ésima unidad de

entrada, wjih: peso de la conexión y jh: término de tendencia. El índice h se

refiere a magnitudes de la capa oculta y el subíndice p al p-ésimo vector de

entrenamiento. El establecimiento del número de capas ocultas y el número de

neuronas que conforman dichas capas se seleccionó mediante un proceso de

ensayo y error

Luego, la salida de las j-ésimas neuronas de la capa oculta se transfirió a las

neuronas de la capa de salida mediante una función de transferencia fjh. Dicha

salida se representa por la ecuación

Donde ypj: salida neta de cada j-ésima neurona de la capa oculta, y netpjh:

entrada neta a la j-ésima neurona de la capa oculta. La función de transferencia

más empleada en las redes de retro propagación del error es la tangente

hiperbólica (Reed y Marks, 1999).

Luego, la entrada neta a la capa de neuronas de salida, representadas por el

número de variables dependientes del sistema, en este caso la pérdida de agua y

la ganancia de sólidos de las frutas osmóticamente deshidratadas, se representa

mediante la ecuación

Page 28: Redes neuronales

28

Donde el índice 0 se refiere a magnitudes de la capa de salida, ypj: entrada

procedente de la j-ésima neurona oculta, wkj0: peso de conexión entre la j-ésima

unidad oculta y la k-ésima neurona de salida, k0: término de tendencia asociado

a la k-ésima neurona de salida, y netpk: entrada neta a la k-ésima neurona de

salida. Finalmente, la salida de las neuronas de salida se comparó con un vector

objetivo constituido por los valores experimentales de pérdida de agua y ganancia

de sólidos y se generó la siguiente función de error, constituida por la suma de

errores cuadráticos (Reed y Marks, 1999):

Donde ESSE: suma de cuadrados del error, p: vector de entrenamiento o conjunto

de datos experimentales, i: salida emitida por las neuronas de salida de la red, y

tpi y ypi representan el objetivo o conjunto de valores observados y la salida de la

red, respectivamente.

El proceso de entrenamiento y aprendizaje de la red se basó entonces en la

reducción de la función de error anterior, a través de un proceso iterativo de

actualización de pesos de conexión y términos de tendencia que se representa

esquemáticamente en la Figura 1.

Page 29: Redes neuronales

29

La arquitectura neuronal, así como el proceso de entrenamiento, aprendizaje y

posterior simulación de la red, se desarrollaron con el módulo de redes del

programa Matlab 6.0.

Page 30: Redes neuronales

30

Conclusión.

Los computadores digitales actuales superan al hombre en su capacidad de

cálculo numérico y el manejo de símbolos relacionales. Sin embargo, el hombre

puede solucionar problemas mucho más complejos de percepción (por ejemplo,

reconocer a un amigo entre un tumulto desde un simple vistazo de su cara o al

escuchar su voz, incluso por el modo de caminar; definir la habitabilidad de un

aula a partir de sensaciones de temperatura, ruido, humedad, iluminación, etc.) a

muy altas velocidades y sin necesidad de concebir un complejo modelo

matemático o computacional.

La respuesta está en la arquitectura del sistema neuronal biológico que es

completamente diferente a la arquitectura del computador.

En este momento se ha dado solución a problemas con altos niveles de

incertidumbre que con métodos tradicionales jamás se habría obtenido.

Soluciones tan novedosas e interesantes como la reconstrucción craneofacial

para la identificación de hombres, música neurocomputacional, sistemas de

detección de virus en computadores conocidos y desconocidos, identificación de

usuarios en cajeros automáticos desde la imagen del iris de los ojos,

reconocimiento de emisores en comunicaciones, diagnóstico de hepatitis,

recuperación de telecomunicaciones ante fallas en el software, interpretación de

palabras chinas, detección de minas submarinas, análisis de texturas,

reconocimiento de objetos tridimensionales y reconocimiento de texto manuscrito.

Page 31: Redes neuronales

31

9.- Bibliografías:

Flórez López Raquel. (2008). Las Redes Neuronales Artificiales. Prited in

Spain.

Pino Diez Raúl (2001). Introducción a la inteligencia artificial. Servicio de

publicaciones Universidad de Oviedo

Jesús de la Fuente María (1999). Aplicaciones de las redes neuronales en

supervisión, diagnosis y control de procesos. Impreso en Venezuela.

Flórez López José María ( ). Las redes neuronales artificiales.

Hernández López Leonor. ( ). Predicción y optimización de emisores y

consumo mediante redes neuronales

http://www.redes-neuronales.netfirms.com/tutorial-redes-

neuronales/clasificacion-de-redes-neuronales-respecto-al-aprendizaje.htm

http://www.books.google.com/books?id=X0uLwi1Ap4QC&pg=PA16&dq=co

ncepto+de+redes+neuronales+artificiales&hl=es&ei=dwW_TMuzIoL88Aaa-

826Bg&sa=X&oi=book_result&ct=book-

thumbnail&resnum=1&ved=0CC8Q6wEwAA#v=onepage&q=concepto%20d

e%20redes%20neuronales%20artificiales&f=false

http://members.tripod.com/jesus_alfonso_lopez/RnaIntro.html

http://listas.20minutos.es/lista/inventos-humanos-basados-en-aptitudes-

animales-187409/

http://www.answermath.com/neural-networks/tutorial-esp-4-

construccion.htm