Upload
escom
View
1.841
Download
1
Embed Size (px)
Citation preview
2. Que es LVQ?
3. Cual es su ventaja?
4. ...
5. Arquitectura
6. ...
7. ...
8. Funciones de Matlab.
9. Inicializacin.
10. Simulacin.
11. Regla de aprendizaje.
12.
13.
14.
15. ENTRENAMIENTO DE LVQ
16. ENTRENAMIENTO DE LVQ
17. ENTRENAMIENTO DE LVQ
18. ENTRENAMIENTO DE LVQ
19. ENTRENAMIENTO LVQ
20. 1.2.4 CUANTIZACIN DEL VECTOR DEAPRENDIZAJE PARTE 2 21. ARQUITECTURA DE LA LVQ. La entrada de red no es calculada mediante el producto punto de los vectoresprototipos con la entrada. En vez de esto, la entrada de la red es la distancia negativa entre los vectores prototipos y la entrada. 22. Subclases Para la red LVQ, la neurona ganadora en la primera capa indica lasubclase a la cual el vector de entrada pertenece. Posiblemente existanvarias neuronas diferentes (subclases) las cuales hacen cada clase. La segunda capa de la redLVQcombina las subclasesen unasola clase. Las columnas deW 2 representan subclases, y las filasrepresentan clases. La matrizW 2 tiene un1 en cada columna, con los otros elementos iguales a cero. La filaen la cual el1 ocurreindica a cual clase pertenece la subclase apropiada. w k i 2 1 = subclasei es una parte de laclase k 23. Ejemplo Subclases 1, 3 y 4 pertenecen a la clase 1. Subclase 2 pertenece a la clase 2. Subclases 5 y 6 pertenece a la clase 3. Una red competitiva de una sola capa puede crear regiones de clasificacin convexas. La segunda capa de la redLVQpuede combinar las regiones convexas para crearcategoras ms complejas. 24. Aprendizaje LVQ Si el patrn de entrada se clasifica correctamente,entonces el peso ganador se mover hacia el vector de entrada de acuerdo a la regla de aprendizaje de Kohonen. Si el patrn de entrada se clasificaincorrectamente, entonces el peso ganadorse alejar del vector de entrada. El aprendizaje LVQcombina el aprendizaje competitivo con el aprendizaje supervisado. Se requiere un conjunto de ejemplos deentrenamiento para un comportamiento correcto de la red. 25. Ejemplo p 2 1 0 = t 2 0 1 = p 3 1 1 = t 3 1 0 = 26. PrimeraIteracin a 1 c o m p e t 0.25 0.75 T 0 1 T 0.75 0.75 T 0 1 T 1.00 0.25 T 0 1 T 0.50 0.25 T 0 1 T c o m p e t 0.354 0.791 1.25 0.901 1 0 0 0 = = = a 1 c o m p e t n 1 c o m p e t w 1 1 p 1 w 1 2 p 1 w 1 3 p 1 w 1 4 p 1 = = 27. Segunda capa Esta es la clase correcta, Por lo tanto el vector de pesos se mover hacia el vector de entrada. 28. Representacin: 29. Regiones de Decisin Finales 30. Practica3 Caractersticas de los MapasAuto - organizativosyla red LVQ 31. Mtodos LVQ-2.1 y LVQ-3
32. RedLVQ 2 Si la neurona ganadora en la capa oculta clasifica incorrectamente la entrada actual, se moverel vector de peso alejndose del vector de entrada. Sin embargo, tambin se ajustaran los pesos de las neuronasms cercanas al vector de entrada que lo clasificaran apropiadamente. Los pesos para esta segunda neurona deberan moverse hacia el vector de entrada. 33. RedLVQ 2
34. EjemploLVQ 2