15
Perceptrón Multicapa Aplicaciones

Perceptrón Multicapa

  • Upload
    malory

  • View
    48

  • Download
    0

Embed Size (px)

DESCRIPTION

Perceptrón Multicapa. Aplicaciones. Compresión. Clasificación. Datos originales. Peligro. Calma. MLP -1. MLP. Datos comprimidos. MLP. Estado de un reactor nuclear. Datos originales. Perceptrón Multicapa. ¿ Para qué se puede usar un perceptrón multicapa?. Aproximación de funciones. - PowerPoint PPT Presentation

Citation preview

Page 1: Perceptrón Multicapa

Perceptrón Multicapa

Aplicaciones

Page 2: Perceptrón Multicapa

Perceptrón Multicapa

MLP

Latitud Longitud ... Altitud

Radiación solar

Aproximación de funciones

MLP

Estado de un reactor nuclear

Peligro Calma

ClasificaciónCompresión

MLP

Datos originales

Datos comprimidos

MLP-1

Datos originales

¿Para qué se puede usar un perceptrón multicapa?

Page 3: Perceptrón Multicapa

A New Compression Technique Using an Artificial Neural Network

• Objetivo: presentar un método basado en Redes Neuronales para compresión de imágenes

• Problemática: transmisión de imágenes como proceso costoso reducir la cantidad de bits aumentar el volumen de datos transmitidos en un lapso

• Superioridad de las redes neuronales frente a datos incompletos o con ruido

B. Verma, M. Blumenstein, S. KulkarniGriffith University - Australia

Page 4: Perceptrón Multicapa

Compresión de imágenes por encoder/decoder

• Entrada=salida (autoasociador)• M << N

Page 5: Perceptrón Multicapa

Compresión de imágenes por encoder/decoder

• Entrada: ventanas de 8x8 de la imagen (blanco y negro). Las entradas similares fueron eliminadas

• Parámetros:

– Cantidad de neuronas en la capa oculta: 20– Pares del conjunto de entrenamiento: entre 100 y 400– Velocidad de aprendizaje: 0.2 – Momentum: 0.2

Page 6: Perceptrón Multicapa

Compresión de imágenes con wavelets

“Improving Wavelet Image Compression with Neural Networks”, Christopher Burges, Patrice Simard y Henrique Malvar

Transferencia de imágenes comprimidas con wavelets

– Wavelet es una transformada, como Taylor o Fourier• señal = a f1(x) + b f2(x) + c f3(x) + ...

– Se transmiten los coeficientes (a,b,c) discretizados y codificados

Si se consigue codificarlos con menos bits, la imagen ocupa menos.

Page 7: Perceptrón Multicapa

• Con un MLP se intenta predecir el siguiente coeficiente a partir de los anteriores

Se logra que el residuo (lo que se transmite) sea mucho más chico, y pueda ser codificado con menos bits

Compresión de imágenes con wavelets

Page 8: Perceptrón Multicapa

-Predictor

-Una capa oculta (20 unidades) y una unidad de salida, sigmoideas

-Las unidades de entrada corresponden al contexto del coeficiente a predecir (24 / 42 unidades).

-Valores de velocidad de aprendizaje: 0.1; 0.01

-Se entrena una red por cada subbanda de detalle de resolución 0 y 1

-Entrenamiento con un conjunto fijo de16 imágenes. Testeo 7 imágenes

-Conjunto de entrenamiento para LH0: 150.000 patrones (con más patrones el resultado no mejoraba)

-Medida de error: Error Cuadrático Medio

Compresión de imágenes con wavelets

Page 9: Perceptrón Multicapa

Resultados

- Buena calidad de la imagen reconstruida

- Mejora la tasa de compresión para la misma calidad de imagen

- El uso del predictor incorpora un tiempo adicional de procesamiento

Compresión de imágenes con wavelets

Page 10: Perceptrón Multicapa

• Modelo más usado: Hidden Markov Model

• Un Modelo de Markov es un Autómata Finito, con probabilidades asignadas a las transiciones

Reconocimiento de voz

• En un Hidden Markov Model no podemos saber en qué estado estamos.• A partir de algunos datos tenemos una distribución de probabilidad sobre

los estados.

• Si: estado i

• aij: transición entre el estado i y el estado j

Page 11: Perceptrón Multicapa

qi: estado i

P(qi|qj): probabilidad de pasar del estado i al estado j

u: emisión

bi(u): probabilidad de obtener la emisión u en el estado i

Reconocimiento de voz

Fonema

Probabilidad de que el fonema j aparezca después del fonema i

Sonido

Probabilidad de que el fonema i sea pronunciado con el sonido u

Page 12: Perceptrón Multicapa

“"An Introduction to HMM/Connectionist Continuous Speech Recognition", Nelson Morgan and Hervé Bourland

• Modelos híbridos: Utilizan un MLP para estimar la probabilidad de que un sonido x corresponda a un fonema i

–Entrada: Características del sonido–Salida: Fonema que representa el sonido

{0,0,...,1,...,0}

Se puede demostrar que entrenando de esta manera se consigue una red cuya salida es la probabilidad de que la entrada pertenezca a cada una de las clases

{0.2, 0.4, 0.1, ...} = 1.Nelson Morgan1988 (Paper original): Precisión 30%1995: Precisión 70%

• 9 x 26 entradas• 500 – 4000 unidades en la capa oculta• 61 salidas

Reconocimiento de voz

Page 13: Perceptrón Multicapa

• Características importantes

– Actualización on-line

– Cross validation para mejorar la generalización y evitar el sobreentrenamiento

• Conjunto de 10%-20% de los patrones de entrenamiento para validación• Después de cada época se calcula el error en ese conjunto.• Si el error no mejoró en ese conjunto, se reduce la velocidad de aprendizaje

– Es muy importante la representación de la entrada

• Características dinámicas (que dependen de la secuencia de frames)• Más de un frame por vez (información de contexto)

– Función de energía: entropía o Kullback-Leibler

i i

ii O

E ln

Reconocimiento de voz

Page 14: Perceptrón Multicapa

Calibración de cámara de video

A partir de una imagen de video, un robot tiene que deducir la distancia y la orientación respecto de un objeto

Características:

• No paramétrico– No requiere estimación de parámetros (distorsión de la lente, distancia

focal, etc)

• Método aproximado– La precisión aumenta con el tamaño del conjunto de entrenamiento

A Non-parametric Method for Video Camera Calibration Using a Neural Network", Enrique Segura

Page 15: Perceptrón Multicapa

Calibración de cámara de video

f(x,y) = (d,θ,h)

x,y coordenadas de la cámara (CCD)

d,θ distancia y ángulo al objeto

h tamaño del objeto

Se utiliza un MLP para aproximar la función f.

Una capa oculta, unidades sigmoideas, aprendizaje con el algoritmo SAGA (simulated annealing + gradient descent + adaptative growing)