85
Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Estimaci6n de Parametros en Modelos de Volatilidad

  • Upload
    others

  • View
    6

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Estimaci6n de Parametros en Modelos de Volatilidad

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

i

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

JESUS ANTONIO HERNANDEZ RIVEROS JUAN DAVID OSPINA ARANGO

Universidad Nacional de Colombia Sede Medellin

Grupo de investigaci6n en

Sistemas complejos naturales

Proyecto DIME 6549

~~NACIONAL UNIVERSIDAD

DE COLOMBIA V~~$) SEDE MEDELliN

~

~ 1 In I~

I 1 I-shy 2 1

~ 2

~

i shy

2 ~

Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos

copy Universidad Nacional de Colombia Sede Medellin

Q

i~ 23

copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~

25 p -gt

Primera edici6n Medellin abril de 2009 t~ 3 AlgOl

Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin

~ 32 F rt 33 M

ISBN 978-958-728-022-7 34 Al

Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10

escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A

Indice general

ih

~ C)

Introduccion 1

I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5

~ 11 Definicion del modelo ASVI 5~ ~ ~

N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10

~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13

Q 222 Estimaci6n del Modelo Auxiliar 14 lt

~ 23 Vector de Scores 15

24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~

-lt

l~ 3 Algoritmos Evolutivos 19

31 Introducci6n 19~

32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22

34 Algoritmos evolutivos 24

~in permiso -0 341 Operaciones geneticas 28

b 342 La aptitud 30

~ 343 La selecci6n 31A

~lt S z6 S

344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33

35 EI algoritmo EAMN 39

351 Resultados middot42

36 Algunas conclusiones acerca del algoritmo EAMN 47

4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55

42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57

43 Estimaci6n del modelo ASVI utilizando EAMN 60

431 Una comparaci6n 61

44 Conclusiones 61

A Programas en Matlab para la estimaci6n del modelo ASVI 63

A1 C6digo del EAMN 63

A2 C6digo para simular un proceso ASVI 65

A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66

A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67

A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69

A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71

Iodice de tablas

31 Resultados para la funci6n (

32 Resultados para la funci6n i

33 Resultados para la funci6n

34 Resultados para la funci6r i

35 Resultados para la funci6

36 Resultados para la funcic

41 Resultados de Estimacic

42 Resultados de Estimacil

43 Resultados de Estimaci

44 Resultados de Estimac

45 Errores porcentuales e I

46 Error Medio Cuadrati

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 2: Estimaci6n de Parametros en Modelos de Volatilidad

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

JESUS ANTONIO HERNANDEZ RIVEROS JUAN DAVID OSPINA ARANGO

Universidad Nacional de Colombia Sede Medellin

Grupo de investigaci6n en

Sistemas complejos naturales

Proyecto DIME 6549

~~NACIONAL UNIVERSIDAD

DE COLOMBIA V~~$) SEDE MEDELliN

~

~ 1 In I~

I 1 I-shy 2 1

~ 2

~

i shy

2 ~

Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos

copy Universidad Nacional de Colombia Sede Medellin

Q

i~ 23

copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~

25 p -gt

Primera edici6n Medellin abril de 2009 t~ 3 AlgOl

Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin

~ 32 F rt 33 M

ISBN 978-958-728-022-7 34 Al

Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10

escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A

Indice general

ih

~ C)

Introduccion 1

I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5

~ 11 Definicion del modelo ASVI 5~ ~ ~

N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10

~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13

Q 222 Estimaci6n del Modelo Auxiliar 14 lt

~ 23 Vector de Scores 15

24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~

-lt

l~ 3 Algoritmos Evolutivos 19

31 Introducci6n 19~

32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22

34 Algoritmos evolutivos 24

~in permiso -0 341 Operaciones geneticas 28

b 342 La aptitud 30

~ 343 La selecci6n 31A

~lt S z6 S

344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33

35 EI algoritmo EAMN 39

351 Resultados middot42

36 Algunas conclusiones acerca del algoritmo EAMN 47

4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55

42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57

43 Estimaci6n del modelo ASVI utilizando EAMN 60

431 Una comparaci6n 61

44 Conclusiones 61

A Programas en Matlab para la estimaci6n del modelo ASVI 63

A1 C6digo del EAMN 63

A2 C6digo para simular un proceso ASVI 65

A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66

A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67

A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69

A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71

Iodice de tablas

31 Resultados para la funci6n (

32 Resultados para la funci6n i

33 Resultados para la funci6n

34 Resultados para la funci6r i

35 Resultados para la funci6

36 Resultados para la funcic

41 Resultados de Estimacic

42 Resultados de Estimacil

43 Resultados de Estimaci

44 Resultados de Estimac

45 Errores porcentuales e I

46 Error Medio Cuadrati

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 3: Estimaci6n de Parametros en Modelos de Volatilidad

~

~ 1 In I~

I 1 I-shy 2 1

~ 2

~

i shy

2 ~

Estimacl6n de Parametros en Modelos de Volatilidad Estocastlca Usando Algoritmos Evolutlvos

copy Universidad Nacional de Colombia Sede Medellin

Q

i~ 23

copy Jesus Antonio Hernandez Riveros copyJuan David Ospina Arango 24~

25 p -gt

Primera edici6n Medellin abril de 2009 t~ 3 AlgOl

Centro de Publicaciones 31 Universidad Nacional de Colombia Sede Medellin

~ 32 F rt 33 M

ISBN 978-958-728-022-7 34 Al

Prohibida la reproducci6n total 0 parcial de esla obra por cualquier medio sin permiso ~ 34middot10

escrilo de la Universidad Nacional de Colombia Sede Medellfn c 34 ~ 34A

Indice general

ih

~ C)

Introduccion 1

I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5

~ 11 Definicion del modelo ASVI 5~ ~ ~

N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10

~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13

Q 222 Estimaci6n del Modelo Auxiliar 14 lt

~ 23 Vector de Scores 15

24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~

-lt

l~ 3 Algoritmos Evolutivos 19

31 Introducci6n 19~

32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22

34 Algoritmos evolutivos 24

~in permiso -0 341 Operaciones geneticas 28

b 342 La aptitud 30

~ 343 La selecci6n 31A

~lt S z6 S

344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33

35 EI algoritmo EAMN 39

351 Resultados middot42

36 Algunas conclusiones acerca del algoritmo EAMN 47

4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55

42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57

43 Estimaci6n del modelo ASVI utilizando EAMN 60

431 Una comparaci6n 61

44 Conclusiones 61

A Programas en Matlab para la estimaci6n del modelo ASVI 63

A1 C6digo del EAMN 63

A2 C6digo para simular un proceso ASVI 65

A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66

A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67

A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69

A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71

Iodice de tablas

31 Resultados para la funci6n (

32 Resultados para la funci6n i

33 Resultados para la funci6n

34 Resultados para la funci6r i

35 Resultados para la funci6

36 Resultados para la funcic

41 Resultados de Estimacic

42 Resultados de Estimacil

43 Resultados de Estimaci

44 Resultados de Estimac

45 Errores porcentuales e I

46 Error Medio Cuadrati

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 4: Estimaci6n de Parametros en Modelos de Volatilidad

Indice general

ih

~ C)

Introduccion 1

I~ I 1 El Modelo de Volatilidad Estocastica ASV1 5

~ 11 Definicion del modelo ASVI 5~ ~ ~

N 2 Melodo de los Momentos Eficiente 9 it ~ 21 Generalidades de la metodologfa GMM 10

~ 22 Metodo de los Momentos Eficiente 11f 221 Selecci6n del modelo auxiliar 13

Q 222 Estimaci6n del Modelo Auxiliar 14 lt

~ 23 Vector de Scores 15

24 Funci6n Objetivo 16 25 La densidad SNP 16 t--middot ~

-lt

l~ 3 Algoritmos Evolutivos 19

31 Introducci6n 19~

32 Por que algoritmos evolutivos 21~ ft 33 Metodos heurfsticos de optimizacion 22

34 Algoritmos evolutivos 24

~in permiso -0 341 Operaciones geneticas 28

b 342 La aptitud 30

~ 343 La selecci6n 31A

~lt S z6 S

344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33

35 EI algoritmo EAMN 39

351 Resultados middot42

36 Algunas conclusiones acerca del algoritmo EAMN 47

4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55

42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57

43 Estimaci6n del modelo ASVI utilizando EAMN 60

431 Una comparaci6n 61

44 Conclusiones 61

A Programas en Matlab para la estimaci6n del modelo ASVI 63

A1 C6digo del EAMN 63

A2 C6digo para simular un proceso ASVI 65

A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66

A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67

A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69

A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71

Iodice de tablas

31 Resultados para la funci6n (

32 Resultados para la funci6n i

33 Resultados para la funci6n

34 Resultados para la funci6r i

35 Resultados para la funci6

36 Resultados para la funcic

41 Resultados de Estimacic

42 Resultados de Estimacil

43 Resultados de Estimaci

44 Resultados de Estimac

45 Errores porcentuales e I

46 Error Medio Cuadrati

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 5: Estimaci6n de Parametros en Modelos de Volatilidad

344 Algoritmos Probabilfsticos y de Estimaci6n de la Distribuci6n 33

35 EI algoritmo EAMN 39

351 Resultados middot42

36 Algunas conclusiones acerca del algoritmo EAMN 47

4 Estimaci6n del modelo ASVI ss 41 Estimaci6n del modelo EGARCH-SNP (214) 55

42 Estimaci6n EMM con Optimizaci6n SQP y AG-SQP 57

43 Estimaci6n del modelo ASVI utilizando EAMN 60

431 Una comparaci6n 61

44 Conclusiones 61

A Programas en Matlab para la estimaci6n del modelo ASVI 63

A1 C6digo del EAMN 63

A2 C6digo para simular un proceso ASVI 65

A3 C6digo para estimar un proceso ASVI utilizando el metodo SMM 66

A4 C6digo objetivo para estimar un proceso ASVI utilizando el metodo SMM 67

A5 C6digo para estimar 32 momentos muestrales de una serie de tiempo 69

A6 C6digo para estimar un model0 ASVI utilizano AE hfbrido 71

Iodice de tablas

31 Resultados para la funci6n (

32 Resultados para la funci6n i

33 Resultados para la funci6n

34 Resultados para la funci6r i

35 Resultados para la funci6

36 Resultados para la funcic

41 Resultados de Estimacic

42 Resultados de Estimacil

43 Resultados de Estimaci

44 Resultados de Estimac

45 Errores porcentuales e I

46 Error Medio Cuadrati

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 6: Estimaci6n de Parametros en Modelos de Volatilidad

Jucion 33 1

39

middot42

47 ~

55 Indice de tablas 55

57

60 31 Resultados para la funcion de Rosenbrock 44

61 32 Resultados para la funci6n de Rastrigin 44

61 33 Resultados para la funci6n de Schwefel 45

34 Resultados para la funcion de Griewangk 4663

35 Resultados para la funcion Goldstein-Price 4663 36 Resultados para la funci6n de las seis jorobas de camello 47

j 65 I

M 66 41 Resultados de Estimaci6n QML en ASVI con AG-NM 56 todoSMM 67 42 Resultados de Estimacion EMM con SQP y AG 59 mpo 69 43 Resultados de Estimaci6n EMM con AG-SQP 60

71 44 Resultados de Estimacion EMM con EAMN 60

45 Errores porcentuales en los diferentes metodos de estimacion 61

46 Error Medio Cuadratico para cada metodo de optmizaci6n 61

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 7: Estimaci6n de Parametros en Modelos de Volatilidad

Indice de figuras

11 Precio Rendimiento histograma y asime~rfa de la volatilidad para un modelo

ASVI con w = -128 09 a -024 y = 018

31 Evoluci6n de la poblaci6n en la optimizaci6n de la funci6n de Rosenbrock 49

32 Evolucion de la poblacion en la optimizaci6n de la funcion de Rastrigin 50

33 Evolucion de la poblacion en la optimizacion de la fundon de Schwefel 51

34 Funcion de Griewangk 52

35 Evolucion de la pobladon en la optimizacion de la funci6n de Goldstein-Price 53

36 Evolucion de la poblaci6n en la optimizaci6n de la fundon de las seis jorobas

de camello 54

41 Desempefio del Algoritmo Genetico Hfbrido con SQP

42 Graflca de In 0 en la ecuacion (42) 57

43 Izquierda Distribuci6n de los valores de QT(O) para 0 E Bo(Oo) Derecha

Diagrama de (w8a) E Bo(Oo) El eje 2 corresponde a8 ella w y el

vertical a a 59

v

6

56

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 8: Estimaci6n de Parametros en Modelos de Volatilidad

middot 1

Introduccion

Hay situaciones en las que al analizar su comportamiento se observa que en algunas

propiedades del sistema han existido period os en los que la dispersion es mayor y otros

periodos en los que la dispersion es menor con 10 que se establece que en esas propiedades se

presenta volatilidad En esas situaciones es importante determinar cual es el comportamiento

de la varianza de esas propiedades a 10 largo del tiempo En terminos generales puede decirse

que la volatilidad es una estimaci6n de los cambios en una las propiedades de un sistema

Cuando la volatilidad no cambia a 10 largo del tiempo y si 10 hace es de forma conocida y

cierta se denomina volatilidad determinista Si los cambios observados a 10 largo del tiempo

son de forma desconocida 0 incierta nos enfrentamos a una volatilidad de tipo estocastica

En el caso determinista se utiliza como estimaci6n de la volatilidad Ia desviaci6n tfpica de

la serie En el caso estocastico para la estimaci6n se utilizan entre otros los modelos de

heterocedasticidad condicional autorregresiva (modelos ARCH) Ia generalizacion de estos

(modelos GARCH) o alguna de sus variantes En los modelos ARCH la modelizaci6n de

la volatilidad se caracteriza porque la varianza condicional depende de las observaciones

pasadas de la serie En los modelos GARCH la modelizacion de la volatilidad depende de

sus propios valores pas ados

Sin embargo cuando la volatilidad es estocastica nos enfrentamos en realidad al problema

de tener una fuente de aleatoriedad que no puede ser eliminada fiicilmente En un sentido

amplio en los modelos de volatilidad estocastica por un lado se desconoce su funci6n de

verosimilitud y por el otro la volatilidad es no con stante es no predecible y es funcion de un

proceso estocastico no observable Esta no observabilidad del proceso estocastico generador

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 9: Estimaci6n de Parametros en Modelos de Volatilidad

Estimaci6n de Paramotros en Modelos de Volatilidad Estetica Usando AlgOlitmos Evolutivo

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimacion de la distribucion con el fin de establecer los parametros de los

modelos de volatilidad estocastica

Existen diferentes formulaciones de modelos de volatilidad estocastica general EI prop6sishy

to esperado con la estimaci6n de tales modelos es encontrar el mas adecuado de manera que

se disponga de la mayor capacidad predictiva en el comportamiento de la propiedad del sisshy

tema que presenta volatilidad Un caso destacado de volatilidad estocastica se presenta en las

series temporales de rendimientos de activos financieros Al analizar algunos rendimientos

financieros se observa que en su comportamiento han existido periodos en los que la volashy

tilidad es mayor y otros periodos en los que la volatilidad es menor En esas situaciones es

importante determinar cual es el comportamiento de la volatilidad ya que esta se constitushy

ye en la principal variable asociada al riesgo La aplicadon de estos modelos de volatilidad

estocastica general en los mercados financieros y cambiarios se hace para con tar con preshy

dicdones de la volatiJidad con mediciones del riesgo y con valoracion de opciones entre

otros

En este proyecto de investigacion se considera el problema de estimar un modeo de voshy

latilidad estocastica ASVI usando Algoritmos Evolutivos para optimizar la fundon objetivo

que resulta al aplicar el Metodo de los Momentos Eficiente (EMM) Se plantea el problema

de optimizaci6n y se hace enfasis en las dificultades practicas inherentes al EMM Se aplican

diferentes metodos de optimizacion convencionales y se comparan los resultados obtenidos

asf como tambien se aplica un nuevo algoritmo de optimizacion disefiado dentro del marco

del proyecto de investigaci6n DIME 6549 titulado Estimacion de Parametros en Modelos de

Volatilidad Estocastica utilizando Algoritmos Evolutivos Probabilfsticos

Mas que presentar tecnicas para Ia estimaci6n de parametros en modelos de volatilidad

estocastica en este trabajo se desarroHa un enfoque para Hevar a cabo esta tarea Para esshy

to se aprovecha una reciente modalidad de metaheurfsticas conocida como Algoritmos de

Estimacion de Ia Distribucion

Los Algoritmos de Estimacion de Ia Distribucion EDA por su acronimo en ingles (Estishy

mation of Distribution Algorithms) son una metaheurlstica estocastica basad a en poblacioshy

2

nes Los EDA aparecieron e--~

investigacion de gran inter~

codifican posibles solucion~

evolucionan en generacion~

decirse que los EDA tienen

Evolutivos Sin embargo a(

evolutiva en los EDA se hi

guientes poblaciones En Ii I

les de los Algoritmos Genl

la estimacion de Ia distri

previamente seeccionada

Los algoritmos evoluti

dificiles de optimizacion~

dos problemas deceptivo

Ademas si el investigadc I

parametros de control d~

Por estas razones se ha d

que por Ia estructura estmiddot

se facilita predecir el me

de aplicarlos para la est

modeos de volatilidad

En la seccion I se p

el cual se hacen las dec

(EMM) se expJica en 1

trabajo EAMN (Evolu

exponen en la seccion

comparando varios m

los codigos de compu

en general y en la est

hhrmiddotc~~--~4nt~ hnn Convertido en un topico de

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 10: Estimaci6n de Parametros en Modelos de Volatilidad

Estirnaci6n de Panlmetw en Modelos de Volatiiidad Estocastka Usando Algorilrnos EvolutiVQS

de la volatilidad es 10 que nos ha llevado a plantear la utilizacion de un metodo heurfstico

que evolucione la estimac~i~n de Ia ditramiddotmiddot-)n con el fin de establecer los panimetros de los

~-

de volatilidad estocastiea general EI prop6sishy

s encontrar el mas adecuado de manera que

eI comportamiento de la propiedad del sisshy

de volatilidad estocastica se presenta en las

mcieros AI analizar algunos rendimientos

han exislido periodos en los que la volashy

latilidad es menor En esas situaciones es I

de la volatilidad ya que esta se constitushy

licacion de estos modelos de volatilidad

ambiarios se hace para contar con preshy

go y con valoraci6n de opciones entre

iproblema de estimar un modelo de voshy

ivos para optimizar la funci6n objetivo

iente (EMM) Se plantea el problema

icticas inherentes al EMM Se aplican

~ comparan los resultados obtenidos

I nizacion disefiado dentro del marco

lac ion de Parametros en Modelos de

Probabilfsticos

imetros en modelos de volatilidad

Ilevar a cabo esta tarea Para esshy

I IS conocida como Algoritmos de

por su acr6nimo en ingles (Est ishy

estocastica basada en poblacio-

Jesus Antonio Hemandez Riveros y Juan Daid Ospina Arango --------------~---------~~~

nes Los EDA aparecieron en el ano 1996 y ultimamente se han convertido en un t6pieo de

investigacon de gran interes En los EDA la poblaci6n esta compuesta por individuos que

codifican posibles solu~iones al problema de optimizaci6n Estas poblaciones de individuos

evolucionan en generaciones sucesivas en una busqucda progrcsiva hacia la soluci6n Puedc

decirse que los EDA tienen mucho en comun con otra metaheurfstiea como los Algoritmos

Evolutivos Sin embargo aunque los dos algoritmos se ubi can en el campo de la computacion

evolutiva en los EDA se ha declinado el uso de los operadores geneticos para generar las sishy

guientes poblaciones En lugar de usar los operadores de cruzamiento y mutaci6n tradicionashy

les de los Algoritmos Geneticos en los EDA se aplica para producir una nueva generaci6n

la estimacion de la distribucion de probabilidad de una muestra estocastica de individuos

previamente seleccionada para inducir la busqueda

Los algoritmos evolutivos se han distinguido por su capacidad para solucionar problemas

diffciles de optimizacion Sin embargo su desempefio se ha visto deslucido ante los llamashy

dos problemas deceptivos y ante los sistemas con un comportamiento altamente dinamico

Ademas si el investigador no tiene experiencia con algoritmos evolutivos la selecci6n de los

parametros de control del algoritmo puede ser un problema de optimizacion por si mismo

Por estas razones se ha dado lugar a la formulacion de otras altemativas como los EDA Dado

que por la estructura estocastica que conforma los EDA se obvian los panimetros de control y

se facilita predecir el movimiento de la poblacion en el espacio de busqueda es natural tratar

de apJicarlos para la estimacion de parametros en sistemas de alta dinamicidad como son los

modelos de volatilidad estocastica Esta es la perspectiva que se desarrolla en este trabajo

En la secci6n 1 se presenta la definicion del modelo ASV 1 de volatilidad estoeastica con

el cual se haeen las demostraciones correspondientes EI Metodo de los Momentos Eficiente

(EMM) se explica en Ia seccion 2 Diversos tipos de EDA y el algoritmo propuesto en este

trabajo EAMN (Evolutionary Algorithm based on the Multivariate Normal Distribution) se

exponen en la secci6n 3 La secci6n 4 trata sobre la estimaci6n del modelo ASV I apJicando y

comparando varios metodos y apJicando el EAMN Por Ultimo en el Apendiee se encuentran

los codigos de computador con el fin de faciIitar allector la aplicacion practiea del EAMN

en general y en la estimacion EMM del modelo ASVI en particular

3

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 11: Estimaci6n de Parametros en Modelos de Volatilidad

Estimaci6n de Parametros en Modeloi de Volatilidad Estocastica Usando Algoritmos Evolutivoo

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Panimetros en Modelos de Volatilidad Estocastica utilizando Algoritmos Evolutivos

Probabilistic os del cual este documento es uno de sus resultados parciales

Finalmente expresamos nuestra gratitud al profesor Norman Diego Giraldo G6mez de

la Universidad Nacional de Colombia - Sede Medellin por sus invaluables aportes en el

desarrollo de dicho proyecto de investigaci6n

Jesus A Hernandez R

jahemanunalmededuco

Juan D Ospina A

jdospinaunaimededuco

Grupo de Investigacion en Sistemas Complejos Naturales

Facultad de Ciencias - Facultad de Minas

Universidad Nacional de Colombia - Sede Medellfn

MedeIHn

Octubre de 2008

Seccion 1

El Modelo del

ASVI

En este capitulo se introd

problema de estimaci6n utili) i

YTauchen Este metodo pert

simulaci6n ver Gourieroux y es deterrninar cu6les problen

i computacionalmente muy de

I d11bull DefimelOn ~

EI modele de serie de til

Iidad estocastica con asimel

proceso estocastico Yt t E 2

Inl

donde Zt Et iid N(O 1) I

4

Estimacibn de Parametres en Modelos de Volatilidad Estocastica Usando Algoritmos EvoIutivos

Queremos agradecer a la Direccion de Investigaciones de la Universidad Nacional de

Colombia Sede Medellin por su soporte al proyecto de investigacion DIME 6549 Estimashy

cion de Parametros en Modelos de Volatilidad Estocasticn IltiJizando Algoritmos Evolutivos - i

Probabilfsticos delcual eo rgt- --ps parciales I

n Diego Giraldo Gomez de

s invaluables aportes en el I

Jesus A Hernandez R

hhemanunalmededuco

Juan D Ospina A

lospinaunalmededuco

Seccion 1

El Modelo de Volatilidad Estocastica

ASVI

En este capitulo se introduce el modelo de volatilidad estocastica ASV lyse plantea el

problema de estimacion utilizando el Metodo de los Momentos Eficiente (EMM) de Gallant

y Tauchen Este metodo pertenece a un grupo mas amplio denominados metodos basados en

simulaci6n ver Gourieroux y Montfort (Gourieroux y Montfort 1996) EI objetivo principal

es determinar cuales problemas pueden presentarse dado que la funci6n objetivo resulta ser

computacionalmente muy demand ante

11 Definicion del modelo ASV1

El modele de serie de tiempo no lineal denominado el modelo autorregresivo de volatishy

lidad estocastica con asimetrfa 6 esta definido por las ecuaciones ll as se dice que un

proceso estocastico Yt t E Z sigue un modelo ASV I si satisface

Ol)In(oD

donde Zt Et iid N(O 1) independientes

5

Est inmcion de PdJ~metro - ~ Il M oodos dt Voluilidltlu Estodlica USII1UOAg()ritrno~ Evolutivos

Los para metros que especifican el modele son e = (w (3 0 I) E [-h h] x (01) x

[-h h] x (0 h] para un valor h gt degarbitrario Cuando Ct = degse denomina modele simetrico

y asimetrico si Ct lt 0 En (Ghysels y Renault (996) se da mas detalles sobre el modelo

ASV I La figura 1 1 muestra las gnlficas del precio rendimientos histograma y asimetrfa de

la volatilidad de una trayectoria simulada de un proceso ASV I

RnctlmlenNu U fftnoiCOI ASV 1

(b) Rendimientos

II LIl I

shyi

D-D-oncon n---~~n ---C~D-mru-~D-7nOCO I

(a) Precio

Rndlmkfttu d1 rOtICI ASY I

(e) Histograma

D

(d) Asimelna de la volatilidad

Figura 11 Precio Rendimitmu histogram y asimelrla de la volatilidad para un modelo ASVI con CA = - 12 3 = U9 0 = - 024 Y

1 =018

La importancia de los modelos de volatilidad estocastica es que se ha demostrado que

describen mejor las caracterfsticas empfricas de los rendimientos financieros como alta curshy

tosis la sonrisa de la volatilidad una reaccion mas fuerte a las malas noticias en los mercados

que los modelos (exponential general autoregressive conditional heteroskedastic) como se

6

Jc-u~ Antonio HCrnjl lldez Ri vero y Juan D~l iu OpillJ Ara lgo

muestra en (Ghysels y Renault J996) Ambos los modelos de volatilidad estocastica y los

IIIodelos EGARCH han sido pensados para modelar heterocedasticidad pero el exilo de los

segundos sabre los primeros es solo opacado por las dificllltades pnkticas en los procesos de

estimaci6n En (Broto y RlIiz 2002) se explica pOl que el metodo de maxima verosimilitlld

convencional no se puede aplicar directamente al modelo definido en la eCllacion (11) pero

para resumir puede decirse que la dificultad est en el hecho de que la volatilidad a no es

observable Esto quiere decir que dada una observaci6n del proceso YIgt t = 12 IV no es

posible reconstruir la serie al YI t = 12 IV subyacente

Un apunte interesante sobre los modelos de volatilidad estocastica es que su principio

- la modelacion de la volatilidad como un proceso autorregresivo - se ha incorporado en

atros modelos A manera de ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modele de difusi6n con saltos para el cual la volatilidad es un procesa

autorregresivo posiblemente con saltos

En (Broto y Ruiz 2002) tambien se present a una completa revision de los metodos aplicashy

dos a la estimaci6n de modelos de volatilidad estocastica Los principales metodos descritos

son

I Metodos de momentos se destacan los metodos MM y GMM (comentado en el capftushy

102)

2 Estimaci6n por maxima verosimilitud basad a en procesos de simulacion numerica y

metod os de Monte Carlo

3 Metodos que utilizan modelos aproximados entre estos se destaca el metoda EMM

descrito en el capftulo 2 donde se utiliza un modele aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

Estimaci6n de Parametres en Motlelos de VQlatiliuad Estocastica Usanda Algorilmos Evolutivos

10 son 0 (w3a) E[-hh] x (01) x

Cuando a = 0 se de~omina modelo simetrico

- IIlt 1996) se da mas detalles sobre el modelo

ecio rendimientos histograma y asimetrfa de

proceso ASV 1

2000

(b) Rendimientos

de la volatilidad

~w ~ -t ~ 0bull - -0 bull

l es que se ha demostrado que

Ifi al ltos nancleros como ta curshy

alas noticias en los mercados 1hkdastic) rorno

tllm~Rltlt~l c ilt ~

DZ~rif)~ t~~~- _1

Jesus Antonio lIemandez Rivero y Juan David Ospina Amngo

muestra en (Ghysels y Renault 1996) Ambos los model os de volatilidad estocastica y los

modelos EGARCH h~n sido pensados para 1110delar heterocedasticidad pero el exito de los

segundos sobre los primeros es solo opacado por las dificultades practicas en los procesos de

estimaci6n En (Broto y Ruiz 2002) se explica por que el metodo de maxima verosimilitud

convencional no se puede aplicar directamente al modelo definido en la ecuaci6n (11) pero

para resumir puede decirse que la dificultad esta en el hecho de que la volatilidad no es

observable Esto quiere decir que dada una observaci6n del proceso Ytgt t = 12 N no es

posible reconstruir la serie (Jr Yt t 12 N subyacente

Un apunte interesante sobre los modelos de volatilidad estoctistica es que su principio

- la mode1aci6n de la volatilidad como un proceso autorregresivo - se ha incorporado en

otros model os A manerade ejemplo se tiene el trabajo de (Rockinger y Semenova 2005)

donde se estima un modelo de difusi6n con saltos para el cual la volatilidad es un proceso

autorregresivoposiblemente con saltos

En (Broio y Ruiz 2002) tambien se present a una completa revisi6n de los metodos aplicashy

dos alaestimaci6n de model os de volatilidad estocastica Los principales metod os descritos

son

1 Metodos de momentos se destacan los metodos MM y GMM (comentado en el capitu-

102)

2 Estimaci6n pOf maxima verosimilitud basad a en procesos de simulaci6n numerica y

metod os de Monte Carlo

3 Metodos que utili zan mode1os aproximados entre estos se destaca el metodo EMM

descrito en el capitulo 2 donde se utiliza un modelo aproximado cuyos componentes

sean observables

4 Cuasi Maxima Verosimilitud (QML) luego de linealizar la series se utiliza la estrateshy

gia del filtro de Kalman para aproximar la densidad del proceso Estos metodos son

poco eficientes porque no estan basados en la verdadera funci6n de verosimilitud del

proceso

7

-----Etimacion de Panlmetros en Modelos de Volatilidad Esocastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al aplicar un metodo de

estimacion conocido como Metodo Eficiente de Momentos al modelo (11) Este metodo se

describe en el capItulo 2 Para un tratamiento detallado del metodo ver (Zivot y Wang 2006)

cap 23 La funci6n objetivo tiene la forma

donde () es el vector de parfimetros a estimar 1111 en este punto especffico es la norma euclishy

diana hT(O) es una funcion que depende del metodo WT es una matriz definida positiva que

tambien depende del metodo y nTiP es la matfiz rafz cuadrada Interesa observar que la funshy

cion objetivo es una forma cuadnitica 0 una norma euclidiana de una cierta funci6n vectorial

altamente noli neal en los parfimetros de interes y definida POf un algoritmo no por una ex~

presion anaHticaAdemfis es computacionalmente muy exigente porque el algoritmo incuye

recursiones no lineales y simulaciones Esto implica que no es posible obtener una expresion

analftica del gradiente deQTlaquo() y que el uso de derivada numerica aumentaria el tiempo de

computacion de manera exagerada en algunas plataformas como Matlab Por tanto no es

practico usar los algoritmos con base en gradiente al menos en Matlab Adicionalmente es

un problema de optimizacion con restricciones sobre los parametros Por ejemplo f3 E (01)

es unarestriccion necesaria y que en caso que ocurrieraf3 gt 1 el algoritmo que define QTlaquo()

se torna inestable como se muestra posteriormente

8

------------~-----~~------

rl I 1 I

Ii

I J I 1

Sed

I 11 II ii Ii i

Met

I 1

I i

EIMeJ I

de estimacit i

plota el heet

en el sentida I

momentos pi I mente se em

I tlene mvo UCI

procesos de e

I I

contenga CUY I

GMMproduc metodode m~ metodo de mfu

I

bles cuando est 1

este capitulo sei

tacion de esta ui

Estimacion de Parametros en Modelos de Volatilidad ESlOcastica Usando Algoritmos Evolutivos

EI problema de optimizacion a resolver en este trabajo surge al apJicar un metodo de

estimacion conocido como Metodo Eficiente de MomentQsa1 modele (11) Este metodo se

describe en el capitulo 2cJ~arnlJ~ Odo ver (Zivot y Wang 2006) ~ j ___ n

Ir-

l)ll2 specifico es la norma eucli-

natriz definida positiva que

eresa observar que la funshy

1a cierta funcion vectorial Igoritmo no por una exshy

ue el algoritmo incluye e obtener una expresi6n

I dJmentana e lIempo e

lllab Por tanto no es

Adicionalmente es rejemplo f3 E (01)

10 que define QT(0)

Seccion 2

Metodo de los Momentos Eficiente

EI Metodo de los Momentos Eficiente (EMM por sus siglas en ingles) es una metodologfa

de estimacion derivada del Metodo de los Momentos Generalizado (GMM) Esta ultima exshy

plota el hecho de que los momentos muestrales 0 una funcion de los mismos deben parecerse

en el sentido de una norma vectorial al correspondiente conjunto de momentos 0 funcion de

momentos poblacionales del modelo que se desea estimar La metodologfa EMM generalshy

mente se emplea cuando el modele de in teres general mente dado en el espacio de estados

tiene involucra variables no observables Para superar la dificultad que esto conlleva en los

procesos de estimacion la metodologfa EMM propone utilizar un modele aproximado que

contenga cuyas variables 0 estados sean todos observables Ambas metodologfas EMM y

GMM producen resultados que asint6ticamente equivalen a los resultados que producirfa el

metoda de maxima verosimilitud No obstante aunque no siempre a1canzan la eficiencia del

metodo de maxima verosimilitud las metodologfas GMM y en particular EMM son apJicashy

blescuando esta no 10 es por alguna razon como la presencia de variables no observables En

este capfiuld se presenta brevemente las metodologfas GMM y EMM asf como la implemenshy

tacion de esta ultima para estimar el modelo de volatilidad estocastica ASVl

9

21 Generalidades de la Inetodologia GMM (

La metodologfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para est i-

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ponentes estocasticos del modelo Dichas condiciones pueden plantearse en terminos de un

sistema de ecuaciones que involucran los momentos 0 funciones de los momentos De esta

manera si Y t t = 1 2 es un proceso estocastico de dimensi6n k cuyo modelo se espeshy

cifica completamente con el parametro 0 y IRk -7 IRI es tal que se satisfaee la ecuacion

(21)

(21)

y se define 1como

(22)1= E [~ ~(YtO)] I

puede mostrarse que bajo ciertos supuestos sobre (Yt 0) (como q~~ es una ~artingala en

diferencias) INIconverge en distribucion a una Nt (0 8) donde 8 es matriz de covan~zas

asintotiea de 1 Cuando se desea explotar estos hechos para estimar el vector de para~etros

oE IRP se hace uso de las ecuaciones (2I)y (22) paraderivarlas ecuaciones estimadoras

EI metodo 9MM propone como estimador del panimetro 0

argmfnf (0) lvlN (0) (23) _ OE9

donde IN se define como en la eeuaci6n (24)

1 N

N I (YtiO) (24) t=l

y Wes una matriz definida positiva que posiblemente depende de los datos Asf el probleshy j

rna de estimacion en el metodo GMM se expresa co~o la minimizacion de la forma cuadratishy

ea de la ecuaci6n (25)

10

JesUs Antonio lIem~ndez Rivero y Jan David Ospina Arango

rfI i I

La matriz de I A

dor ON En (HarIil

Np (0 (lVT8-1 II

sentido de que mi I I

la e~uaci6n (26) Ii i I

II

22 Metodi

EI metodo EM~ adaptaci6n del metq

modelo La estrategl I

delo que se desea esl

una densidad gal cod

de parametros 17 que I 1 dElveroSlml ItU sto P

I de la ecuaci6n (27)

i donde r es el est

denomina funci6n se I

EI eoncepto es mas d I

satisfacer aproximadd

datos provenientedel

el modelo de interes

Estimaci6n de Par~metros en Modelos de Volatilidad Estocastica Usnda Algoritmas Evolutivos

21 Generalidades de la metodologia GMM

La metodoIogfa GMM propuesta en por Hansen en (Hansen 1982) utilizada para estishy

mar modelos estocasticos explota las condiciones de ortogonalidad entre los diferentes comshy

ik-- ponentes estocasticos del mod_elo~~----=-- plantearse en terminos de un

I _sist--~ es de los momentos De esta I

sian k cuyo modelo se espeshy I I rus bullecuooonI

(21)

(22)

Ie

es una martingala en

d matnz e covananzas

vector de prira~etros lClOnes estlmadoras

(23)

(24)

Asf el probleshy

bull J

Irma cuadratishy

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

J (0) = r (0) llIN (0) (25)

La matriz de ponderaci6n TV esta relacionada con la eficiencia asintotica del estimashy

dor i~ En (Hansen 1982) se prueba que rN (iJNO) converge en distribucion a una

Np (0 (lVTS-Ilyen) -I) En (Hall 2005) se muestra que una elecci6n optima para lV en el

sentido de que minimiza Ia varianza asint6tica del estimador GMM es la que se muestra en

la ecuacion (26)

(26)

22 Metodo de los Momentos Eficiente

EI metodo EMM propuest~ por Gallant y Tauchen (Gallant y Tauchen 1996) e~ una

adaptaci6n del metodo GMM para enfrentar la presencia de variables no observables en el

modelo La estrategia para resolver esta dificultad es utilizar un modele aproximado al moshy

delo que se desea estimar cuyas variables sean todas observables Este modele auxiliar tiene

una densidad ga condicionada a la historia de los datos que esta determinada por un vector

de panlmetros 17 que debe estimarse en la segunda etapa del metodo utilizando quasi maxima

verosimilitud Esto permite que el modelo auxiliar satisfaga las condiciones de primer orden

de la ecuacion (27) expresadas para una serle observada de longitud N

~ ~l aga (Ytgt if) = 0 (27)NL- n a 1=1 1]

donde if es el estimador de quasi maxima verosimilitud de 17 EI vector In ega5~1) se

den om ina funci6n score y es la clave para estimar el parametro 0 del modelo de interes

El concepto esmas 0 menos el siguiente la funci6n score del modele aproximado debe

satisfacer aproximadamente las condiciones de primer orden evaluadas en un conjunto de

datos provenidnte del modele de interes Es decir que un conjunto de datos generados por

el modele de interes que a su vez esta determinado por el parametro 0 al evaluarse en las

11

Estimci6n de Panmetros en Modelos de Volatilidad ESlocastica Usndo Algoritnlos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de ITahalanobis AsC si se escribe

= ~~ I ega (fit (0) iii(0) (28)mT N~ n a

t=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de parametros candidato 0 se puede definir eLestimador EMM como

argmfnm (0) VmN (0) (29)BEe

Este planteamiento implica que el rnodelo generador 0 de interts debe permitir obtener

simulaciones de sus posibles trayectorias para diferentes valores del vector de parametros O

En este metodo las series simuladassonde longitud T gt N a fin de conseguir una buena

aproximaci6n al estimador asint6tico Este como en el caso del metodo GMM alcanza la

maxima efidenci~ cuando la matriz lV es la de la ecuaci6n (210)

(210)

Los pasos delmetodo EMM pueden listarse como sigue

bull Definir un modelo auxiliar

bull Estimar el modelo auxiliar

bull CaIcular la fund6n score del modelo auxiliar

bull Plantear la funci6n objetivo EMM

bull Minimizar la funcion objetivo EMM

Las siguientes subsecciones ilustran estos paS~s con el modelo ASV 1 aproximado a traves

de ~m EGARCH(ll) conerrores SNP(4)

12

221 Sele

i EI primer P

I

modelo (ll) LI

(11) la variable Ii

datos observados I

presencia de error I

I

EI metodo pror

verosimiIit~d para 1

proceso EGARCH(

In

donde Zt iid ~rv

[-h h] x

[01] x [-I

Iidenticas pero no hay 1

que se diferencian en 1

(11) tiene una densidad

I

donde nt --1 = aat 2 _ 1 Zt

1

yO (w3 a) es e -

EGARCH(ll) (211) f(i I

donde n_l a(aL j

Estimaci6n de Parametros en Modelos de Volatilidad Estocastica Usancto Algoritmos Evolutivos

condiciones de primer orden debe producir un resultado cercano a cero Esta cercanfa se

define en terminos de una distancia de mahalanobis As si se escribe

1 ~ I 8ga WI (0) r) (28)Ln 8 1=1 TJ

donde fit (0) t = 12 T es una series simulada con el modelo de interes utilizando

el vector de panimetros candidato () se puede EMM como

(29)

teres debe permitir obtener

is del vector de parametros ()

~ fin de conseguir una buena I

~I metoda GMM alcanza la

h r)) (210)I

Vl ~OXmdOOVmiddot

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

221 Seleccion del modelo auxiliar

El primer paso en Ia metodologfa EMM es definir un modelo auxiliar que aproxime al

modelo (11) La raz6n por la que debe definirse un modele auxiliar se encuentra en que en

(Ll) la variable In(ol)no es observable y tampoco es posible reconstruirla a partir de los

datos observados Yt Por tanto no es posible aplicar maxima verosimilitud Esto se debe a la

presencia de error aleatorio ft en (11)

EI metoda propuesto utiliza un modelo auxiliar para el cual sf es posible aplicar maxima

verosimilitud para estimar los parametros auxiliares El modele auxiliar se escoge como un

proceso EGARCH(ll) definido por la siguiente ecuaci6n (211)

(211)

donde Zt iidN(Ol) Losparametros del modelo auxiliar son TJ = (w3aYY Erv

[-h h] x[01] x [-h h] x [0 h] h gt 0 dado Los vectores () y TJ tienen componentes

identicas pero no hay lugar a confusi6n pues se trata de modelos diferentes (ll) Y (211)

que se diferencian en los terminos correspondientes a los coeficientes y El proces~ ASVI

(11) tiene una densidad condicional normal dada porIa ecuaci6n (212)

(212)1

cxp (-r) donde Otl= a0-r_l Zt-ll ft es la sigma-algebra generada por las variables 0_1 Zt-ll fto

y () = (w 3Y a) es el vector de parametros La densidad condicional para el modelo

EGARCH(l 1) (211) f(yIO_I T7) esta dada por

(213)f(yIO_v TJ) ~ v2~a cxp ( - r) donde 0_1 = aatI Zt-I es la sigma-algebra generada por las variables 0_1 Zt-l

13

Estimaci6n de Panimetros en Modelos de VolatiHdad Estocoistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar (

Una condici6n para que la metodologia EMM funcione es que el modelo auxiliar (211)

debe aproximar el modelo generador de los datos (11) f(yln_l 1]) p(ylnt- 1 e) Para bull I

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

normal (213) para el EGARCH(lI) una densidad con parametrosadicionales de manera

que la dimension del parametro 1] au mente manteniendo la estructura heterocedastica del

EGARCH(l 1) La finalidad es que los parametros adicionales ayuden a capturar caracteristishy

cas como asimetria y leptocursis mejorando la aproximacion Esto se logra mediante un tipo

especial de densidades la densidades Semi No Parametric as 0 SNP introducidas por A Gashy

llant (ver cap 22 de (Zivot y Wang 2006raquo La definicion de este tipo de densidades SNP se

basa en los polinomios de Hermite Las definiciones de polinomios de Hermite y de densidad

SNP se comentan al final de este capitulo ver (219) y (218)

Denote por fSNP(x d) una densidad unidimensional tipo SNP definida en x E ]R con

vector de parametros d E ]Rk Y denote por fL(d) y (J2(d) la media y la varianza resp~cshy

tivamente asociadas con tal densidad Entonces la densidad f(x d) = (J(d)fsNp(fL(d) + (J(d)x) tiene media cero y varianza unidad Por tanto si se asume que Zt en el modelo

EGARCH(II) (211) sigue esta distribucion f(x d) la densidad condicional de Yt esta dada

por f(Y(J) d)(JIgt Y remplaza la ecuaci6n (213) por (214)

bull f(Y(Jt d)(Jt

In (J w+8ln(JL +OZt-l +(IZt-ll-fL(d)) (214)

donde fL(d) = lE(IZtl) As) se define el modelo (214) como un EGARCH(1I) con

errores SNP(k) donde k es la dimensiondel parametro d y el vector de parametros es

(1] d) E ]R4+k estimado mediante el metodo de quasi-maxima verosimilitud (QML) En

este trabajo se asumio k = 4 Una justificacion para esto es que una distribucion se puede i

caracterizar aproximadamente mediante los cuatro primeros momentos media varianza asishy

metria y curtosis al menos en la region central alrededor de la media Por tanto usar k = 4

14

h

~ [I

J~j~~lil~~~~tf middot~~~~L~~~~9~~~~ gt 1

Dfgt~(~ ~ ~ f~~~~~~ ~ ~ tj~lIltj1J ~J ~

Jesus Antonio Hernoindez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatrntnJnlYn~ran-AI~ictrihllinn ______

I

DenotaIos estos estimadores por (7][1 trivial yes uno de los intereses en est~

bull bull I I

I I

I I

23 Vector de Scores

Se define el vector de scores del r I

I

gradiente en ]R4+k de derivadas parcial

i

I

oIn f(Ytln-l 1] d) 0 In(J(zt d)j I 0( d) = o(1]d)I

(_~ (Zd (z)d) 1) oln(J_l_il 2 f(z) d) + 01] (J(d) 1

III I

donde 1] = (w8 0 ) d E ]Rk Y ~ ecuaciones recursivas dado por I

o (2) iow In (Jt 1 + VIa o 2 2 I

08 In((Jt) In((Jt_l~

omiddot I ) In((J) Zt-I + ~ uO I o (2) I0 In (Jt IZt-l I shy

donde VI = 8 - (OZt-l + IZt-11l

colocando las derivadas parciales iguale

medios calculados con los datos observ

Estimaci6n de Panmetros en Mooelo de Volatilidad Estocistica Usando Algoritmos Evolutivos

222 Estimacion del Modelo Auxiliar

-J~~~~~~ ~ ~- -middotr~~middotS-

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

es buscar una SNP que tenga estos cuatro momentos 10 mas cercanos a la distribucion de Zt

Una condicion para que la metodologfa EMM funcione es que el modele auxiliar (211)

debe aproximar el modelo generador de los datos (I]) (yln_l 1]) ~ p(ylnt-lgt 0) Para

lograr que se cumpla esta aproximacion en este trabajo se implemento la siguiente estrashy

que la dimension deL)- -

tegia original de (Gallant y Tauchen 1996) utilizar en lugar de una densidad condicional

nom1al (213) para el EG~Utl--~sidad conparametros adicionale7de manera

antel1iendo la estructura heterocedastica del ~s adicionales ayuden a capturar caracterlstishy

oximacion Esto se logra mediante un tipo

metricas 6 SNP int~oducidas p~r A G~-ci6n de este tipo de densidades SNP se Ie polinomios de Hermite y de densidad

(218)

1 tipo SNP definida en x E ]R con d) la media y la varianza respecshy 1ad f(x d) = o-(d)fsNP(p(d) + se asume que Zt en el modelo

idad condicional de Yt esta dada

bull r

1- pmiddot(d) (214)

un EGARCH(lI) ~on

ctOf de panlmetros es

imilitud (QML) En

istribucion se puede

dia varianza asi~ 0 k 4

Denotamos estos estimadores por (f d) EI problema de la estimaci6n QML en (214) no es J _

trivial yes unq d~ los intereses en este estudio

23 Vector de Scores

Sedefine el vector de scores del modele EGARCH(II)-SNP(k) (214) como el vector

gradiente en ]R4+k de derivadas parciaies dado en la ecuaci6n (215)

8 In f(Ytl nt-1 1] d) 8 In(J(zt d)lo-t) = (81n(J(zh d)lo-t) 8 In(J(zh d)IO-traquo) =

8(1 d) 8(1] d) 8l 8d

(_~ (Zdl(Zb d) 1) 81no- _1_80-(d) 1 f(Zh d) (8P(d) 80-(draquo) lJP+(draquo) 2 f(zt d) + a1] o-(d) ad + o-(d) f(Zt d) ad + Zt ad + 2 ad

(215)

donde 1] = (w (3 0 ) dE]Rk y In(o-) E ]R4 es un vector que satisface el sistema de

ecuaciones recursivas dado por

a (21 + Vi aw In o-t_1)

In(o-_l) + Vi ~ In(o-L)

8 Zt-1 + Viao In(o-_l) _

IZt-11- p(d) + Vi In(o-_l) t = 1 T

donde Vi 3 - (OZt-1 + lzt-1)2 Las ecuaciones recursivas se inicializan en t=O

colocando las derivadas parciales iguales a cero y los demas valores reemplazados por valores

medios calculados con los datos observados

15

Estimacioo de Parametros en Modelo de Volatilidad Estocatica Usando Algoritmo Eyolutivo

24 Funcion Objetivo (

Ademas de la fund6n hT()) se requiere definir una matriz WT E IIpxp c~mo la inversa de

la matriz devarianzas y covarianzas del vector de scores del modelo EGARCH(l 1)-SNP(k)

ecuadon (215) evaluados en los datos observados Yt usando la formula de Newey-West

la cua garantiza que la matriz estimada sea definida positiva La fund6n objetivo se define

como la forma cuadnltica dada en la ecuadon (216)

(216)

donde x es transpuesto de x y W2 es la rafz cuadrada de WT definida positiva La fund6n

objetivo QTlaquo()) es muy demandante computadonalmente Para cada evaluad6n debe realizar

1a generaci6n de N valores y(Uj () Y calcular una recursion (42) En teorfa el metoda funshy

dona sin complicaciones pero numericamente la recursion anterior es muy inestablelo que

puede generar valores muy grandes de la funci6n objetivo Finalmente se apJica un algoritmo

de optimizaci6n con restricciones simples por ejemplo un algoritmo genetico para obtener

el estimador EMM como el vector aT que minimiza QT

(217)

25 La densidad SNP

A continuad6n se presenta la definicion basica de la densidad SNP Esta densidad se

forma a partir de una sucesi6n de polinomios deH~rmite La sucesion de polinomios de

Hermite Hnx) ~ = 0 1~ x E II se define recursivamente asf

Ho(x) =1

lt(x) =X (218)

Hn(x) =(xHn-t(x) n - 1Hn- 2(x))Fn

16

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

De la definici6n se obtiene la propiedad de ortonormalidad de los polinomios de Hermite

que se expresa como Jilt Htt(x)Hm(x)n(x)dx onm donde n(x) = cxp(-x2 2)Jiir es -----shy

la funcion de densidad de

primeros cuarro polinOll

x(x2 3)6 H4X) = Una funcion de densi I

i

i i donde d (dt bull dk) Ei

En este trabajo se tori I

densidad SNP puede vers I

inclusive elevado al cuad I I

hasta los k 4 primeros t(1

Estimaci6n de Parametros en Modeos de Volatilidad Estocastica Usando Algoritmos Evolutivos

24 Flncion Objetivo

Ademas de la funci6n hT(O) se requiere definir una matriz WT~ JRPxp como la inirers~ de

la matriz de varianzas y covarianzas del vector de scores del modelo EGARCH(ll)-SNP(k)

ecuaci6n (215) evaluados en los datos observados Yi usando la formula de Newey-West

la cual garantiza que la matriz estimada sea definida positiva La funci6n objetivo se define

1L_---sQJl1QJaJormn~IlAr~~-

hT(O)W (216)

WT definida positiva La flmci6n 1

ara cada evaluacion debe realizar

b(42) En teorfa el metodo funshyI ~nterior es muy inestableIo que I

nalmente se aplica un algorit~o I lgOritmo genetico para obtener

I i

I I (217)

sidad SNP Esta densidad se

ri6n d polinomio d

l (218)

Jesus Antonio Hernandez Riveros y luan David Ospina Arango

De la definicion se obtiene la propiedad de ortonormalidad de los poIinomios de Hermite

que se expresa como Jut Hn(x)Hrn(x)n(x)dx Inm donde n(x) = cxp(-x22)v2ii es

la funci6n de densidad de una Normal estfindar y lm es la funcion delta de Kronecker Los

primeros cuatro polinomios de Hermite son H1(x) x H2(x) = (x2 - 1)[2 H3(X) =

x(x2 - 3)(6 H4(X) = (x4

- 6x2 + 3)(2(6)

Una funcion de densidad unidimensional del tipo SNP(d) se define como

(1 + EJ=l djHj(x)rn(x)fSNP(xd) lk 2 x E JR (219)

1 + LJJl dj

donde d (db dk ) E IRk k = 12 es el vector de parfimetros

En este trabajo se tom a la dimension k 4 La eleccion k 4 se hace dado que la

densidad SNP puede verse como un desarrollo Gram-Charlier truncado hasta el termino k

inclusive elevado al cuadrado y normalizado En tales desarrollos se usan corrientemente

hasta los k 4 primeros terminos

17

(

Seccion 3

Algoritmos Evolutivos

31 Introducci6n

En ciencias e ingenierfa es comun encontrarse con el problema de hallar el estado 6ptimo

de una variable 0 con el problema de identificacion de parametros de un sistema Para solucioshy

nar estos desaffos la pnictica mas comun es definir una funcion de costo que refleja que tan

adecuado es un conjunto de parametros 0 de estados Asumiendo que la funcion de costo l es

de valor real y que los para metros 0 estados optimos estan contenidos en una regi6n D ~ IRk

denominada el espaci de busqueda el problema se define formal mente como encontrar el

vector X (Xl X2 bull XI) que para el caso de minimizaci6n satisface la ecuaci6n (31)

donde por I se denota la transpuesta de una matriz

x= argmfllJ (x) (31)xED

Cuando no es facil obtener e1 gradiente 0 cuando el conocimiento a priori de la solushy

ci6n es pobre 0 mas attn cuando la funcion J no tiene una expresi6nmatematica se deben

emplear m~todos altemativos a los estrictamente analfticos para obtener soluciones En este

trabajo se presenta un algoritmo que usa para explorar el espacio de busqueda la distribuci6n

normal multivariada inspirado por los algoritmos evolutivos y sus posteriores modificacioshy

nes EI algoritmo presentado se ha denominado EAMN por el acr6nimo en ingl~s de sus

19

Estimaci6n de Panimetros en MOOelos de Volatilidad Estodstica Uand Algorirmos Evolutivo

caracteristicas de configuracion Evolutionary Algorithm based on the Multivariate Normal

distribution EI EAMN se disefi6 para encontrar el optimo global de una funci6n de vashy

lor real como la expresada en la ecuaci6n (31) pero su a1cance es mucho mas general EI

EAMN se trata de un algoritmo iterativo que explora el espacio de bUsqueda a traves de la

generaci6n de mlmeros aleatorios y la mutaci6n deterministica de los individuos Como en

los algoritmos de estimacion de la distribucion y los algoritmos evolutivos basados en moshy

delos de probabilidad (Larrafiaga y Lozano 200 I) el algoritmo EAMN propuesto utiliza

funciones de probabilidad pero en contraste con aquellos otros no se ajusta propiamente a

una distribucion basada en la informacion de los individuos para crear nuevos individuos En

este caso se usan numeros aleatorios que provienen de una distribuci6n normal por su propieshy

dad de generar individuos con mayor intensidad alrededor de un pun to aprovechando la gran

cantidad de algoritmos disponibles para generar estos numeros y las conocidas propiedades

matematicas de la distribucion normal que eventualmente podrian permitir desarrollos mashy

tematicos sobre convergencia del algoritmo De esta manera la media de la poblacion se usa

para ubi car la region dentro del espacio de bUsqueda en la cual la exploracion debe ser mas

intensa y la matriz de dispersion (0 matriz de covarianza) se usa para controlar la intensidad

con la que esta region se explora y asf garantizar la convergencia EI mecanismo de mutacion

determinfstica busca nodescartar los individuos con el mayor potencial mientras que al tiemshy

po los transforma parahacerIos mas similares al mejor individuo en el sentido de una norma

vectorial

En la primera parte de este capitulo para motivar el algoritmo propuesto se introducen

los algoritmos evolutivos (EA) los algoritmos evolutivos probabilfsticos y los algoritmos de -

estimacion de la distribucion (EDAs) Lu~go se explica el algoritmo EAMN disefiado en

el marco de este proyecto de investigacion y se demuestra su funcionamiento satisfactorio

con seis funciones estandar de prueba Finalmente se exponen algunas concIusiones acerca

del desempefio del algoritmo EAMN potenciales aplicaciones y posteriores extensiones a

problemas no continuos

20

32 Por que algOl I

f

I

Los metodos de optimiza

de esas variantes son los alg I

dos son los algoritmos genl I

mutuamente competltIvos e I

Con la exploracion se prete

el fin de de obtener una est

es un procesode refinami(

solucion mejor En esta sei

a problemas de estimacio I

de la investigacion preseq Un argumento que PI

I

actual mente una gama d I

ritmos relativamente cor I I

Montfort 1996) para u[I

I les la funcion objetivo I algoritmos geneticos s~ cionalesEstos metodl

de tiempocontinuos J

estocastica para serid

se desarrolla mas la jI I

Goffe et at (Gb

heuristico el tempi i

algoritmos conven1

usando un algoritm I

I Cray programad07

I de encontrar el op

los anali~is de Mal

Estimaci6n de Parametros en Modelo de Volatilidad Estnlt4stica Usando Algoritmos Evolutivo

----- __~---------- prithm based on the Multivariate Normal

eI optimo globaFde una funci6n de vashy

0 su aJcance es mucho mas general EI

~a el espacio de bUsqueda a traves de la

rmmlsuca de I ddIVI uos Como en os m

algoritmos evolutivos basados en moshyI

ItI algoritmo EAMN propuesto utiliza

nos otros no se ajusta propiamente a

d d EIuos para crear nuevos m IVI uos n

Ina distribucion normal por su propieshy

jr de un punto aprovechando Ia gran

meros y las conocidas propiedades

I d IIte podnan permltlr esarro os ma-I

ha la media de la poblacion se usa

cualla exploiacion debe ser mas

se usa para controlar la intensidad

d 0nencla EI mecamsmo e mutaci

1 Jr potencla mlentras que a Itlem-I

hduo en el sentido de una norma

Itmo propuesto se mtro d ucen

abilfsticos y los algoritmos de

~oritmo EAMN disefiado en

JunClOnamlento satlslactono

algunas conclusiones acerca

y posteriores exte~siones a

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

32 Por que algoritmos evolutivos

Los metodos de opti~izacion heurfsticos abarcan una amplia variedad de algoritmos Una

de esas variantes son los algoritmos bio-inspirados entre los cuales uno de los mas conocishy

dos son los algoritmos geneticos Los metodos heurfsticos estan regidos por dos objetivos

mutuamente competitivos entre sf Ia explotacion y la exploracion del espacio de busqueda

Con la exploracion se pretende que se inspeccione por comrlleto el espacio de bUsqueda con

el fin de de obtener una estimacion confiable del optimo global Mientras que la explotacion

es un procesode refinamiento de una soluci6n conocida que con frecuencia conduce a una

soluci6n mejor En esta seccion se revisan algunas aplicaciones de la optimizaci6n heurfstica

a problemas de estimaci6n en estadfstica y econometrla con el fin de mostrar antecedentes

de la investigaci6n presente

Un argumento que puede darse a favor de utilizar optimizaci6n heuristica es que existe

actual mente una gama de metodos de estimacion con base en simulacion que utilizan a1goshy

ritmos relativamente complejos como el EMM descrito en el capftulo 2 Ver (Gourieroux y

Montfort 1996) para una exposici6n completa sobre tales inetodos En los casos en los cuashy

les la funci6n objetivo se describemediante algoritmos Spall (Spall 2003) afirma que los

algoritmos gen6ticos sOn mucho mas apropiados para la optimizaci6n que algoritmos convenshy

cionaies Estos metodos se han desarrollado al tiempo que han aparecido modelos de series

de tiempo continuos y discretos para diversas aplicaciones como los modelos de volatilidad

estoctistica para series de precios y tasas de interes En Zivot y Wang (Zivot y Wang 2006)

se desarrolla mas Ia aplicacion de estos metodos a estas clases de model os

Goffe et aI (Goffe y Rogers 1994) comparan el desempefio de un tipo de algoritmo

heuristico el temple simulado en cuatro problemas econometricos y 10 comparan con tres

aIgoritmos convencionales Uno de los problemas es una red neuronal con 35parametros

usando un algoritmo de gradiente conjugado con derivada numerica en supercomputadores

Cray programadosen Fortran 77 Encuentran que el t~mple simulado tiene mayor capacidad

de encontrar el optimo local ytiene propiedades de robustez Tambien pueden mencionarse

los amilisis de Mayer (Meyer 2003) sobre aplicaciones estadisticas de un nuevo metodo tipo

21

Estirnacion de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

de algoritmo heuristico multipoblacional

Pero tal vez el argumento que ha dado fama a los algoritmos heurfsticos es su capacidad

de encontrar el optimo global en presencia de varios optimos locales Este es un problema

que se presenta en la estimaci6n estadfstica cuando existe multimodalidad de la funci6n ob-

jetivo por ejemplo la funci6n log-verosimilitud La multimodalidad puede deberse a mala

especificaci6n del modelo por ejemplo pretender estimar un modelo ARMA(pq) con 6rdeshy

nes bajos de p y q cuando el modelo real tiene ordenes altos Puede deberse tambien a no

identificabilidad del modelo por ejemplo en modelos MA(q) no invertibles A dificultades

propias del modelo como el caso bien conocido de la estimaci6n en mezclas finitas de distrishy

buciones Se present a tambien en el caso de procesos tipo GARCH con variables dic6tomas

en la volatilidad ver Doomik y Ooms (Ooomik y Ooms 2003) En los modelos de regresi6~

aparentemente no relacionadas 0 modele SUR de Zellner para el cual Burton y Richardshy

son (Orton y Richardson 2001) reportan que la distribuci6n de probab~lid~d del modelo

presenta hast a cinco puntos estacionarios La multimodalidad esta presente en muchos casos

de estillaci6n y Ia aplicaci6n de algoritmos evolutivos es una solucion recomendable para el

proceso de optimizaci6n involucrado

En particular con respecto al modelo de volatilidad ~stoeastica al utilizar la distribuci6n

SNP paramejorar la aproximaci6n con eI modelo EGARCH(1l) ltsmuy factible que esta

estructura algebriiica genere multimodalidad en la funci6n objetivo definida para eI meto~

do EMM dado que la SNP es una suma al cuadrado de polinomios de orde~ hasta k En

principio este es otro argumento para justificar eI presente trabajo

33 Metodos heuristicos de optimizacion

SegUn Gilli y Winker (aiIli y Winker 2007) los metodos de optimizaci6n heudstica se lt

pueden clasificar en dos clases los metodos constructivos y los metodos de busqueda local gt bull

Estos ultimos son los de interes en este trabajo Son similares a los metodos de optimizacion

para funciones continuas denominados de descenso por gradiente (gradient descent) en el 1 ~ bull

cualla soluci6n en Ia iteraci6n n Xn satisface una ecuaci6n recursiva Xn+l = Xn +an ilg(Xn)

22

rr

donde g(X) es la fun

descenso por gradid

rupido hacia un mi~

yen BFGS (Broyde~

Newton-Gau~s Steel

(Bemdt-Hall-HalI-H I define an de manerall hessiana Son algOri I

I

dos en mfnimos lodI

(plateau) En contra I

cindad de Xn B6(Xn 1 i

un procedimiento al~

posible mejor solucil

Los metodos heJ

y metodos mUltiPob

no se genera un sold I

(1) (kraquo) I ( Xn bullbullbull Xn sobl

ventaja de los metol I

adversas de la funci I

1(plateau) no conveJ

metodos multipobl~ j

asignando valores ri I

regi6n no deseablel I

ministicos y iii est I

convergen al 6ptiJ Idadaslas condicio

heurfsticos pueden J

vergenin al 6ptim~ h eunstlcos en prol i

Jesus Antonio lIemandez Riveros yJuan David Ospina Arango

Estimaci6n de Panimetros en ModeJos de Volatilidad Estodstica Usando Algoritmos Evolutivos

d dunstlcoS es su CapaC a i les Este es un problema

lalidad de la funcion ob- I I Itl puede deberse a mala

ARMA(pq) con ordeshy

~ debersetambien a no

lertibles A dificultades

lezclas finitas de distrishy

n variables dicotomas model os de regresion

al Burton y Richardshy

~ab~~idad del modelo nte en muchos casos

lecomendable para el I I

ilizar la distribuci6n

1y factible que esta

lnida para el metoshy

orden hasta k En

bi6n heunstica se fbUsqu~da 10c~1 de optimizaci6n

t descent) en elI Ixn+an1g(xn)

Jesu Antonio HernAndez Riveros y Juan David Ospina Arango

donde g(X) es la funcion de valor real a minimizar y 1g(x) es su gradiente Los metodo de

descenso por gradiente definen an de tal forma que siguen la direcci6n de descenso mas

rapido hacia un minime global Entre los algoritmos de descenso p~r gradiente se inclushy

yen BFGS (Broyden-Fletcher-Goldfarb-Shanno) DFP (Davidon-Fletcher-Powell) Newton

Newton-Gauss Steepest Descent PRCG (Polak-Ribiere-type conjugate gradient) y BHHH

(Bemdt-Hall-Hall-Hausman) ver Nocedal y Wright (Nocedal y Wright 1999) Cada uno

define an de manera diferente pero con base en la informacion sobre el gradiente y la matriz

hessiana Son algoritmos deterministas sensibles a la inicializacion y pueden quedar atrapashy

dos en minim os locales 0 aun terminar sin converger cuando lIegan a una region tipo meseta

(plateau) En contraste conesto los rilttodos heurfsticos de busqueda local definen una yeo

cindad de Xn Bo(xn) y escogen xn+l en esa vecindad usualmente d~ manera aleatoria segtin

un procedimiento algorftmico Ademas definen criterios para aceptar el punto escogido como

posible mejor soluci6n y cuando terrninar el proceso de iteraci6n

Los metodos heunsticos de busqueda local se dividen a su vez en metodos de trayectorias

y metodos multi poblacionales a los que pertenecen los algoritmos evolutivos en los cuales

no se genera un solo candidato Xn+l sino todo un vector (poblacion) de posibles candidatos

(X~l) bull bullbull x~) sobre los cuales se busca masivamente en paralelo Ia nueva solucion La gran

ventaja de los metodos multi poblacionales es que se afectan en menor grado por topologfas

adversas de Ia fun cion objetivo como mUltiple mfnimos locales rugosidades mesetas planas

(plateau) no convexidadY una caracterfstica particular que discutiremos en este trabajo los

metodos multipoblacionales pueden generar penalizaciones a tales caracterfsticas indeseables

asignando valores muy giandes ala funci6n objetivog(x) en un pimto x que pertenezca a una

region no deseable Sin embargo existe un precio Los algoritmos convencionales son detershy

ministicos y si estan d~das condiciones sobre el espacio parametral y la funcion objetivo

convergen al optimo global Pero los algoritmos heunsticos son probabilisticos Si no eswn

dadaslas condiciones sobre e1 espacio de parametros y la funci6n objetivo los algoritmos

heurfsticos pueden converger al optimo global pero ~o se tiene la certeza que siempre conshy

vergeran aloptimo global Sin embargo con muchas repeticiones del proceso los algoritmos

heuristicos en promedio se acercaran a ese optimo global

23

Estimaci6n de Panlrnetros en Modelos de Volarilidad Estocastka Usando Algoritrnos Evolutivos

Entre los metodos de trayectoria se encuentran eI temple simulado (simulated annealing)

y aCeptacion con umbral (thresTlOld accepting) Entre los de la segunda clase estan los alshy

goritmos geneticos evolucion diferencial (differential eVaIIion) programacion evolutiva y

colonia de h~rmigas (ant colonies) ver Gilli y Winker (Gilli y Winker2007) y Spall (Spall

2003) para una descripcion y referencias adicionales bull

Una estrategia utilizada en varias soluciones consiste en algoritmos hfbridos por ejemplo

BFGS con Neider-Mead utilizado enR~Metrics para estimacion de modeIos tipo GARCH

ver Wuertz et aI (Wuertz Chalabi y Luksan 2004) pag 17 0 algoritmos genetic os con

restricciones y el metodoSQP (Sequential Quadratic PrograIlming) utilizado en Matlab En

el paquete de analisis de series de tiempo tsm se usa BFGS con la posibilidad de generar los

val ores iniciales usando algoritmos evolutivos

34 Algoritmos evolutivos

Los Algoritmos Evolutivos (AE) sonmetodos de solucion de problemas que utilizan proshy

cesos ()perativos provenientes del paradigma Neo-Darwiniano de Ia evolucion biologic a (Hoshy

lland 1992) Procesos talescomo losoperadores geneticos de reproduccin mutaci6n comshy

petencia y la seleccion del mas ap~o Los Algoritmos Evolutivos (EA)emulan el mecanismo

de Ia seleccion natural y la herenciagenetica y se usan basicame~te para realizarbusqueda

cla~ificacion exploracion y optimizacion en un espacio de trabajo deterrninado Los AE se

han aplicado en casi todas las disciplinas (Fleming y Purshouse 2002 Wang y Kwok 1992)

Lo~ AE en general comienzan con una poblacion de posibles soluciones a ensayar (no

necesariamente correctas ni conocidas) para el problema en estudio Luego se crea aleatoshy

riamente nuevas soluciones a probar modificando las exist~ntes por medio de los operadoshy

res geneticos Para conocer si una solucinensayada es aceptable se usa un in~icador de

desempefio Uamado Funci6nde Ap~itud y a partir del error encontrado se selecciona las

soluciones que se conservaran como padres para la siguiente generacion

En un AE la busqueda de la solucion se hacc masivam~nte en paralelo en elespacio

completo de posibles soluciones al problema diigiendo Ia exploraci6ny la seleccion a un

24

j~ ~g f~rOH~~

ixf--fC

Jesus Antonio HernAndez Riveros y Juan David Ospina Arango

subespacio cercano a la solucion esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy ----~-----j

tes generaciones de una poblaci6nt i

reproducci6n De generacion en

en la poblacion por medio de la

soluciones Un AE es un proceso i condicion se satisface normal mer

za un criterio de terminaci6n La I I

descripciones candidatas denomin I

esta poblaci6n construyendo nue~ bull res descripciones de la poblacion ~ I

II generaci6n G1 y nuevamente las I I pr6xima generaci6n hasta que se e

I generaci6n Gn bull EI proceso tambie~1

dados no se presente una mejora en i

mien to estancamiento en el error 0 i caitdidatas tam bien Ilamadas individ

S610 pueden tener descendencia los 1

iden ser cadenas (strmgs) de sfmholos i

16gicos 0 representaciones mixtas Pl

estructura de longittid fija Cada indi Ibuto Ai del problema a resolver y I

en el dominio del problema para ese 1

va se desarrollaron porgrupos difere1

Solamente en los ultimos afios se acu

todas las tecnicas y estilos de enfOqU~ Las diferencias entre las diversas tecnij

puede diferir de otro y por tanto la V

tradicionales estan los Algoritmos GeJ

I

I I I

Jesus Antonio Hernandez Riveros y Juan David Ospina ArangoEstimaci6n de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

annealing)

estan los alshy

evolutiva y

por ejemplo

tipo GARCH

I geneticos con I ) en Matlab En de gene~arlos

1e uti Izan pro-I iol6gica (Ho-

IlItacl6n com-I ~I mecanismo I lar bt1squeda Los AE se I (wok1992)

lensayar (no t

Icrea aleato-I los opemdoshy

ndiCador de I lecciona las

el espacio

-- - Fei6n a un I

1

subespacio cercano a la soluci6n esperada La competencia y la seleccion son inevitables en

poblaciones que se expanden en un entomo limitado La evoluci6n se observa en las diferenshy

tes genemciones de una poblacion y para el cambio de generaci6n es necesario el proceso de

reproduccion De generaeion en generacion es conveniente el rnantenimiento de la diversidad

en la poblaci6n por medio de la mutaci6n u otras altemativas de generaci6n de potenciales

soluciones Un AE es un proceso iterativo que finaliza cuando se verifica una condici6n Esta

condici6n se satisface normalmente cuando se lIega a un resultado satisfactorio 0 se aIeanshy

za un criterio de terminaci6n La idea basica consiste en usar un conjunto inicial Go de

descripciones candid at as denominadas una poblaci6n y gradual mente mejorar la calidad de

est a poblaci6n constniyendo nuevas descripciones originadas desde las partes de las mejoshy

res descripciones de la poblacion actual Estas descripciones generadas forman la siguiente

generacion Glgt y nuevamente las mejores descripciones son transformadas para formar la

proxi~a generacion hasta que se encuentren descripeiones con la sufieiente calidad en la

generacion Gn bull EI proceso tambien puede terminarse despues de que para ciertos criterios

dados no se presente una mejora en los individuos criterios tales como tiempo de procesashy

miento estancamiento en 61 error 0 un m1mero determinado de generaeiones Las soluciones

candidatas tambien llamadas individuos ernul an los componentes de una especie bio16gica

Solo pueden tener descendtmcia los individuos de una misma especie Los individuos pueshy

den ser cadenas (strings) de sfmbolos de un alfabeto en particular vectores matrices arboles

logicos 0 representaciones mixtas Por 10 general cada descripcion es codificada como una

estructura de longitud fija Cada individuo esta compuesto de subcadenas S por cada atrishy

buto Ai del problema a resolver y en estas subcadenas cada posicion representa un valor

en e1 dominio del problema para ese atributo Las tecnicas cIasicasde computacion evolutishy

va se desarrollaron porgrupos diferentese inicialmente no relacionados de investigadores

Solamente en los ultimos arios se acuii6 el termino Computacion Evolutiva para referirse a

todas las tecnicas y estilos de enfoques computacionales basados en la adaptaci6n evolutiva

Las diferencias entre las diversas tecnicas determinan los factores por los cuales un individuo

puede diferir de otro y por tantola variacion genetica que se permite Entre los enfoques

tradicionales estan los Algoritmos Geneticos las Estrategias de Evolucion y la Prograrriacion

25

Estimaci6n de Parametros en Modclos de VolatWdad Estocastica Usando Algoritmos EvoJutivos

Evolutiva En las diferentes tecnieas de algoritmos evolutivos son mas las semejanzas que

las diferendas se reducen al tipo de estructuras de datos para representar los individuos los

modos de cambio en las soludones para crear los descendientes yen el procedimiento para

seleccionar los nuevos padres (Hernandez 1999)

Algoritmos Geneticos Las estructuras en adaptaci6n usual mente son cadenas de caracteres

_~______ Al_lnntr~tllrLf1 in _T~rnhi~n_ cnn_nniht~~trncJintc~poundI~ct~uctnrl~llnci6~e aptitud se

se interpreta l

principal es j

Ii utiliza pero 6nieo se usa I radica en la I Ina analogfa

Ie especie se

escendencia I

ado A cada t ~ buena sea

ecdonados

~to produceI SUS padres

operadores i

lera resulta I ~I problemaI os criterios

)njuntos de I ~stas vana- del mundo

Jesus Antonio ltemandez Riveros y Juan David Ospina Arango

real La medida de aptitud se determina ejecutando rutin as y algoritmos para cumplir una

tarea utilizando las variables objetivo comoparametros La mutaci6n es el operador genetieo

principal y el modo como ella cambia cada una de las variables objetivo para producir nuevos

individuos es control ado por las variables de estrategia Tambien se aprovecha la recombishy

nad6n tanto en las variables objetivo como en las variables de estrategia La representaci6n

de los individuos usual mente es un vector de val ores reales con los campos a considerar del

problema a solucionar

Programacion Evolutiva Se us an diferentes estructuras de represe1tacion de los indivishy

duos en adaptaci6n desde sencillas como cadenas de caracteres hasta complejas como

maquinas de estado finito Un rasgo comun en la representaci6n es la utilizacion de variables

objeti~o con valoresdel mundoreal La medida de aptitud se deterrnina ejecutando rutinas

y algoritmos paracumplir una tarea cuyos argumentos son variables objetivo del problema

de interes Aunque la mutaci6n es el unico operador genetico que se emplea la estrategia de

solucion es computacionalmente adecuada

Algunos autores consideran que los algoritrnos genetieos (GA) son un caso especial de

los a1goritmos evolutivos (Whitley 200 12002) puesto que usan una codificaci6n binaria en

lugar de un alfabeto real para las posibles soluciones La eficiencia computacional de los EA

depende engran medida de la programaci6n y de la codificaci6n escogida Un EA se carac-

teriza por las lIamadas operaciones geneticas una Funcion de Desempefio y un Mecanismo

de Selecd6n EI esquema general de un EA se muestra en el algoritmo I

Algoritmo 1 Algoritmo Evolutivo General 1 Generaci6n de 1 Poblaci6n Inicial M (t)

2 E~aci6n M(t)

3 repetir

4 t =t+ 1

5 Selecti6n de individuo de M(t)

6 Creacion dela nueva poblaci6n M(t) a partir de las operaciones geneticas

7 M(t)middot M(t)

8 Evalue M(t)

9 elitelio de finhudon

27

-------------

Estimad6n de Parametro en Modelos de Vnlatilidad Estocastica Usando Algoritmos Evolutivos

341 Opcracioncs gcneticas

Rcplicacion La replicacion 0 clonacion lleva a cabo una copia identica de los individuos

mas aptos aunque rio necesariamente estos son los unicos quesereproducen (Whitley

1994) pues algunos investigadores en el area sefialan como conveniente mantener la divershy

sidad de la poblacion en cada generacion Por ejemplo si la solucion de un problema se

puede codificar como una cadena binaria de cinco bits la replicaci6n de los individuos 1l0l0

y SNNNS (con Sly N = 0) actlia como sigue R (Ii) = (Ii) es decir que el individuo

Ii presente enla generacion k se copia a la generacion k + 1 sin sufrir cambios As que

R(llOlO) = (1l0l0) Y R(SNNNS) (SN NNS) Una mayor diversidad en la poblashy

cion significa una garantfa para una mejor exploraci6n del espacio de trabajo Una forma de

mantener Ia diversidad en la poblacion es conservar iridividuos ~o tan cercanos al mejor de

manera que una posible mutaci6n de ellos 0 el posible producto de su cruce con los mas aptos

resulten potenciaImente ubicadosen un subespacio aun no explorado Una mayor diversidad

en la poblaci6n ayuda a evitar la convergencia a un optimo local y de ahf la propuesta que la

replicaci6n no necesariamente se limite a los individuos mas aptos

Cruzamiento EI cruzamiento 0 recombinaci6n se asimila a la reproducci6n sexual en donshy

de dos individuos diferentes interactuan para generar un tercero que hara parte de la nuevamiddot

generacion los padres no necesariamente tendran lugar en la poblacion emergente En el

Algoritmo Genetico la recombinacion estandar es el cruzamiento en un punto Esto es dos

individuos se seleccionan aleatoriamente como padres se determina tambien deforma aleashy

toria el punto de cruce en las cadenas que representan a esos individuos yse genera un

descendiente concatenando la subcadena izquierda de un padre con la subcadena derecha del

otro padre El operador recombinaci6n en el algoritmo genetico se aplica generalmente con

un cierto valor de probabilidad En Estrategias de Evoluci6n la recombinaci6n es el operashy

dor genetico primario se utiliza para generar todos los miembros de una nu~va poblaci6n

La recombinaci6n puede ser discreta 0 intermediaria Discreta cuando se hacen selecciones

aIeatorias de variables sencillas de los padres=comparableal cruzamiento uniforme en el

AIgoritmo Genetico Intermediaria cuando se aplica un promedio aritmetico 0 vin-iantes soshy

28middot

~~IiI ~ --=====--

-------if fisticadas como el cruzamiento geometrico En

se usa la recombinaci6n de forma directa sino

cruzamiento es una operaci6n que combina d

dos individuos en la generaci6n k + 1 En sti

de cruzamiento induye la selecci6n de un J viduos se separaran Por ~jemplo el cruzai

partir del ~ercer ~~n puede representarse c~

En esta operaclOn es Importante tener d I

punto de cruce pues dentro de un esque I

de caracterlsticas es decir que si los prJ i

compacta una caracterfstica de la soluc

tener necesariamente un efecto positivi

La raz6n de cruzamiento es el polI

zamiento Esta raz6n esta relacionaq

aumenta el espacio de bUsqueda tal

cantidad de tiempo de c6mputo exl

del espacio de bUsqueda I Mutaci6n La mutacion es un

I e1 manejo de lao rcpresentaCI6

la poblacion y cvitar asf caer

ejecuta con base en una mu

representaci6n de los indivd

mutaci6n se realiza ~dicionl I

aleatorio normal mente dis

de los individuos es en vaIr

Estrategias de Evoluci6nl I

las maquinas de est ado 1

L-~

Estimaci6n de Prametros en Modelos de Volalilidad Estoastic Usando Algoritmos Evolutivos

341 Operaciones geneticas

Rcplicacion La replicaci6n 0 clonacion lIeva a cabo una copia id6ntica de los individuos

mas aptos aunque rio necesariamente estos son los dnicos que sereproducen (Whitley

1994) pues al~llI1~nyestjoJ-----~---1Ir como conveniente mantener la divershy

tplo si la soludon de un problema se - L lla repJicacion de los individuos 11010 I (Ii) = (Ii) es decir que el individuo

6n k + 1 sin sufrir cambios Asf que I

I Una mayor diversidad en la poblashy

~el espacio de trabajo Una forma de ividuos no tan cercanos al mejor de

ducto de su cruce con los mas aptos

0 explorado Una mayor diversidad

local y de ahf Ia propuesta que la as aptos

Il a Ia reproduccion sexual en donshy

cero que hara parte de Ia nueva I

1 la poblaci6n emergente En el

Iento en un punto Esto es dos

Irmina tam bien de forma aleashy1

~s individuos y se genera un

1 icon la subcadena derecha del I

se aplica generalmente con

Irecombinacion es el opera-

8 de una nueva poblaci6n

ando se hacen selecciones

Izamlento unhorme en e itmetico 0 variantes so- t

I

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

fisticadas como el cruzamiento geometrico En contraste en la Programacion Evolutiva no

se usa la recombinaci6n de forma directa sino que se simula y exam ina su efecto funcional

para interpretar una cadena de sfmbolos como una poblacion en reproducci6n En general el

cruzamierito es una operaci6n que combina dos individuos de la generaci6n k para producir

dos individuos en la generaci6n k + 1 En su forma mas popular (cruce simple) Ia operacion

de cruzamiento incluye la seleccion de un unico punto de la cadena en el cual ambos indishy

viduos se separanin Por ejemploel cruzamiento entre los individuos 11010 y S N N N S a

partir del tercer gen puede representarse como C (11010 SNN NS 3) = (110NS SNNlO)

En esta operacion es importante tener cuidado con la selecci6n del gen que determina el

punto de cruce pues dentro de un esquema de codificacion se debe respetar la agrupacion

de caracterfsticas es decir que si los primeros tres genes de la cadena representan en forina

compacta una caracterfstica de la solucion separar la cadena en el segundo gen no Hene que

tener necesariamente un efecto positivo en la creaci6n de mejores individuos

La razon de cruzamiento es el porcentaje de la poblaci6n a la cual se Ie aplicam el crushy

zamiento Esta raz6n esta relacionada con el tamaiio del espacio de busqueda dado que si

aumenta el espacio de bdsqueda tambien 10 hace pero si es muy alta se puede perder gran

cantidad de tiempo de computo explorando regiones no promisorias dentro y hasta por fuera

del espacio de bUsqueda

Mutacion La mutaci6n es un operador de variacion que da ciertos grados de libcrtad en

el manejo de la representaci6n de los individuos Su prop6sito es mantener la diversidad en

la poblacion y evitar asf caer en un 6ptimo local A diferencia de los otros operadores se

ejecuta con base en una muy pequeiia probabilidad Como en Estrategias de Evoluci6nla

representacion de los individuos consiste en variables reales y panimetros de estrategia Ia

mutaci6n se realizaadicionandoindependientemente a cada elemento del vector un valor

aleat~ri~ normal mente distribuido En Programaci6n Evolutiva dado que la representaci6n

de los individuos es en valores reales la mutaci6n que se usa en la actuaJidad es similar a la de

Estrategias de Evoluci6n Originalmente consistfa en cambios aleatorios en la descripci6n de

las maquinas de est ado finito tornados de entre las siguientes opciones cambio en la entrada

29

Estimaci6n de Panimetros en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

cambio en la salida cambio en la transicion adicion de un estado borrado de un estado

La mutacion es una operacion que requiere de mucho cuidado pues en ella se realizan

cambios generalmente aleatorios que pueden introducir ruido en la siguiente generacionPor

otro lado es una operacion que contribuye en gran medida al sostenimiento de la diversidad

en las futuras generaciones En esta operacionse escoge uno 0 varios puntos deja cadena

para mutar y en el caso de los algoritmos geneticos (AG) la mutacion consiste en la inversi6n

del bit Porejemplola operaci6n de mutaci6n del individuo 11010 en la cuarta posici6n se

escribe como M (11010) = (11000) En codificaciones diferentes a la binaria la mutaci6n

consiste en una operacion de variacion aleatoria de uno 0 mas elementos de la cadena que

conforma un individuo

La mutacion sirve para explorar genes que no estaban incIuidos en la poblaci6n inicial 0

para recuperar genes perdidos en el proceso evolutivo con el fin de explorarlos en un nuevo

contexto

342 La aptitud

Un algoritmo evolutivo emula el proceso natural de evoluci6n adaptativa en el cual un

individuo de una poblaci6n es afectado por otros individuos de esa misma poblacion y por

el entorno de esa poblacion Los individuos que mejor se desempeiien en esas circunstancias

interna~ y extern as son los que tienen mayores oportunidades de una larga vida y mas pro-

babilidad de dejar descendientes Los descendientes heredan la informaci6n genetica de los -

padres y con base en esta info~maci6n ellos seguiran interactuando para la creaci6n de nueshy

va informaci6n gen~tica y su correspondiente evaluaci6n seleccion y diseminacion Con el

transcurso del tiempo se van generando comprtamientos y estructuras capaces de enfrentar

con exito diferentes situaciones e iran desapareciendo aquellos individuos que pordiversos

motivos no tienen la suficiente aptitud para lograr e1 desempeiio adecuado De los indi~ishy

duos con mas alto desempeiio - 0 con la mejor fun cion de aptitud se seleccionan algunos

para conforar el conjunto competente de la p~blacion alcual se Ie aplicaran los operado~ res geneticos Ese conjunto de individuos selectosse transforma en una nueva generaci6n de

30

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

la poblacion La forma en que cada individuo responde al problema se mide con la funcion

de aptitud Esto implica que la funfjQn_deJIotitud_nH_nfrpltri~on~ 10 ampbullbull_-__-______

I shy(0 problema q

la selecci6n i j

el escalamient

caIa~iento sel

para cada indi I

val ores de la fl

ceso evolutivo

de la variaJlza I algun criterio

objetivo Genei

Elordenimi 1

cionada y orgar i

ser organizar ld

I jaSlgna un va or

I 343 La 51

La selecci61

muchas manerJ

nimizacion de j proceso r~qUieJj ma~encia de 10

1

diversidad y pdI

es uno de los p

Geneticos la sd

dd d IIn IVI uo eten I

I sea en unaJera~

I

ESlimaci6n de Paramelros en Modelos de Volatilidad Estocatica Usando Algoritmos Evolutivos

cambio en la salida cambiD en la transici6n adici6n de un estado borrado de un estado

La mutaci6n es una operaci6n que requiere de mucho cuidado pues en ella se realizan

cambios general mente aleatorios ql1~oueden introducir ruido en la siguiente generaci6n Por

otro Iado es u~onpr-- ---- --e en gran medida al sostenimiento de Ia diversidad 1 __-

ici6nse escoge uno 0 varios puntos dela cadena

neticos (AG) Ia mutacion consiste en Ia inversion

6n del individuo 11010 en Ia cuarta pDsicion se

ificaciDnes diferentes a la binaria la mutacion ia de uno 0 mas elementDs de la cadena que

0 estaban inc1uidDs en la pDblacion inicial 0

utivo con el fin de explorarlos en un nuevo

de eVDluci6n adaptativa en el cual un

viduos de esa misma pDblacion y Por

e desempefien en esas circunstancias lpadesde una larga vida y mas pro- ~

~an la informacion genetic a de IDS

actuando para la creaci6n de nueshy

i eleccion y diseminacion CDn el

s~ructuras capaces de enfrentar

d d d~s In IVI UDS que por IverSDS

efio adecuado De IDS indivishy

itud se seleccionan algu~os e Ie aplicanin IDS DP~~ado-

una nueva generaclOn de

-

Jesus Antonio Hernandez Riveros y Juan David ospina Arango

la poblaci6n La forma en que cada individuo respDnde al problema se mide con la funci6n

de aptitud Esto implica que la funcion de aptitud nD es necesariamente hi funcion objetivD

(0 problema Dbjetivo) sinD que puede ser un resultado derivadD de esta para prop6sitos de

la seleccion LosdDS metodDs mas utilizadDS en la literatura para determinar la aptitud son

el escalamientD y el ordenami~ntD (scaling y ranking en ingles respectivamente) En el esshy

calamientD se usa una funcion que mapea de alguna forma el valDr de la funcion DbjetivD

para cada individuo Su principal intencion es mitigar la disminucion de la varianza de IDS

valores de la funci6n objetivD para IoS individuos de cada generaci6n a medida que el prDshy

ceso evolutivo transcurre EI ordenamiento en cambio hace caso omiso de la disminuci6n

de lavarianza antes menciDnada y Drganiza IDS individuDS de cada generaci6n de acuerdD a

algun criterio como puede ser ordenar IoS individuos de mayor a menor valor de la funci6n

Dbjetivo Generalmente nD asigna un valor cuantitativo de aptitud a cada individuo

EI ordenamiento en cambi~ hace caso amiso de la disminucion de la variania antes menshy

cionada y organiza loS individuos decada generaci6n de acuerdo a algun criterio CDmo puede

ser organizar IoS individuDS de mayor a menor valor de la fundon objetivo Generalmente nD

asigna un valDr cuantitativD de aptitud a cada individuo

343 La seleccion

La selecci6n es el proceso que dirige la bUsqueda estocastica y puede llevarse a cabo de

mucha~ maneras La selecci6n de un individuo se hace con base a la maximizacion 0 mishy

nimizaci6n de la magnitud de su fund6n de aptitud La forma en que se lIeva a cabo este

poceso requiere un gran cuidado puesto que una polftica de selecci6n que favorezca la pershy

manencia de IDS individuDS mas aptos y parecidos entre sf puede llevar a una perdida de la

diversidad y pDr cDnsiguiente a la convergencia prematura a una sDluci6n no deseada que

es uno de IDS problemas mas CDmunes en IDS algoritmos de optimizacion En Algoritmos

Geneticos la selecci6n es un operador probabilfstico que a partir de la aptitud relativa de un

individuo determina su probabilidad de selecci6n Este Dperador puede estar soPortado ya

sea en unajerarqufa donde IoS individuDS se ordenan segun su valor de aptitud para calcular

31

~f~r-iJ2~T~ti~~

la correspondiente probabilidad de selecci6n 0 en una competencia en donde se toma aleatoshy

riamente una muestra uniforme de n individuos se seleccionan Ismejores de ell os para que

sobrevivan enb nueva generaci6n y se continua con el proceso hasta que secomplete toda

la nueva poblaci6n En las Estrategias de Evoluci6n la selecci6n es determinlstica se crea

una cantidad n de hijos mayor que la de los padres 111 Por medio de la recombinaci6n y la

mutaci6n se escogen determinfsticamente los 111 mejo~es descendientes para reemplazar los

padres conformandouna nuevageneraci6n La Programaci6n Evolutiva utiliza una variante

probabilfstica (111 + n) del operador selecci6n utilizado en Estrategias de Evoluci6n En este

caso cada soluci6n de padres e hijos se com para con un grupo de otras souciones elegidas lt bull

de forma aleatoria del conjunto de soluciones de padres e hijos Decada comparaci6n se

toma el ganador y se repite el proceso hasta comp~etar los 111 individuos de la nueva generashy

ci6n Los mecanismos de selecci6n mtisutilizados son La ruleta y el tomeo EI metodo de

la ruleta consiste en asignarle a cada individuo una probabilidad de supervivencia Ia cual se

calcula como el valor de la aptitud del individuo dividido entre Ia sumatoria de los valores

de la aptitud de todos los individuos presentes en Ia poblaci6n Luego de esto se genera un

m1mero aleatorio r entre 0 y 1 y comienza a elegirse individuos aleatoriamente hasta que

la suma de sus probabilidades de supervivencia sea mayor al numero r el ultimo individuo

elegido es el seleccionado Este proceso se repite hasta completar la poblaci6n necesaria para

aplicar las operaciones geneticas Por otra parte en el metodo del tomeo se busca realizar

competencias entre grupos de individuos (usualmente parejas) para elegir al individuo con

mayor aptitud de cada grupo En general estos grupos se eligen de manera aleatoria dandole

asf posibilidad de ser tambien seleccionados a los individuos con bajos val ores de aptitud

EI elitismo es una polftica de selecci6n utilizada para garantizar que el individuo con mayor

aptitud (superindividuo) o un grupo de elIos de cada generaci6n sea copiado en la sigui~nte

generaci6n en (Villalobos 2003) se presenta este concepto como una condici6n para garan-

tizar Ia convergencia de un AG

32

Iesu Antonio Hernandez Rivero y Juan David Ospina Arango

344 Algoritmos ProbabjIfsticos v_il_]f~-t--middot---middot--~ - ~ ~- - ----~

I I

Algunas I

que se ha es

titud y un sJ

de la no coni

nar funcione I

como una e~

dl algontmos t

cos convencil

generaci6n a I

1996) En am

de aptitud ya

de b6squeda I

con los algoril I

AG para gene1I

probabilidad 01 1

generan nuevo~ I

individuos des~ I

los EDA modil I

epistasis (probl

dos eficientem~ para realizar la ~ I basan en una teo

j do tecnicas estac

de la estructura

estimar la distrill

Antes de entt

mos evolutivos bl I

Etimaci6n de Panlmetros en Modelo de Volatilidad Es[ocitica Usando Algoritmos Evolutivos

Ia correspondiente probabilidad d~_selfgtrr---~-~~competencia en donde se toma aleato~

----~~

--- -i riamen t --~ ---cionanlos mejores de ellos para que

proceso hasta que se complete toda

~elecci6n es determinfstica se crea

br medio de la recombinaci6n y la

escendien~es para reemplazar los

~i6n Evolutiva utiJiza una variante

Estrategias de Evoluci6n En este

~po de otras soluciones elegidas I

hijos De cada comparaci6n se

t individuos de la nueva generashyI Uleta y el tomeo EI metoda de I

ad de superivencia Ia cual se

re la ~~matoria de los vah)res

~ Luego de esto se genera un uos aleatoriamente hasta que ~

ilmero r el ultimo individuo la poblaci6n necesaria para 1 el tomeo se busca realizar

hra elegir al individuo con I manera aleatoria dandole t I

bajOS valores de aptitud

el individuo con mayor Ii copiado ~n la siguie~te

a condici6n para garanshy I I

I bull I

- 1 i

I

11~W$rutH fie~_M~~

n~tl-r(~ i ~ ~lt

Jesus Antonio lIemandez Riveros y Juan David Ospina Arango

344 Algoritmos Probabilisticos y de Estimacion de Ia Distribucion

Algunas veces los AE no logran lIegar a Ia soluci6n En estos casos despues de verificar

que se ha escogido una correcta estructura para los individuos una adecuada funci6n de apshy

titud y un suficiente numero de generaciones para el proceso de evoluci6n surge como causa

de la no convergencia la perdida de diversidad Ante las dificultades de los AE para solucioshy

nar funciones deceptivas no separables 0 con correlaci6n entre las variables se propusieron

como una extensi6n los Algoritmos de Estimaci6n de la Distribuci6n (EDA) Los EDA son

algoritmos de busqueda basados en poblaci6n que en lugar de utilizar los operadores genetishy

cos convencionales de cruzamiento y mutaci6n para producir los individuos de la siguiente

generaci6n aplican tecnicas estadfsticas de aprendizaje de maquina (Miihlenbein y Paass

1996) En ambos tipos de algoritmos se selecciona un grupo de individuos con buen valor

de aptitud ya sea para aplicar el cruzamiento y Ia mutaci6n 0 para estimar una distribuci6n

de busqueda Mas aun los EDA se pueden entender y desarrollar sin su conexi6n original

con los algoritmos geneticos En lugar de usar cruzamiento y mutaci6n como 10 hacen los

AG para generar la poblaci6n en Ia siguiente generaci6n los EDA utili zan una funci6n de

probabilidad obtenida de la funci6n objetivo 0 de los individuos mas prometedores Los AE

generan nuevos individuos desde la perspectiva de los genotipos y los EDA generan nuevos

individuos desde Ia perspectiva de toda la poblaci6n Mientras los AE modifican individuos

los EDA modifican distribuciones De esta manera los problemas con fuerte presencia de

epistasis (problemas donde se presenta una fuertecorrelaci6n entre las variables) son tratashy

dos eficientemente porque la dependencia de informaci6n entre variables es materia prima

para realizar la distribuci6n de probabilidad EI muestreo y la estimaci6n de distribuciones se

basan en una teona bien conocida y son un t6pico com partido por varias disciplinas Aplicanshy

do tecnicas estadfsticas sepuede evaluar y factorizar la distribuci6n de probabilidad a partir

de la estructura analftica de la funci6n de aptitud y usando redes de aprendizaje se puede

estimar la distribuci6n a partir de la correlaci6n entre los datos

Antes de entrar a d~t~llar las diferentes altemativas que se han intentado con los algorit

mas evolutivos basados en modelos prob~bilfsticos presentamos it continuaci6n para efcctos

33

I

Etimaci6n de Parametro en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

de comparaci6n una descripci6n estocastica del algoritmo el0lutivo tradicional

Sea S el espacio de bUsqueda y F la funci6n de aptitud

Spuede ser muy grande pero es estrictamente finito y topol6gicamente compacto EI

proposito de un algoritmo evolutivo AE es encontrar un punto en el subespacio M en donde

F cumpla cierta condici6n M es el subespacio objetivo (donde se desea optimizar la fun~

cion objetivo) representado por M x E SIP (x) esto es el conjunto de lodos los x

de S donde la funci6n de aptitud F (i) se cumple La tarea es encontrar un punto objetivo

q E AIJF (x) SeaD una funci6n de distancia 0 metrica en lvI que satisface las siguientes

propiedades

1 Para todo x enM D (x x) O

2 Para todo x y en lvI D (x y) = D (y x)

3 Para todo x y zen M D (x z) D (x y) + D (y z) (desigualdad triangular)

Normalmente e1 subespacio M satisface la condici6n de uniformidad es decir1I1 posee

una medida de probabilidad uniforme U que se corresponde con Ia metrica D de forma que

a las partes congruentes de M se les asignan probabilidades identicas La probabiJidad (unishy

forme) (Dembski 1990) de escoger en el subespacio M un punto al azar y que coincida con

el punto objetivo q es muy pequefia Si la probabilidad de encontrar el objetivo no fuera tan

pequefia bastaba con una busqueda aleatoria y no era necesario construir un algoritmo evolushy

tivo Un algoritmo evolutivo puede concebirse como un proceso estocastico que se mueve en

e1 espacio de bUsqueda S y que no tiene permitido circular indefinidamente en este espacio

Sea AE el algoritmo evolutivo Para denominar AE un proceso estocastico sobre los mlmeros

reales AE debe ser Ulia funcion medible desde JR x P en S donde P es el espacio de proshy

babilidades con alguna medida de probabilidad p EI algoritmo evolutivo comienza en algun

punto AE (0) en el espacio de busquedaSusualmente escogido de forma aleatoria Luego

se mueve a otro punto AE (1) pasa a otro AE (2) a AE (3) etc En un numero computable

de pasos n el algoritmo debe lIegar a una respuesta ade~uada de la funcion de aptitud F

Es decir AE es un proceso estocastico en JR x P donde P tiene una probabilidad p Para

34

i que AE lIegue a unl

i computable de pase

I tiene uri punto q e

I es para cada subci

i (p E P J AE(OJ

Notese que en I

especificarse comp

generacion se gen~ I

especffico es posil

EDA (Harik y Gd I

nuevos individuo~ I

bull IgenetIcos estocas

del proceso de e~ individuos que c~ mayor aptitud ~

La teorfa deI (building blocks

lutivos que ma~ I

res BC Estos 0

traves de las op

nes gen6tieas sJ

los algoritmos J I

Con frecuencia

1 ICIa entre os St

conoce como I del si~tema 0 I aita entropfa Ii

sistema a mel

porquelosinJ i

------ --------L-usando Algoritmos Evolutivos

Ide algoritmo eyolutivo tradicional i ion de aptitud I

Imente finito y topol6gicamente compacto EI 1

contrar un punto en el subespacio AI en donde

io objetivo (donde se desea optimizar la funshy IF (x)) esto es el conjunto de todos los x

b 1ple La tarea es encontrar un punto 0 ~et1vo

0 memca en M que satisface las siguientes

-

D (y z) (desigualdad triangular) ~

icion de uniformidad es decir M posee

~sponde con la metrica D de forma que1 WdadeS identicas La probabiJidad (unishy

middotH un punto al azar y que coincida con 1 d de encontrar eI objetivo no fuera tan

fesariO constr~~run aIgoritmo evolushy

proceso estocashco que se mueve en

d fi d lar In e flI amente en este espaclO

ceso estocastico sobre los numeros 1 s donde P es el espacio de proshy

itmo evolutivo comienza en algun

icogido de forma aleatoria Luego

I etc En un numero computable

I

i da de la funcion de aptitud F

- tiene una probabiJidad p Para

h

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

que AE lIegue a una respuesta adecuada de F con respecto a S significa que en un numero

computable de pasos n el conjunto AE (Op) AE(Ip) AE(2p) AE(np) conshy

tiene un punto q en M = x E SIF (x) con una alta probabiJidad para pEP Esto

es para cada subconjuntode Borel en S se induce una asignacion de probabilidad p

(p E P IAE(Op) AE (lP) I AE (2p) AE(np) n M) que es grande

Notese que en los EDA solo se requiere estimar el modelo probabilfstico el cual puede

especificarse completamente por unos pocos parametros Todos los individuos de la siguiente

generacion se glhieran por muestreo desde este modelo de alto nivel Con este procedimiento

especffico es posible predecir el proceso de evoluci6n detallada en cada generacian de los

EDA (Harlk yGoldberg 1997) En contraste en los algoritmos evolutivos tradicionales los

nuevos individuos se producen manipulando los individuos actuales por medio de operadores

geneticos estocasticos Esto hace que no sea posible contar con un detallado analisis tearico

del proceso de evoluci6n Los metodos de muestreo en los EDA son disefiados para generar

individuos que cuenten intencionalmente con una alta probabilidad p (x) en las regiones de

mayor aptitud M dentro del espacio de busqueda S

La teorfa de los algoritmos geneticos se basa en los I1~mados B10ques de Construcci6n

(building blocks) BC Este concepto se extendi6 a todas las variantes de los algoritmos evoshy

lutivos que manipulan un gran numero de individuos reproduciendo y mezclando los mejoshy

res BC Estos bloques de construcci6n son soluciones parciales del problema generadas a

traves de las operaciones geneticas que los cruzan mutan y replican Aunque las operacioshy

nes geneticas son independientes del problema esto no significa que en algunas ocasiones

los algoritmos evolutivos terminen convergiendo en un optimo local por la ruptura de los BC

Con frecuencia esta dificultad ocurre cuando existe dependencia entre variables 0 dependenshy

cia entre los subjJroblemas en que se puede dividir el problemaprincipal Esta situaci6n se

conoce como linkage problem (Harik y Goldberg 1997) enlazamiento 0 epfstasis A nivel

def sistema 0 al nivel de los individuos la exploraci6n puede verse como una bUsqueda de

alta e~tropfa mientras que Ia explotaci6n como un proceso de baja entropfa En el nivel de

sistema a medida que la poblaci6n se acerca al6ptimo la entropfa de la exploraci6n se reduce

porque los individuos se parecen cada vez mas entre sf En cambio en esta etapa al nivel de

35

Etimacion de Purametros en Modelos de Volatilidad Estatic Usando Algoritmos EvolutivDS

los indiv~duos comienza a tener gran importancia la informaci6n mutua como recurso para

generar mejores individuos

Para evitar la ruptura de los BC se ha intentando varias opciones Por ejemplo en el maneshy

jo de la representaci6n de los individuos se va conformando una plantiIIa con los componentes

de los mejores BC los individuos se crean complementandolos con datos de la plantilla Esta

plantilla se actualizacadacierto numero de generaciones apJicando los operadoresde selecshy

ci6n y cruzamiento Tambien se han manipulado los individuos al identificar las interacciones

en un problema (Kargupta 1998) La evoluci6n de los operadores junto con la evoluci6n de

las soluciones que ya se hacia en las Estrategias de Evoluci6n se implement6 en el algorit- bull j

mo genetico de aprendizaje de enlazamiento (Harik 1997) En este algoritmo se mapean las

variables del problema en un circulo y sus distancias mutuas se optimizan en la evolucion

agrupandolas por fuertes interacciones para evitar que en la recombinacion se fragmenten

los BC Sin embargo estasy otras altemativas basadas en el manejo del operador de recomshy

binacion para evitar optimos locales no siempre han sido halagliefias La opcion que queda

es buscar otras formas de generar nuevas poblaciones que sean diferentes a la repli~aci6n

de los buenos BC y su recombinaci6n La solucion ha sido extraer informaci6n del conjunto

completo de soluciones prometedoras para generar nuevos mejores individuos

En general hay tres clases de soluciones para encarar d linkage problem la primera bashy

sada en la manipulaci6n de la forma en que se representan los individuos (Bandyopadhyay

Kargupta y Gang-Wang 1998) la s~g~nda se basa en la evoluci6n simultanea de ambos tanshy

to los operadores como lassoluciones(Harik Lobo y Goldberg 1999) y la tercera consiste

en extraer informaci6n de la poblacion para generar nuevos indi~iduos Esta ultima opci6n

se denomina algoritmos geneticos de construcci6n de modelos probabilfsticos (Probabilistic

Model-Building Genetic Algorithms) 0 hoy miisconocidos como Algoritmos de Estimacion

de la Distribucion (Estimation Distributionilgorithms)

Los Algoritmos de Estimacion de la Distribuci6n (EDA) son una muy reciente metaheurfstishy

ca que ademiis viene ganadoamplio interes en la comunidad cientffica Los EDA son algoshy

ritmos basados en poblacion que para conforma~los nu~vos individuos de la siguiente geneshy

racion hacen usa de una caracteristica de la poblacion actual que relaciona las variables que

36

forman los individuo~ buci6n de probabilida~

si es el caso en los alg

ci6n cruzamiento 0 mu~

poblacion las relaciones

tamente modeladas No (

necesario lIevar a cabo CO relaciones de dependencia-

un grupo de individuos de IJ

da Ia poblaci6n no es muy u~

estimar de Ia poblacion un m6

cuerpo de dependencias entre

sea el modele mayor tIempo COl I

jidad del modelo surgen las vari

simultiineamente los modelos a a

ten dependencias Bivariados si st se permiten mUltiples dependenc~ incluir varios tipos de distribucion

y Biv~riados se sacrifica riqueza en 1

delo Entre los modelos univariados

I B Algorithm) y el PBIL (Popu atl~n a

necesitan estructuras de aprendlzaJe pi

que la distribucion de probabilidad coAl

P(Xh X2

En el algoritmo de aprendizaje increJ ~

bola estimacion de la distribucion aSUml

Goldberg y Cantu-Paz 1998)Los nuevos

Estimad6n de Parametros en Modelos de Volatilidad Estoc~tica Usaodo Algoritmos Evolutivos

los individuos comienzaa tener gran importancia la informacion mutua como recurso para

generar ~ejores in~iY9uOS-~--- -----~ i

n-----~ rias opciones Por ejemplo en el maneshy-~----

-~-- hndo una plantilla con los componentes

tandolos con datos de la plantilla Esta ~s aplicando los operadores de selec-

Ividuos al identificar las interacciones

peradores junto con Ia evolucion de

luci6n se implement6 en el algoritshy

~ En este algoritmo se mapean las tuas se optimlzan en la evoluclon

la recombinaci6n se fragmenten

I manejo del operador de recomshy

llagilefias La opcion que queda

ean diferentes a la replicacion

traer informacion del conjunto Iores individuos

~age problem la primera bashy

Individuos (Bandyopadhyay II ~ simultanea de ambos tanshy ~99) y la tercera conslste

duos Esta ultima opci6n

abilfsticos (Probabilistic

19oritmos de Estimaci6n

II y reciente metaheurlstishy

1 Los EDA son algoshy

de la siguiente gene-I

I bl Ina as vana es que

-~

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

forman los individuos esta es ya sea la estimaci6n el aprendizaje 0 el muestro de la distrishy

buci6n de prob~bilidad del conjunto de soluciones potenciales En los EDA no existen como

si es el caso en los algo~itmos evolutivos los tradicionaies operadores geneticos de replicashy

cion cruzamiento ltgt mutaci6n En los EDA par el uso de la distribuci6n de probabiIidad de la

poblaci6n las relaciones de dependencia-independencia entre los individuos quedan explfcishy

tamente modeladas No obstante la estimacion de Ia distribucion no es una tarea facil y es

necesario Hevar a cabo complejas tareas con alto costa computacionaL Para reconocer esas

relaciones de dependencia-independencia se acostumbra a utiizar como conjunto de prueba

un grupo de individuos de la poblacion actual La distribuci6n de probabilidad conjunta de toshy

da la poblacion no es muy uti aun en problemas pequefios de forma que hay que aprender 0

estimarde Ia pobIaci6n un modelo mas sencillo Entre mas complejo el modelo mejor sera el

cuerpo de dependencias entre variables que 61 producira Por supuesto entre mas complejo

sea el modelo mayor tiempo consumira su proceso de estimaci6n Dependiendo de la compleshy

jidad del modelo surgen las variantes de los EDA Segun el numero de variables a considerar

simultiineamente los modelos a aplicar pueden considerarse como Univariados si no se permishy

ten dependencias Bivariados si se permiten dependencias entre parejas y N-variados cuando

se permiten mUltiples dependencias Los modelos N-variados son muy poderosos y pueden

incluir varios tipos de distribuci6n entre ellos las redes bayesianas En los casos Univariados

y Biv~ados se sacrifica riqueza en la informacion a cambio de una rapida estimacion del moshy

delo Entre los modelos univariados se destacan el UMDA (Univariate Marginal Distribution

Algorithm) y el PBIL (Population Based Incremental Leaming) Los modelos univariados no

necesitan estructuras de aprendizaje pues solo requieren probabilidades marginales yasumen

qu~ Ia distribuci6n de probabiJidad conjunta esta factorizada segun la ecuacion (32)

n

P(XIX2 Xn ) = fIp(x) (32) =1

En el algoritmo de aprendizaje incremental basado en poblaciones (PBIL) se lIeva a cashy

bo Ia estimacion dela distribucion asumiendo independenci~ entre las variables (Pelikan

Goldberg y Cantu-Paz 1998)Los nuevos individuos se generan manteniendo en un vector

37

Estimacion de Panlmetros en Modelos de Volatilidad ESioca~tica Usando Algoritmm Evolutivos

de valores reaes las frecuencias univariadas de las variables Este vector se desplaza en dimiddot

recci6n ala mejor soluci6n potencial EI algoritmo genetico compacto (cGA) y el algoritmo

de distribuci6n marginal multivariada (UMDA) aplican la misma tecnica de estimaci6n de la

distribuci6n (Mtihlenbein 1997) Las probabilidades marginales de cada variable se estiman

a partir de las frecuencias encntradas en la poblaci6n muestreada Con esta distribuci6n se

obt~ene un comportamiento muy similar al de un AG simple Adicionalmente las soluciones

parciales BC de orden mayor que uno continuan perturbadas

Los modelos bivariados si requieren una estructura y un aprendizaje parametrico ya que

factorizan la distribuci6n de probabilidad conjunta n-dimensional como en la ecuaci6n (33)

n

p(XlX2 Xn ) =p(xr ) II P (Xilpp (Xiraquo (33)

en donde Xr es la variable ralz del modelo (Ia unica sin padres) y se asume que el resto de

variables tienen un unico padre PP (Xi) Los arboles de dependencia las cadenas de distribushy

ci6n y las distribuciones bivariadas marginales han sido exitosamente aplicados para estimar

la distribuci6n de BCs con interacciones por pares Sin embargo no todas las interacciones

de orden mayor que uno son pareadas Las interacciones entre variables de orden superior

permanecen sin una soluci6n efectiva Cuando se conoce la descomposici6n estructural del

problema y su factorizaci6n se puede aplicar una distribuci6n factorizada Este es el enfoshy

que de los algoritmos de distribuci6n factorizada FDA (Mtihlenbein Mahnig y Rodriguez

1999) enfoque muy util en presencia de descomposici6n aditiva pero si estas se desconocen

se incurre en altos costos computacionales Se ha demostrado te6ricamente y se ha observado

emplricamente que el desempefio de los EDA y los AE es muy similar (Pelikan Goldberg

y Lobo 2002) Sin embargo los EDA gruantizan una reproducci6n y mezc1a efectiva de los

BC por su habilidad para capturar con precision la estructura (BC) de un problema dado

superando a los AG en la soIuci6n de problemas deceptivos con desempefios lineales y cuasishy

cua~r~ticosen terminos de~ nu~er~ de evaluacines de la funcion de aptitud En el algoritmo

2 se muestra el esquema general de un algoritmo de estimaci6n de la distribuci6n

38

Jeus Antonio lIemandez Rivero y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de Ia Distribuci6n 1 Gencracion de Ia Poblacion Inidal I(x) x 5 n

2 Evaluar M(t)

3 repetir

4 t+l 5 SeIecd6n de S ~ Ai individuos bajo algun criterio

6 Estimar 10 distribuci6n de S - D

7 Generar n individuos (muestras) de D_

8 Evaluar AI()

9 hasta que satisfacer un criterio de finalizacion

35 Elalgoritmo EAMN

El algoritmo propuesto denomlnado Al I

mal Mu1tivaraida (EAMN) comparte algI I

Algoritmos Evolutivos (~A) Es un algori~

6ptimo de una funci6n de valor real f D j conceptos de seleccion elitismo y mutaciq I

Como los EDAs el EAMN usa distrib~ I

no para ajustar un modelo a los mejores in( ~ I

Entre las posihilidades para tener en cuenu I

el proceso de aprendizaje de los EDA sel

2006)

I Generar individuos mas aptos para

al considerar su valor de aptitud E

de aptitud se asignan pesos a los i

proceso de aprendizaje del EDA

2 Aplicar un metodo de selecci6n pro

3 C~nsiderar el valor de aptitud com

incluir este valor junto con los indi 1

d mutro Ypmlaj del ED1

I

Estimaci6n de Parmetros en Mod_los d_ Volalilidad F~-- ~svolutiYOS ~----

IS Este vector se desplaza en dishy compacto(cGA) y el algoritmo I

sma tecnica de estimaci6n de la

lies de cada variable se estiman reada Con esta distribuci6n se I ~dicionalmente las soluciones

I

prendizaje parametrico ya que

hal como en la ecuaci6n (33) I

~ i (Xi)) (33)I

i s) y se asume que el restode

icia las cadenas de distribu-I ente aplicados para estimar

II no todas las interacciones Ii

_ ~riables de orden superior

I ldli mpOSIClon estructura e 1 bull

tonzada Este es el enfoshy

in Mahnig y Rodriguez I

fO si estas se desconocen

mente y se ha observado Ii par (Pelikan Goldberg

mezcla efectiva delos

Ide un problema dado

Ipefios lineales y cuasishyt I

titud En el a1goritmo I I

1I

stribuci6n - J

1

Jesus Antonio lIernandez Riveros y Juan David Ospina Arango

Algoritmo 2 Algoritmos de Estimaci6n de la Distribuci6n 1 Generacion de la Poblcion [nicial IIx) x n

2 Evaillar M(t

3 repetir

4 t =t+l

5 Selecci6n de 5t M individuos bajo algun criterio

6 Etimar 1a distribuci6n de 5t ~ D t

7 Generar it individuo (muestrs) de D

8 Evaillar Mt)

9 hasta que satisfacer lln criterio de finalizacion

35 Elalgoritmo EAMN

EI algoritmo propuesto denominado Algoritmo Evolutivo Basado en la Distribuci6n Norshy

mal Multivaraida (EAMN) comparte algunas de las caracterfsticas nlas distintivas con los

Algoritmos Evolutivos (EA) Es un algoritmo que utiliza varios individuos para encontrar el

optimo de una funci6n de valor real J D lt JRk -t JR que tambien hace uso de una c1ase de

conceptos de selecci6n elitismo y mutaci6n pero con consideraciones estadfsticas

Como los EDAs el EAMN usa distribuciones de probabilidad pero en contraste con estos

no para ajustar un modelo a los mejores individuos sino para explorar el espacio de bUsqueda

Entre las posibiJidades para tener en cuenta la aptitud de cada individuo seleccionado durante

el proceso de aprendizaje de los EDA se consideran (Miquelez Bengoetxea y Larrafiaga

2006)

I Generar individuos mas aptos para influir en el aprendizaje del modele probabilfstica

aI considerar su valor de aptitud En este enfoque de acuerdo con el respectivo valor

de aptitud se asignan pesos a los individuos para que ejerzan mayor influencia en el

proceso deaprendizaje del EDA

2 Aplicar un metodo de selecci6n proporcional

3 Considerar el valor de aptitud como un nodo adicional en el modelo probabilfstico Al

hlcluir este valor junto con los indivicluos se ejerce una influencia directa en los pasos

de muestreo y aprendizllie del EDA

39

4 Transformar el aprendizaje del modelo probabilistico en un problema de clasificacion

supervisado En este enfoque se incuyen en la bt1squeda los mejores y peores indivishy

duos c1asificando todos los individu6s de Ia poblacion en diferentes cases y haciendo

con ellos una red bayesiana En los EAMN aplicamos el enfoque de la seleccion proshy

porcionaL

Suponga que se desea encontrar un minimo EI algoritmo comienza con la generacion de

un conjunto de soluciones potenciales (individuos) tornados de una distribucion de probabilishy

dad uniforme definida sobre el espacio de bt1squeda inicial D denominada poblacion inicia

Luego cada individuo se evalua usando la funcion objetivo (0 una funci6n derivada de ella)

EI conjunto de soluciones potenciales es dividido en dos grupos eI grupo elite (aquellos con

lo~ valores mas bajos de la funci6n objetivo) y los peores individuos Despues de esta division

viene un paso de transformacion EI grupo elite tiene un tamano aproximado de Pel X 100 Y

el grupo de los peores individuos tiene aproximadamente (1 - Pel) X 100 individuos

Al interior del grupo elite se selecciona el mejor individuo y el resto del grupo elite se

mueve para acercarse a este Este movimiento se lIeva a cabo con una transformaci6n h Ia

cual se trata con mas detalle posteriormente EI conjunto con los individuos transformados

y el mejor individuo pasa a la siguiente generacion Los peores individuos se remplazan con shy

individuos tornados de una distribuci6n normal con media igual al mejor individuo y matriz

de dispersion igual a la matriz de dispersion estimada de toda la poblacion De est a manera

se crean los individuos de Ia siguiente generacion

EI algoritmo continua hasta quese satisface algun criterioque puede ser escogido como

alcanzar un m1mero predeterminado de generaciones 0 un cambio relativo pequeno entre el

mejor individuo de una generacion y Ia anterior 0 superar un umbra Si se define la solucion

del algoritmo como el mejor individuo en cada generacion esm garantizado que Ia soIuci6n

nunca empeora y solo puede cambiar para mejorar La forina de remplazar Ios individuos

con las peores medidas de desempeno es similar a la manera en que se genera los nuevos ~

individuos en las estrategias evolutivas (Spall 2003) Donde una vez seleccionado un padre

X P el retono 0 hijo a partir de ese padre se genera como en Ia ecuacion (34) donde D es una

40

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

matriz de dispersion que cambia en cada iteracion (y posiblemente con cada individuo) para

contiolar Ia convergencia Asi

Xh~J

Este proceso de c1onacion+mutd

las estrategias evolutivas En estas ~

junto de padres se lleva a cabo el pr~

conjunto formado por los padres y 10 1

En el algoritmo EAM Nhay un umc

el mejor individuo Por esto se pue

remplazados por individuos que a su 1 I middot I

La distribuci6n normal mu t1vana~

ros aleatorios y el amplio conocimien I

el espacio de busqueda que utiliza el a en la vecindad del individuo con mejo

La traslaci6n que sufre el grupo ~ jor individuo en la generaci6n j xin1

I diversidad de Ia poblaci6n pero tamb

xi = (xtl xt2 xS el i-esimo in

nera sea x~ el mejor individuo de Ia j-e

que se efectua usando una f~nci~n h

considera h una transformac16n hneal d

transformaci6n propuesta se muestra en xf+ It (xinxflc1

donde KUl ) mot d ~n constante pequena La matriz K(j) Hene e~

deben moverse en cada direcci6n del espaclOl

I

Estirnaci6n de Panlmetro5 en M - - ----J EstocasticUandAlgoritmosEvolutivos~__________----- - - Inodelo probabiHstico en un problemade clasificacion lincluyen en la busqueda los mejores y peores indivishy (

iduos de la poblaci6n en diferentes clases y haciendo

Is EAMN aplicamos el enfoque de la selecci6n proshy

I

limo EI algoritmo comienza con la generaci6n de ~iduos) tornados de una distribuci6n de probabilishy

squeda inicial D denominada poblacion inicial I

inci6n objetivo (0 una funci6n derivada de ella)

ido en dos grupos el grupo elite (aquell08 con

08 peores individuos Despues de esta divisi6n

tiene un tamafio aproximado de Pel x 100 y tmiddot -

damente (1 - Pel) x 100 individu~s

lejor individuo y el resto del grupo elite se

lleva a cabo con una transformaci6n h la

~j~nto con los individuos tra~sformados ~ ~speores individuos se remplazan con

l1edia igual al mejor individuo y matriz

de toda la poblaci6n De esta mane~ V

~teriO que puede ser ~scogido como

n cambio relativo pequeno entre el

un umbra Si se define la soluci6n

esta garantizado que la soluci6n

ma de remplazar los individuos fa ~n que se genera los nuevos

ma vez seleccionado un padre

- uacion (34) donde D es una

r

Iesus Antonio Hernandez River y Iuan David Ospina Arango

matriz de dispersion que cambia en cada iteraci6n (y posiblemente con cada individuo) para

controlar la convergencia ASI

(34)

Este proceso de cIonaci6n+mutaci6n como se menciono anteriormente es el corazon de

las estrategias evolutivas En estas sin embargo una vez creados los hijos a partir de un conshy

junto de padres se lleva a cabo el proceso de selecci6n para tomar los mejores individuos del

conjunto formado por los padres y los hijos para que se constituyan en la siguiente poblaci6n

En el algoritmo EAMN hay un unico padre para todos los hijos de la siguiente generaci6n

eI mejor individuo Por esto se puede pensar que los peores individuos en este caso son

remplazados por individuos que a su vez son mutaciones del mejor individuo

La distribuci6n normal multivariada escogida aquf por su simpJicidad para simular numeshy

ros a1eatorios y el amplio conocimiento que se tiene de ella es el mecanismo para explorar

el espacio de bt1squeda que utiliza el algoritmo de manera que la exploraci6n es mas intensa

en la vecindad del individuo con mejor valor de la funci6n objetivo

La traslaci6n que sufre el grupo de los mejores individuos para acercarse mas al meshy

jor individuo en la generaci6n j xh se puede ver como la mayor fuente de perdida de

diversidad de la poblacion pero tambien es la garantfa de que el algoritmo converge Sea

x1 (xl X2 xk) I eli-esimo individuo en la j-esima generacion y de la misma mashy

nera sea x-h el mejor individuo de la j-esima generaci6n La traslaci6n es un desplazamiento

que seefectua usandouna funci6n h IRk x IRk -+ IRk En esta primera aproximaci6n se

considera h una transfmmaci6n lineal de x1 para hacer este individuo mas cercano a xh La

transformacion propuesta se muestra en la ecuaci6n (35)

(35)

donde KW es la matriz de covarianzas estimada de la poblaci6n en la generaci6n j y e es una

constante pequefia La matriz K(j tiene el papel de controlar 0 ponderar que tanto los individuos

deben moverse en cada direcci6n del espacio IRk y e controla la velocidad a la que 10 hace Para ver

41

Estimacion de Panimetros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

como trabaja h note que bajo ciertas condiciones esta transformacion reduce la distancia entre uno de

los mejores individuos en la generacion j y el mejor individuo de dicha generacion para conservar el

nuevo individuo en la siguiente generacion como se muestra en la ecuacion (36) Adicionalmente It

garari~iza que el mejor individuo pasa sin cambios a la siguiente generacion (elitismo)

II~ x+111 = II~ -h (~)xlcK(j))11 (36)

llxiB-x+ill = 11(1 ~cK(j)) (~-x)) donde 11middot11 representa una norm~ en ]Rk Del amilisis real sesabe que

(37)

donde en el lade derecho de la desiguadad (37) 11middot11 se usa indistintamente para indicar una

norma matricial 0 una norma vectorial pero esto no debe prestarse a confusiones Aunque las norm as

matricial y vectorial empleadas aquf no se han especificado una condie ion necesaria y suficiente

para que x+1 este miis cerca de xiB que x es que bajo cualesquiera normas matricial y vectorial

especificada se satisfaga la ecuacion (38)

(38)

Una vez que se defina el criterio de finalizacion el algoritmo es control ado por dos parametros

I1nicamente e YPel A pesar de que e puede variar en cada generacion para satisfacer la condicion

dada por la ecuacion (38) es suficienteescogerlo relativamente pequeno La proporcion Pel de indishy

viduos que conforman el grupo elite es otro pariimetro importante Si Pel es cercano a 1 se intensifica

la exploracion alrededor del mejor individuo la diversidad de la poblacion (0 dispersion) es baja Y la

velocidad de convergencia aumenta En cambio si Pel es cercano a 0 la exploracion alrededor del meshy

jor individuo es menos intensa la diversidad de la poblacion aumenta Y la velocidad de convergencia

disminuye

El algoritmo 3 presenta e1 seudocodigo del algoritmo propuesto i

351 Resultados

Para evaluar el desempefio del algoritmo se emplearon seis funciones de prueba estandar Estas

funciones con usadas fr~uentemente para comparar y prob~r algoritmos de optimizacion como se

42

lesu Antonio Hernandez Rivero y luan David Ospina Arango

Algoritmo 3 Seudoc6digo del EANM 1 Generacion de I poblaci6n inicial a partir de una distribuci6n uniforme sobre el spacio de busqueda inicial

2 repetir

3 Evaluarcada individuo con la fundon de ajuste~ =_==__-_--~---~----4 SeJeccione aproximadamente p

transformaci6n adecuada

5 Gener (1 - Ped x 100 in

covarianzas igual a la matriz de t I

6 hasta que satisfacer algun criterio d

puede ver en (Ingber y Rose

rativos se reporta el tiempo d

2GB de memoria RAM para J y el espacio de bUsqueda era

algoritmo no fue disefiado par

valor muy alto a los individuoJ I

buenos resultados Todas las PI

La runcion de Rosenbrock I

I Conocida tambien como h

muestra esta superficie en la fiJ

I f (x)

La funcion de Rosenbrock l para esta funcion se muestran e

el optimo se a1canzo en la gene

La figura 31 ilustra la evolJ

Funcion de Rastrigin

Esta funcion estii compuest

molt) 101 diibod 1 I

I

Estimacion de Panimetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

--~--l

- -lacion reduce la distancia entre uno de

de dicha generaci6n para conservar el I

nla ecuaci6n (36) Adicionalmente h I

~ generaci6n (elitismo)

~K(j))11 (36)

I~ xi) II i

beque

(37)Xh xiII

~e usa indistintamente para indicar una istarse a confusiones Aunque las normas I 10 una condici6n necesaria y suficiente

1l1im m m~1 y oci1

I (38)

Ii oritmo es controlado por dos panimetros I

a generacion para satisfacer la condicion

riente pequeno La proporcion Pet de indi-I If ~rtante Si Pel es cercano a 1 se intensifica I

Ide la poblaci6n (0 dispersion) es baja y la il bullIircano a 0 la exploraclon alrededor del me-

I in aumenta y la velocidad de convergencia 11

I1 ~ropuestoII

I II In seis funciones de prueba estandar Estas

I iob~r algoritmos de optimizacion como se

I [

I I

lesus Antonio Hernandez Rivero y Juan Dvid Ospina Arango

Algoritmo 3 Seudocodigo del EANM 1 Generacion de fa poblaci6n inicial a partir de una distribucion uniforme sobre el espacio de busqueda inicial

2 repetir

3 Evaluar cada indiyiduo con la funciOn de ajuste

4 Seleccione proximadmente Pel X 100 de los mejares individuos y muevalos en direcci6n del mejor indiyiduo usando la

transformaci6n adecuada

5 Genere (1 - Pell X 100 individuos de una distribuci6n normal multivariada con media en el mejor individuo y mattiz de

covarianza igual a I matriz de covarianz estirnada de I poblaci6n

6 hasla que salisfacer agun criterio de finalizaci6n

puede ver en (Ingber y Rosen 1992) En cada caso se aIcanza el optimo global y para fines compashy

rativos se reporta el tiempo de CPU en una computadora con un procesador Athlon X2 de 25IGHz

2GB de memoria RAM para 300 generaciones En cada prueba realizada se escogio e 000005

y el espacio de busqueda era un hipercubo Una caracterstica interesante es que a pesar de que el

algoritmo no fue disefiado para manejar restricciones para prop6sitos de evaluacion se Ie asign6 un

valor muy alto a los individuos que violaban alguna restricci6n (del espacio de busqueda) obteniendo

buenos resultados Todas las pruebas se efectuaron sobre la plataforma Matlab R2008a

La fnndon de Rosenbrock

Conocida tambien como la funcion Sanana Su definicion se presenta en la ecuacion (39) y se

muestra esta superficie en la figura 31

k-l f (x) =2)00 X (Xi+ - xl)2 + (1 - Xi)2 (39)

=1 -2048 Xi 2048 i == 12 k

La funcion de Rosenbrock tiene un mfnimo global f (x) = 0 en x = (11 I) Los resultados

para esta fundon se muestran en 1a tabla 31 El tiempo de CPU para 300 generaciones fue de 015 y

eloptimo se aIcanz6 en la generaci6n 87

La figura 31 ilustra la evoluci6n de la poblacion en la optimizacion de la funcion de Rosenbrock

Fnncion de Rastrigin

Esta funcion esti compuesta de ondas COSeno moduladas a fin de tener muchos mfnimos (0 maxishy

mos) locales La distribucion espacial de los mfnimos locales es regular La fundon de Rastrigin se

43

Estimaci6n de Parametro en Modelos de Volatilidad Estodstica Usando Algoritmos Evolutivos

Generaci6n Funci6n Objetivo Soluci6n

value

10 00381 (0814006686)

20 00074 (0990109888)

30 579 X 10-4 (0976409529)

40 544 X 10-4 (10233 10470)

50 112 X 10- (0993109855)

Tabla 31 Resultados para la funeion de Rosenbrock

define en la ecuaci6n (310) y su minimo global se encuentra en f (x) = 0 x (0 0 ) La

funci6n se muestra en la figura 3~2

k

f (x) = 10 x k +L (xr - lOcos (2rrx) (310) =1

-512 Xi 512i = 12 k

Los resultados para la funci6n de Rastrigin se muestran en la tabla 32 EI tiempo de CPU para

300 generaciones fue 035 segundos y el6ptimo se alcanw en la generaci6n 167

Generaci6n Funci6n objetivo Solution

value

10 23465 (10309 -10175)

20 01555 ( -00204 -00192)

30 01555 (-00204 -00192)

40 00897 (-00104 -00186)

50 00217 (-0006100085)

Tabla 32 Resultados para la funcion de Rastrigin

En la figura 32 se puede apreciar algunos pasos intermedios en el proceso evolutivo de laoptimishy

zaci6n de la flinci6n de Rastrigin

Funcion de Schwefel

La funci6n de Schwefel tiene un mlnimo global bastante separado de un minimo local esto hace

que los algoritmos de busqueda puedan converger enla direcci~n equivocada Esta funci6n se define

como en la ecuaci6n (311) y se muestra en la figura 33

44

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

k (311)f (X) = Lxi sin (JiXJ)

=1 -500 Xi 500 i = 12 k

La funci6n de Schwefel tiene un ~~l~lAn_v -_dO9~~~1=L2~_L~S resu~ta~_o~_____ I

para esta funci6n se presentan en la t~ I

segundos y el 6ptimo se alcanz6 en la I __ ---it

Generacion I 10 20

30

40

50 I

Tabla

I La figura 33 presenta algunos p

I milaci6n de la funci6n de Schwefel

I Funcion de Griewangk j

La funci6n de Griewangk es Sl

mos locales distribuidos en todo sl regular La definici6n de esta fund

figura 34 Su minimo global es Ji usado fue de 200 y el numero nd

fltiempo para 5000 generaclOnes I esta funci6n debido a que la opt

I graficas de la evoluci6n de la pot

J

Estimaci6n de Panlmetros en Modelos de Volatilidad Estocastica Usando Algoritmos EvolUlivos

Solucion

(0990109888) I (0976409529) (1023310470)

(0993109855)

I de Rosenbrock

I

uentra en f (x) 0 x = (0 0) La

j I Icos (271Xi)) (310)

I i 12 k

en la tabla 32 EI tiempo de CPU para

en la generaci6n 167

1 SoJudon

il 10300 -10175)

0204 -00192) n0204 -00192)

]

)0104 -00186)

[ 0006100085)

IIrdc Rastrigin

I i ledios en el proceso evolutivo de la optimishy

1i I

11

[lite separado de un minimo local esto hace II Iecci~n equivocada Esta funcion se define

Jesus Antonio llem~nltJel Rivero y luan David Ospina Arango

k

f(x) = Lgti sin (JiXJ) (311) =1

-500 Xi 500 i 12 k

La fund6n de Schwefel tiene un mlnimo global en x 4209687 x (11 I) Los resultados

para esta fundon se presentan en la tabla 33 EI tiempo de CPU para 300 generaciones fue de 032

segundos y eloptimo se alcanzo en la generacion 115

Generaci6n Funci6n objetivo Soluci6n

value

10 -7653079 (43929294366133)

20 -8318733 (42103154140626)

30 -8362015 (42470654209365)

40 -8378619 (42049844214748)

50 -8379648 (42103684210224)

Tabla 33 Resultados para la funci6n de Schwefel

La figura 33 presenta algunos pasos intermedios en la evoludon de la pobladon durante la optishy

mizacion de la funcion de Schwefel

Funcion de Griewangk

La funcion de Griewangk es similar al a funcion de Rastrigin Tiene una gran cantidad de mlnishy

mos locales distribuidos en todo su dominio Sin embargo las ubieaciones de los minimos locales es

regular La definici6n de esta funcion se presenta en la ecuacion (312) y su gnlfica se presenta en la

figura 34 Su mlnimo global es f (x) = 0 en x (00 0) En este caso el tamano de poblaci6n

usado fue de 200 y el mlmero necesario de generaeiones para alcanzar el6ptimo global fue 1993 El

tiempo para 5000 generaciones fue 4324 segundos Los resultados se presentan en la tabla 34 Para

esta [uncion debido a que la optimizacion se Ilev6 a cabo en cuatro dimensiones no se presenta las

gnificas de la evolucion de la poblaci6n

~ X2 rrk (Xi) (312)f (x) = t 40~0 - i=1 cos Vi + 1

-600 ~ Xi 600i = 12 k

45

I

Estimaci6n de Parametros en Modelos de Voiatilidad Estocastica Usando Algoritmos Evolutivos

Generaci6n Funci6n objelivo Soluci6n

value

100 750 X (32265 -01239

-11149059533)

1000 180 x 10-2 (31810 -42653

-00982 -00787)

2000 773 X 10-3 ( -0068400795

00619 -01390)

3000 259 X 10-3 (0021100823

-0028400(56)

3396 0 (224 x 10-9 -384 x 10-10

116 X 10-8 151 X 10-9 )

Tabla 34 Resultados para la fimci6n de Griewangk

Funcion Goldstein-Price

La funci6n Goldstein-Price es una funci6n f D pound ]R2 --+ ]R de prueba definida como en la

ecuaci6n (313) y su gnifica se muestra en la figura 35 La motivaci6n de esta funci6n puede hallarse

en (Zhang Ng Li Y Tian 2004) Su mfnimo global es f (0 -1) = 3 El tiempo de CPU para 300

generaciones fue 060 segundos y en la tabla 35 se presentan los resultados

f (x) = (1 + (Xl + X2 + 1)2 x

(19 - 14x1 + 3xf - 14x2 + 6XIX2 +3xm x (313)

(30 + (2Xl - 3X2)2 X

(18 - 32xl + 12xI + 48x2 36xl X2 + 27x~)) -2 Xi 2i = 12

Generad6n Funci6n objetivo Soluci6n

value

10 30505 (-00100 -09944)

20 30030 (-00011 -10028)

30 30008 (-00014 -09994)

40 30006 (00010 -10006)

50 30000

Tabla 35 Resultados para 1 funcion GoldsteinPrice ~

En la figura 35 puede apreciarse algunos de los pasos intermedios en la evoluci6n de la poblaci6n

46

Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

durante la optimizacion de la funci6n de Goldstein-Price -~~==========~---

Funcion de las seis jorobas

Esta funci6n se detalla en

x (00898 -07126) EI

dos se presentan en la tabla 36

Gen

10

20

30

40

50

Tabla 36 F I

La figura 36 muestra la super

a la optimizaci6n de la funci6n de

36 Algunas conch

El algoritmo EAMN que se hJ

de valor real Las pruebas llevadJ

peno satisfactoriamente manejandl

Es destacable que aunque el EA

l 1 tenstlcas con a gontmos evo utlv I control an el EAMN son el taman

Estimad6n de Parametros en Modelos de Volatilidad Estocastica Usando Algorltmos Evolutivos

~---

I

~~-------------shy Soluci6n

265 -01239

~11l490 59533)I 10 -42653

00982 -00787)

168400795 i l0919 -01390)I1100823 I 0028400(56) I

L-384 X 10-10 I10-8 151 x 10-9 )

I

tGriewangk

I i

2 JllI de prueba definida como en la

~livad6n de esla fundon puede hallarse

-1) = 3 EI tiempo de CPU para 300

lOS resultados

IIxm x 1 (313)

r 27xm jit = 12

----shy

9944

Po28

I 1994 I I

f6I loooo) I

ceo I

en la evoluci6n de la poblacion

i ~

J I

I

Jesus Antonio lIernandez Rivero y Juan David Ospina Arango

durante la oplimizaci6n de la funcion de Goldstein-Price

FUllcioll de las seis jorobas de camello (Six-hump camel back)

Esta fund6n se detalla en (Uu 2001) y su definicion se presenta en Ja ecuad6n (314) Tiene seis

mfnimos locales y dos de ellos son globales ademas en f (x) -10316 x= (-0089807126) y

x (00898 -07126) El tiempo de CPU para 300 generadones fue de 015 segundos Los resultashy

dos se presentan en la tabla 36

f (x) = (4 - 21xt +xi3) xi (314)

+X1X2 + (-4 + 4x~) x~ -3 Xl 3 -2 X2 2

Generacion Funci6n objetivo Soluci6n

value

10 -09761 (-0024506823)

20 -10270 (-0091006886)

30 -10316 (-00900 07101)

40 -10316 (-0088107121)

50 -10316

Tabla 36 Resultados para la funci6n de las seis jocobas de carnello

La figura 36 muestra la superficie y algunos de los pasos en el proceso evolutivo correspondiente

ala optimizad6n de la fund6n de Goldstein-Price

36 Algunas conclusiones acerca del algoritmo EAMN

EI algoritmo EAMN que se ha presentado es un algoritmo evolutivo probabilfstico para fundones

de valor real Las pruebas Ilevadas a cabo en todos los casos fueron exitosas El EAMN se desemshy

peii6 satisfactoriamente manejando restricdones de desigualdades

Es destacable que aunque el EAMN es un metodo heurfstico que comparte muchas de las caracshy

terfsticas con algoritmos evolutivos no requiere tantos parametros como eslos Los parametros que

controlan cl EAMN son el tamano del grupo elite la constanle E para acelerar la convergenda y el

47

Estimaci6n de Parametros en Modelo de Volatilidad Etocatica Usando AIgorilmos Evolulivo

criterio de finalizacion Como se esperaba mientras mas alta la dimension del problema el tamailo de Funcion de Rosembrock

la poblacion tambien debe aumentarse a fin de obtener una buena solucion

Como temas de futuros trabajos esta el analisisde la perdida de diversidad en cada generacion Este

tema puede estudiarse a traves de la observacion de la evolucion de la matriz de covarianzas estimashy

da de la poblacion La extension del algoritmo EAMN a problemas de optimizacion combinatoria se

puede Ilevar a cabo utili zan do distribuciones de probabiJidad discreta y sus versiones multivariadas

asf como lambien escogiendo la transformacion h apropiadamente (ver ecuacion (35raquo Otros topicos

de exploracion podrian incluir aplicaciones a funciones contaminadas por ruido y el uso de otras funshy

ciones de probabilidad asf como tambien otras estrategias de seleccion de individuos para la siguiente

generacion

48

Elimacion de PurunelnJ1l en MUlleIn de Vnialilidad F (fICiSli il UstIlUO AIgorillllOIo Eo lutiv()s

criterio de finalizaci6n Como se esperaba Illientrus ms alia la dimensiun del problema el tamano de

la poblacion tambien debe ltllImenlarse a fin de oblener una buena soluci6n

Como temas de futuros Iraba jos eSIj el anali sis de la pcrdida d diversidad en cad a generacion Este

tema puede estudiarse a Iraves de la observo Sn de la matriz de covarianzas estimashy

da de la poblari~ bull as de optimizaci6n combinatoria se

reta y sus vcrsioncs multivariadas

Vcr ecuaci6n (3 5)) Otros t6picos

lS por ruido y cillso de otras funshy

gtn de individuos para la siguiente

Jes tl Antonio Ht rtt ilndez Rie ro~ y JU1Il David Opina Armgo

Funci6n de Rosembrock

x

(a) Funci6n de Rosembrock

Funcion de Rosembrock Generacion 1 Funcion de Rosembrock Generacion 10

N M

(b) Generueion 1

Funcion de Rosembrock Generacion 20

X

(e) Generaci6n 10

Funclon de Rosembrock Generacion 50

(d) Genemei6n 20 (e) Gcneraci6n 50

Figura 3 t Evolution de la p(blaci6n en Ja oplimizmion de la funcidn de Rosenbrock

49

E lilTl ilC i611 tk PiJrimctms cn Modelos de Volmilidau Elilocas li cn Usanuo Algoritmos Evoluliv()s

Funci6n de Rastrigin

(a) Funcion de Rastrigrin

Funci6n de Rastrigin Generacion 1

N

(b) Gencracion I

N

(d) Gcneraci6n 50

N

(c) Gcneracion 10

Funcion de Rastrigin Generacion 100

N

(e) Gcneraci6n 100

Figura 32 Evolu(i6n de la poblac i6n en la uptimizaci6n de la funci6n de Rlslrigin

50

Jeslh Allumio HcrulmJe 1 Riverlli v Juan fl) 1 (- - - ~

----------~~--~--

Funci6n de Schwefel Gener

N

(b) Generaci6n I

Funcl6n de Schwefel Generac

(d) Generacion 30

N

Figur 33 Evoluci6n de I p

t~ ilildo Algorillllos EnJlutivos

1e Rastrigin

igrin

bull - bull I

ro -o6 ~O- lt j ~O middot~ - bull bull 6~~1 - ~ 4o 0

~ o~ 0 bull ~ I

O I 5

~ bull bull 6 (J Qigtmiddot~ middotmiddot ~ middot ~9~middot ~

c) Generacion 10

Rastrigin Generaci6n 100

x

~c i 6n 100

middotastrigin

Jesu Anfonio HentlndcZ Rivcros y Juan David Ospina Arango

Funci6n de Schwefel

(a) Funei6n de Schwefel

Funci6n de Schwefel Generaci6n 1 Funci6n de Schwefel Gener3cl6n 10

(b) Generaei6n 1 (e) Generacion 10

Funcion de Schwefel Generaci6n 30 Funci6n de Schwefel Generacl6n 80

x

(d) Generaci6n 30

x

(e) Gcneraci6n 80

x ~

M ~

Figura 33 Evoluci6n de la poblaci6n en la optimi1BCi6n de la funci6n de Schwefcl

51

I ~ lim1ci(middotm de Pilnlnlllro- n Mnddo- d~ Vol lIilidad ESlocil ica Usando Algoritmos Eoluljo~

Funci6n de Griewangk

Figura 34 Funci6n de Griewangk

Jelius Antonio I-Iemandcz Rivcros ) Juan Da id Osoina Armwn

Fund6n de I

(l

(d)

Figura

52

Esrimaci(m de Param~ [ros en Modclo de VOillilidad EsrociHica Usando Agorirmos Evoiurivos Jesus AlllIllio 1It111pound1nJel Riveros y Juan David O~pin(1 Arango

Funcion de Goldstein-Price

bull 10 bull

(a) Funci6n de Goldstein-Price

Funci6n de Goldstein-Price Generaci6n 1 Funci6n de Goldstein-Price Generaci6n 10

bullN

X

(b) Generaci6n 1 (c) Generaci6n 10

50Funci6n de Goldstein-Price Generaci6n 20 Funci6n de Goldstein-Price Generaci6n

X

(d) Generaci6n 20 (e) Generaci6n 50

Figura 35 Evoluci6n de la poblaci6n en la oplimizaci6n dela funci6n de Goldstein-Price

53

X

ESlimaci6n de PdmllnJI tn Mollelos de Voliltilidad ESloc1ilica Usando Algorilmos Evolulivos

Funci6n de las seis jorobas de camello

(a) Funcion de las seis jorobas de camello

I

ft ~ I

I

I

l I

J I

(b) Gcncraeion I (e) Generacion 10

FunCI6n de las sets Jorobas de cametlo GeneradOn 50

(d) Generacion 20 (e) Generaei6n 50

Figura 36 Evoluc il~n de la poblaci6n en Ja optimizaci6n de 13 fun~i6n de las seis jorobas de camello

54

Seccion 4

Estimacion del n

EI principal interes de este trabajc

evolutivos res pee to a los algoritmos c

objetivo (2 16) correspondiente al me

en la aplicacion y comparaci6n de los

Matlab R20008a con el toolbox de A

I SQP (Sequential Quadratic Pn

2 Algoritmos Geneticos hfbrido

3 EAMN propuesto en este tral

41 Estimacion del

Se encontr6 evidencia de supe

La evidencia consiste en que el al

hess iana Sin embargo el proceso I

con proc nlin colapso con mucha I

haber lIegado a una matriz hessian

a valorcs aceptables En la figura

Ejemplo Para un modelo A

41 se simularon T = 6000 date

Estimacion de Parmetros en Model n

lcamello

~

Seccion4

Estimacion del modelo ASVI

EI principal interes de este trabajo es detenninar si existe alguna ventaja al utilizar algoritmos

evolutivos respecto a los algorilmos convencionales en el problema de minimizaci6n de la funci6n

objetivo (216) correspondiente al metodo de estimaci6n EMM El amllisis llevado a cabo consiste

en la aplicaci6n y comparaci6n de los siguientes algoritmos de optimizaci6n La programaci6n es en

Mallab R20008a con el toolbox de Algoritmos Geneticos

I SQP (Sequential Quadratic Programming)

2 Algoritmos Geneticos hibridos con SQP

3 EAMN propuesto en este trabajo

41 Estimacion del modelo EGARCH-SNP (214)

Se encontr6 evidencia de superioridad del algoritmo AG-SQP con respecto a SQP individual

La evidencia consiste en que el algoritmo SQP llega ripidamente a valores singulares en la matriz

hessiana Sin embargo el proceso de ci1culo con el algoritmos Gauss-Newton implementado en SAS

con proc nlin colapso con mucha frecuencia seiialando como causa del colapso en todos los casos el

haber Ilegado a una matriz hessiana singular En cambio el p~ceso con AG-SQP es estable y converge

a valores aceptables En la figura 41 se muestra el proceso de convergencia del algoritmo

Ejemplo Para un modelo ASVI (11) con para metros (w (3 a )) como aparecen en el Cuadro

41 se simularon T = 6000 datos y se utiliz6 el algoritmo genetico hibrido con SQP Los resultados

55

Estimacion de Parametros en Modelos de Voltilidd Estoc~stjc Usndo Algoritmos Evolutivo

esllin en el Cuadro 41 La funci6n objetivo en este caso corresponde a la log-verosimilitud del modele

EGARCH(lI)-SNP(4) (214) es decir es

T

QT(O) - ~log(f(yt(ftd)(ft) (41) 1=1

donde Ina = w + j3In a_l + QZt-l + Y(IZt-ll-p(draquo

Tabla4I Resultados de Estimaci6n QML en ASVI con AG-NM

w t3 0 I

valores reale -120 090 -024 018

W jj i I valores estirnados -11930 09020 -02401 01441

dl d d3 d4

valores estimados -0100 -0100 00415 00372

J-

Pigura 41 Desempefio del Algoritmo Genetico Hlbrido coo SQP

Los sfmbolos triangularescoJfesponden a iteraciones del AG y los rombos a iteraciones del

SQP

56

42 ---~

i EI~

I

Gauss-~ de optil

I Incstai

I En

ecuaci~

Estaecl

te alto I I

Ejl

(wj3 puede

ciar ed I

parec~

j

ntm1[

(42)l

I

i

Jesus Antonio Hernand~z Riveros y Juan David Ospina Arango

__ __ Estimation de Pari~~tros pn A- -- - Ia~tica UsodD Algoritmos Evolutivos

este caso corresponde a la log-verosimililud del modelo

log(f(ytat d)at) (41)

~ - Jl(d))

ti6n QML en ASVI ron AGmiddotNM

3 a I

090 middot024 018

Ii a I 09020 ~2401 01441

da d4 d 0100 00415 00372

Jesus Anlonio Hemndez Riverolt y Juan David Ospina Arango

42 Estimacion EMM con Optimizacion SQP y AG-SQP

EI algorilmo EMM presenta problemas de convergencia lanto con algoritmos convencionales pej

Gauss-Newlon como con algoritmos heurislicos EI problema no reside propiamente en el algoritmo

de oplimizaci6n sino en la funci6n objetivo como se expone a conlinuaci6n

Inestabilidad de la Recursion (42)

En el caso ASVI asimetrico el algoritmo EMM liene un problema de estabilidad numerica en la

ecuaci6n (42)

~2 _ ~ + f3~1 --- 2 + ~ (yUi-10)) +~ (I Y(Uj-l 0) I (d~))InaJ -w naJ-l Q _ y _ Jl (42)aj-l aj-l

Esta ecuaci6n recurs iva es ineslable una pequeiia perlurbaci6n puede generar un valor exageradamenshy

te alto y luego volver a valores normales

Ejemplo Si se simula una serie Y(UjO) iidNCO 1) Y se lorna Jt(d) = 06893 17 =

(w jja 9) 1= (-1200008000 -0240001800) entonces la recursi6n en (42) con 1na02 == 00

puede pasar de valores pequeiios a val ores muy grandes en dos 6 Ires iteraciones como se puede apreshy

ciar en la siguienle Figura No 42 Los valores Ina] para j 5 40 no son cero aunque por la escala

parecen ser nulos

2

ol~-----------__J

Figura 42 Grafica deln 17J en I ecuaci6n (42)

Tauchen (Taiichen 1998) profundizasobre el problema de la ineslabilidad asociada con el algoshy

ritmo EMM pero no consldera usar algoritmos heurlsli~os Seria posible ignorar esta ineslabilidad en

(42) que necesariamente se Iransmite a las ecuaciones de los scores (215) argument~ndo que los

57

Estimation de Parametros en Modelo de Volatilidad Estoctica Usando Algoritmos Evolutivos

mecanismos de seleccion (elitismo mutacion cruzamiento) automaticamente descartarfan soluciones

que produjeran simulaciones caoticas No necesariamente La funcion objetivo es de dificil evaluashy

cion y dejar que se descarten soluciones dejarfa relativamente pocos individuos compitiendo y no

acanzarfa uri valor cercano aloptimo en un numero de generaciones fijo Gallant y Tauchen (Gallant

y Tauchen 1996) pag 14 proponen varias transformaciones para estabilizar la recursion (42) Las

siguientes se implementaron para los cilculos de esta seecion

HX + ~ arctan (~(x + t1))-- t1 si x lt -tr

x x si -t1 lt x lt t1 (43)

x + ~ arctan (~(x ~ t1))+ t1 si t1 lt x

x 4t1eX tT (1 + extTl - 2tr (44)

La manera en la que deben apIicarse estas transformaciones para estabilizar (42) no es inmediata

Una propuesta consiste en apJicar (43) con t1 = 120 a los valores InO mientras que aplicar (44)

con t1 40 a Zt Y(Uj-lt 0) Cl

Una manera de determinar que tan apropiadas resultan las transformaciones anteriores consisshy

te en realizar una exploraci6n de la funci6n objetivo CaCular QT(O) para valores de 0 simula~

dos uniformemente en una vecindad de radio c5 del pariimetro verdadero 00 On Unif(B(Oo))

n 1 Ie Planteamos que el histograma de QT(On) puede revelar la presencia de minimos locashy

les y mfnimo global Los resultados de generar J( 1000 valores de 0 E ]R4 en una bola de centro

00 = (-1200008000 -0240001800) Y radio c5 01 (modificado para f3 lt 1 ) se pueden

apreciar en la Figura No 43 siguiente N6tese que la funci6n QT(O) se cacul6 con base en muestras

simuladas de N 10000 ver ecuacion (216) EI razonamiento es e1 siguiente un algoritmo genetico

realiza una bUsqueda en el espacio parametral con resultados similares a los que se tienen en el panel

Izquierdo de la Figura 43 Debido a su canicter aleatorio tal vez sean mas dispersos Una conclusi6n

es que es factible asumir que sf existe un mfnimo global a juzgar por el hecho de la moda pronunshy

ciada en cero Si se garantiza convergencia en probabilidad al optimo del algoritmo genetico pej en

(Rudolph 1996) es factible que se tenga convergencia en el proceso de estimacion Con base en esta i

conclusion aplicamos los algoritmos SQP AG Y AG-SQP p~a_obtener el estimador EMM de O

En el cuadro 42 estiin resultados de una corrida para T == 6000 del metodo EMM usando N

58

Jesu Antonio lIem~ndez Rivero y luan David Ospina Arango

fmiddot 1

1S I~ 3 ~~ lltI0 i 111

I ~ 1 j wU ~

~ 1) 2lO1l oco EOOO 8000 ~QrIOO IlOOO 1tl1OO (t9S (il ~~~_~~ __ __~~________~_

Figura 43 Izquierda Distribuci6n de Iol~=-==--- ---~---shycorresponde a J el I aw yel vertical a

10000 en la simulaci6n internal f

la columna Preliminar estan I

columna SQP estii el resultad

con el modele a~xi1iar N6tes~1 este parametro Algo no de sea

de dos corridas del algoritmo e I

En el cuadro 43 estiin 101 SQP Se muestran los resultad

servan en los val ores estimad1 I puede observar que en prome(

I sultados anteriores Es claro q(

I aumentando el numero de c01

sustentada Pero por el mome

satisfactorios IT

ESlimui (lll t1~ Pmimetw en Moddos de Volat ilidJJ Estoca(iG Us ar~~ld~(lAlgcmiddotilllloEv()llIliv~ o____________

licnto) automaticamcnlC dcscartnrfan soluciones

nenle La funci6n objetivo es de diffcil cvaluashy

tivamenlc pocos individuos COll1piliendo y no

generaciones fijo Gallant y Tauchcn (Gallant

lciones para eslabilizar la recursi6n (42) Las

- tr si x lt - tr

(43)si - tr lt x lt tr

tr sitr lt x

) - 2tl (44)

)nes para estabilizar (42) no es inmediala

i valores In 6j2 mientras que aplicar (44)

las trans formaciones anteriores consisshy

ular Qr(O) para valores de 0 simulashy

o verdadero 00 On ~ Unij(B6(OO))

~ revelar la presencia de mfnimos locashy

ores de 0 E jR4 en una bola de centro

nodificado para (3 lt 1 ) se pueden

lt(0) se calcul6 con base en muestras

s el siguicnte un algoritmo genetico

Iares a los que se tienen en el panel

ean mas dispersos Una conclusi6n

por el hecho de la moda pronunshy

10 del algoritmo genetico pej en

) de estimaci6n Con base en esta

er el estimador EMM de O

del metodo EMM usando N =

Jesus -nlcmio Hemiindez Rivems y Juan D id Ospinl Arango

shy shy4a

--

-

amp q

Figura 43 Izquierda DiSlribuci611 de 10gt v lore de QT (O) par 8 E 86 (00) Derecha Diagrama de (wJ clt) E B(eo) EI oje 2

corr~sJXmde II Ii d 1 a w y el venical a Q

10000 en la simulaci6n interna del EMM y con un valor real del panimelTo 0 en la columna Real En

la columna Preliminar estan los valores eSlimados del modelo auxiliar EGARCH( I 1)-SNP(4) En la

columna SQP esta el resultado del algoritmo lipo Newton-Gauss SQP con valor inicial el Oobtenido

con el modelo auxiliar N6tese que el valor estimado de 3 es el valor dado como limite superior para

este panimelro Algo no deseable Las dos columnas restantes HAG I y AG 2 mueSlran resultados

de dos corridas del algorilmo genetico con 15 generaciones como maximo

En el cuadro 43 estan los resultados de correr 15 generaciones del AG y luego continuar con

SQP Se muestran los resultados de tres corridas sin cambiar la mucslra Las variaciones que se obshy

servan en los valores estimados corresponden a la naturaleza estocastica del algoritmo genetico Se

puede observar que en promedio los val ores de este ultimo algoritmo son mas aceptable que los reshy

sultados anteriores Es claro que estos son resultados preliminares que habra que ampliar mucho mas

aumentando el numero de corridas con diferentes escenarios para poder lIegar a una conclusi6n mas

sustentada Pero por el momento resulta factible que este procedimiento pueda producir resultados

satis factorios

Tabla 4 2 - Rcsuhados de Es(irnac illO EMM con SQP y AG

Real I Preliminar I SQP I AG I I AG2

-12000 -06389 -07389 -07052 -06078

(3

w

09000 09496 09999 09386 09464

Q -02400 -02073 -03073 -02180 -02842

Y 01800 01615 02615 00773 01245

59

Estimacion de Parumetro ell Modelos de Volatilidad Estocastica Us ado Algoritmos Evlutivos

Tabla 43 Resultados de Estimaci6n EMM con AG-SQP

Real I Prelirninar AG-SQP 1 I AG-SQP 2 I AG-SQP 3

-12000 -07998 -07896 -08864 -07686w

09000 09357 09349 09274 09363

O -02400 -02270 -01659 -02877 -01306

01800 00732 01388 01732 0016511

Cabe anotar que la estimaci6n del modelo ASVI simetrico con a = 0 no representa ningun proshy

blema al utilizar EMM con algoritmos convencionales EI problema se presenta en el c~so asimetrico

con a lt O

43 Estimacion del modelo ASVI utilizando EAMN

Como parte de este proyecto se desarro1l6 el algoritmo evolutivo probabilfstico EAMN deserito

en la secci6n 3 y que se aplica a la estimaci6n del ~odelo ASVI Debido al problema que se pre~enta en la recursi6n no es de esperarse que los resultados sean superiores a los obtenidos con los metodos

anteriores ya que se sospecha de la existencia de Uli problema estruetural de la funci6n objetivo que

eonlleva a niveles de dificullad demasiado elevados en la exploraci6n del espacio de bUsqueda No -

obstante como se vera despues el desempefto del algoritmo EAMN respecto a los otros metodos de

optimizaci6n empieados es competitivo Vale aclarar tambien que en la estimaci6n con EAMN se ha

implementado las transformaciones mencionadas anteriormente para estabilizar la recursi6n

Tabla44 u a os So ImaCl n j con

Real IPrelirnioar I EAMN

w -12000 -07998 -07896

09000 09357 09349

O i -02400 -02270 -01659

I I 01800 00732 01388

Res It d deE t 6 EMM EAMN

60

Jesus Antonio lIem~ndez Rivero y Juan David Ospina Arango

431 Una comparacion Ir---~=~~ -------= ----shy

Con el fin de que ellector pueda hacerseal ------ shy

de oplimizaci6n para estimar el modelo ASVI

E d d d d Iferror_ SIOS In lea ores no son eVI encla e I

mente un marco de comparaci6n de los resull f

La tabla 45 presenta los errores porcen

de los siete metodos de optimizaci6n empt

f I Iaor real - 1alor esimado xjormu a error v orre

IPor otro lado la tabla 46 presenta e

~~ (valor real-valoreslimadocomo erne= n

mediante estudios del tipo Monte carl

Tabla 45 Errores r

SQP AGl Admiddot I

w 3842 4123 49If3 11l0 429 5 I

a 2804 083 2lf

f 4528 5706 ~

SQP AGI

I EMC 0058 OOf

I

44 COUeJUSiO

A 10 largo de esta sea

del modelo ASVI coni proceso de volatilidad

I

ESlimaci6n de Panimetros en Modelos de Volatilidad Rt_~ _- --~middotmiddot~~middotmiddot~middot-~)l~UIiV=OS--__________

tSQP

2 AG-SQP3

t -07686 I

09363 -01306 I

00165

= 0 no representa ningun proshy

ipresenta en el cas~ asimetrico I

I

doEAMN il lbabilistico EAMN descrito h11 problema que se presenta

lobtenidos con los metodos 1 ~e la f~nci6n objetivo que

- espaclO de busqueda No 11 ito a los otros metodos de

naci6n con EAMN s~ ha

~ar la recursi6n

1 1 1

1

I

I i

I I

--J

II

431 Una comparacion

Con el fin de que ellector pueda hacerse alguna idea sobre el desempeiio relativo de cada metodo

de optimizaci6n para ~stimar el modelo ASVI las tablas 45 y 46 presentan algunos indicadores de

error Estos indicadores ~o son evidencia de la superioridad de un metodo frente a otro sino simpleshy

mente un marco de comparaci6n de los resultados obtenidos ~n este trabajo

La tabla 45 presenta los errores porcentuales en la estimaci6n de cad a panimetro con cada uno

de los siete metodos de optimizaci6n empleados en este trabajo E1 error porcentuaI se obtiene con la

f6rmula error = L~F-E~= x 100

Por otro lado la tabla 46 presenta el error medio cuadratico (EMC) de cada metodo obtenido

como emc= Esta comparaci6n usual en ingenierla necesita refinarse

mediante estudios del tipo Monte Carlo antes de poder derivar alguna conclusi6n de ella

Thbla 45 Errore porcentuwes en los diferentes metodo de etimaci6n

SQP AGl AG2 AG-SQPI AG-SQP2 AG-SQP3 EAMN

w 3842 4123 4935 3420 2613 3595 3420

(3 1110 429 516 388 304 403 388

a 2804 083 21842 3088 1988 4558 3088

Y 4528 5706 3083 2289 378 9083 2289

Tabla 46 Error Medio Cuadritieo pam cada metodo de optmizaci6n

SQP AGl AG2 AG-SQPl AG-SQP2 AG-SQP3 EAMN

EMC 0058 0064 0158 0044 0025 0057 0044

44 ConcIusiones

A 10 largo de esta secci6n se puso en evidencia que una de las mayores dificultades en la estimaci6n

del modele ASV 1 con la metodologfa EMM es la inestabilidad en la recursi6n para reconstruir el

proceso de volatilidad A pesar de haber utilizado transformaciones que pUdieran solucionar esto en

61

Estimaci6n de Parametros en Modelo de Volatilidad Estocastica Usando Algoritmos Evolutivos

alguna medida los resultados en los estimadores no son muy alentadores Sin embargo una alternativa

que salta a la luz a partir de los resultados obtenidos es la utilizaci6n de los parametros del modelo

auxiliar EGARCH(ll)-SNP(4) como pariimetr~~ illiciales del modelo ASVl que mediante ajuste

fino se puede~ modificar para reproducir las caracterfsticas de la serie observada Al r~spectode la

estimaci6n de este modelo auxiliar EGARCH(1I)-SNP(4) vale anotar que los resultados obtenidos

con el algoritmo evolutivo probabiHstico propuest~ EAMN son b~sta~te competiti~os No obstante la -

aplicaci6n de la metodolog(a EMM no arroj6 resultados muy precisos se concluye que con 10 expuesto

en esta secci6n es posible aproximar razonablementelos estimadores de los pariimetros de un modelo

ASVl con el algoritmo EAMN Con esto se encuentra abierto un frente de trabajo para la estimaci6n

de panimetros en modelos complejos utilizando algoritmos de esti~aci6n de la distribuci6n

62

ApendiceA

Programas I

del modelo I

I d I

I En este apen Ice se pi

resultados de este trabajo

I

AI C6digo d

function [SOlfbJ

bull minae (fob j nu)

Algoritmo evol

fobj=f_o I

numpar numero

[ 1 Imln= mln_ j

max= [max_I

n numero de

h tamafio de I p_e porcent

la Siguiente

Min=zeros ( [h n

I

I I

laquo- lt ---gOrilmoS EvolulivoslaquoEstimaci6n de Panmetros en Modelos de Volbullbull IA- shy

d Si mbbullbull Itmi~

a utilizaci6n de los panimetros del modelo

~ del modelb ASVl que mediante ajuste lt

s de la serie observada Al respectode la

vale anotar que los resultadosobtenidos

son bastante competitivos No obstante la lt recisos se concluye que con I~ expuesto

nadores de los panimetros de un modele

f d b I shyI un rente e tra aJo para a esllmaclOn

estimaci6n de la distribuci6n I

lt

I

L~nti~2ri~~lt~ Da~rlC~ ~~ ~

Apendice A

Programas en Matlab para la estimacion

del modelo ASVl

En este apendice se presenta un conjunto de programas en Matlab utilizados para obtener los

resultados de este trabajo

At C6digo del EAMN

function [solfbestmejorindmejorfK]=

minae(fobjnumparminimaxinhp_e)

Algoritmo evolutivo probabilistico para optimizar la funci6n fobj

numpar numero de variables de la funcion

min=[min_li min_numpar]i

max=[max_l max_numpar]

n numero de generaciones

h tamafio de la poblacion

p_e porcentaje de elite porci6n de la poblacion que se clona a

la siguiente generacion

Min=zeros([hnumpar])

63

Estimaci6n de Padmetros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Max=Min

f=zeros(hn) Numero de evaluaciones de la fun cion objetivo

diferencias=zeros(round(hp_e)-lnumpar)

e=000005 Factor multiplicador

rand(seed4) Se fija la semilla para reproducir los

resultados

nnorm=h-round(hp_e) Numero de individuos que no son elite

K=zeros(numparnumparn)

Generaci6n de la poblacion inicial

i=l

while ilt=h

Min(i)=minii

Max (i ) =maxi i

i=i+1

end

NPob=zeros(hnumpar)

Pob=Min+(Max-Min) rand([hnumpar)) Todoslos parametros

estan en el rectangulo seleccionado

Ciclo evolutivo

i=l

while ilt=n

j=l

while jlt=h

c=Pob (j)

f(ji)=fobj(c)

j=j+1

end

[a b] =sort (f ( i) )

mejorindi)=Pob(b(l))

64

Iesus Antonio lIemandez Rivero y Iuan David Ospina Arango

Los I

modifica

NPob (11 El rri

i indi

I j=l I

I

s=cov(

K J I

while

diferi I

j=j+11 J

end I J

NPob I Est

reloj 1

randi

NPOb

Pob=I

i=i~

end I I

sol=Pob (i

genera I

fbest=f I

Ao2o functil Prog~

j de 01

I I Ii

nci6n objetivo

ducir los

Inc son elite

I[

1

I

I

1 -

Jesus Antonio Ilemandez Riveros y Juan David Ospina Arango

mejorf(i)=f(b(I)i)

Los mejores individuos pasan a la siguiente generaci6n

modificandose

NPob (1 round (hp_e) ) =Pob (b (1 round (hp_e)) )

El mejor individuo de la generaci6n i es NPob(I) Los demas

individuos se deben modificar para parecerse un poco mas a el

j=l

S=cov(Pob) Matriz de covarianzas de la poblaci6n actual

K ( i) =S

while jlt=round(hp_e)

diferencias (j ) =e (S (NPob (1 ) -NPob (j )))

j=j+l

end

NPob(lround(hp_e) )=NPob(lround(hp_e) )+diferencias

Esta es la elite

reloj=clock

randn(state reloj(6))

NPob(round(hp_e)+Ih ) =mvnrnd(NPob (1 ) Snnorm)

Pob=NPob

i=i+l

end

sol=Pob(l ) La soluci6n es el mejor individuo de la ultima

generaci6n

fbest=f (b (1) n)

A2 C6digo para simular un proceso ASVI

function [y)=svl(nsimnburninparzu)

Programa para simular un modele de volatilidad estocastica

de orden 1

65

Estimaci6n de Parametrolt en Models de Volatilidad Estoc~tica Usndo Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n numero de observaciones a simular

par vector de parametros

z es una sucesion iidN(Ol)

u es una sucesion iidN(Ol)

La parametrizaci6n del modelo es

y(t)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

Para que el modelo sea estacionario se requiere 0ltpar(2)lt1

Y par (3raquo0

n=nsim+nburnin

beta=exp(par(2raquo(1+exp(par(2raquo)i

mu=par(l)(l-beta)

mu=par(1)(1-par(2raquo)

w=zeros ( [1 n 1 )

w(l)=mu

i=2

while ilt=n

w(i)=par(1)+par(2w(i-1)+par(3)u(i)

i=i+1

end

y=exp(w2) Zi

y=y (nburnin+1 end)

A3 C6digo para estimarnn proceso ASVI utilizando el

metodo SMM

load serie2 Serie observada

W=eye(32) Matriz de covarianzas de los momentos

66

Nsim=50000

Nburn=100

NS=Nsim+Nb~

randn ( sta~

z=randn ( [1)I

randn ( sta~

u=randn([lJ I

mini=[-201 i

maxi=[211 I

Fun_obj= (I

[sol fbestI

i minaer (

I

I I I

A4 cJ I

i za i

i function I

I Funci6n

I est1maq

I paramet

I y(t)=e~

w(t)=pJI

(Tomadl

mp vel se estJ

par l I

Nsim I J

Nburn I

que sEI

I I

Iesus Antonio Hernandez Rivero y Iuan David Ospina Arango

Estimaci6n de Parametros en Moddos de Volatilidad Estocastica Usando Algoritmos Evolutivos

ASV(l) (Tornado de Andersen y Sorensen 1997)

n nurnero de observaciones a sirnu1ar

par vector de pararnetros~_ - -~

z es ~

requ~ere Oltpar(2)lt1_

I

I I II1Imiddot

1r1 utilizando el

I

I

lesus Antonio Hernandez Rivero y luan David Ospina Arango

Nsirn=50000 Numero

Nburn=100

Ns=Nsirn+Nburni

randn ( state 5)

z=randn([lNs])i t~J~

randn ( state 4) ~ ~ -~ -J

u=randn([lNs])

mini=[-2O-2O1]i

rnaxi=[21O2]i

Fun_obj= (par) qsmm2 (m par Nsim Nburn mini maxi 11 u z)

[solfbestrnejorindmejorfK]=

minaer(Fun_objminimaxi500100O2)

A4 C6digo objetivo para estimar un proceso ASVI utilishy

zando el mCtodo SMM

function q=qsmm(mpparNsirnNburnminimaxiWzu)

Funcion para cornputar el valor de la funcion objetivo SMM para la

estimacion de un modelo de volatilidad estocastica SV(l)

parametrizado como

yt)=exp(w(t)2)z(t)

w(t)=par(1)+par(2)w(t-1)+par(3)u(t)

(Tornado de Andersen y Sorensen 1997)

mp vector de lx24 con los momentos muestrales de la serie que

se estima

par es e1 vector de parametros

Nsim es 1a longitud de 1a serie que se simula

Nburn es 1a cantidad de las prirneros terminos de la serie sirnulada

que se deshecha de rnanera que se simu1a unaserie y de longitud

67

Estimaci6n de Parmetros en Madelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

Nsim+Nburn y se toma y(Nburn+lNsim+Nburn)

W es matriz de ponderacion

u y z soOn dos suceciones iid de media cero varianza 1 e

independientes entre si

Los momentos 32 momentos utilizados son

Recomendados por por Jacquier Polson y Rossi (1994)

para el caso ASVI con rho=O

E (abs (y (t)) )

E(y(t)2)

E(abs(y(t)3))

E(y(t)4)

E(abs(y(t)y(t-j))) j=l lO

E(y(t)2y(t-j)2) j=I bull lO

Recomendados por Giraldo y Lopera (2007)

E(abs(y(t))y(t-l))

E(abs(y(t))y(t-1)middot2)

E(y(t)middot6)

E(y(t) A2y(t) middot3)

E(abs(y(t))y(t-1)middot3)

E(y(t) middot4y(t-l)

E(y(t) 4y(t-1) 3)

E(abs(y(traquo)y(t-l)middot4)

Paso 1 Simulacion de la serie con el vector de parametros

candidato

ysim=simular_yt(parNsimNburnzu)

Paso 2 Calculo de los 32

simulada

mm=momentos2(ysim)

Condiciones de momento

g=mm-mpi

momentos muestrales de la serie

68

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

AS Codli

I bull Iserl1

1

Ifunctlon m=mltl

Programa PJ I

Los moment 0 E(abS(y(t))

i E(y(t)2) 1

I E(abS(y(t)~

E(y(t)4) I i

E(abs(y(t)y I

E(y(t)2y(t I

E(abS(y(t))i

E (abs (y (t) ) 1

E(y(t)6) II

E(y(t) 2y

E(abs(y(t))l

E (y (t) bullbull 4 bull y 1 E(y(t) middot4y(

I E (abs (y (t) ) bull I

N=length(y)

m=zeros ( [132] ) ~

I m(1) =sum (abs (y))

m(2)=sUm(yA2)1

m(3)=sum(abs(Y1

I

-- -_-- _-

lando Algoritmos Evolutivos Iesus Antonio Hernandez Rivero y Juan David Ospina Arango

Irsim+NbUrn)

~dia cero varianza 1 e

s son son y Rossi (1994)

i

b IIII

~

de parametros

shy de 1a serie

c~ -

Funci6n de costa

AS C6digo para estimar 32 momentos muestrales de una

serie de tiempo

function m=momentos2(y)

Programa para ca1cu1ar 32 momentos de una serie de tiempo

Los moment os que se calculan son

E(abs(y(traquo)

E(y(t)2)

E(abs(y(t)A3raquo

E(y(t)4)

E(abs(y(t)y(t-jraquo) j=l 10

E(y(t)2y(t-j)2) j=1 10

E(abs(y(traquoy(t-1raquo

E (abs (y (t) ) y (t-1) bull A2)

E (y (t) 6)

E (y (t) 2 y (t) 3)

E (abs (y (traquo y (t-1) 3)

E(y(t) A4y(t-Iraquo

E(y(t) 4y(t-I) 3)

E (abs (y (traquo y (t-l) bull 4)

N=length(y)

m=zeros([132)

m(l)=sum(abs(yraquoN

m(2)=sum(y2)Nj

m(3)=sum(abs(y3raquoNj

69

---Estimaci6n de Parametros en Modelo de Volatilidad Estodstic Usndo Algoritmos Evolutivos

m(4)=sum(ymiddot4)N

m (5) =sum (abs (y (I N-I) bull y (2 N) ) ) (N-l) i

m (6) =sum (abs (y (I N-2) bull y (3 N) ) ) (N-2)

m (7) =sum (abs (y (1 N-3) y (4 N) ) ) (N-3) i

m(8)=sum(abs(y(IN-4) y(5Nraquo)(N-4)

m(9)=sum(abs(y(IN-5) y(6Nraquo)(N-5)

m(10)=sum(abs(y(IN-6) y(7Nraquo)(N-6)

m(11) =sum (abs (y (1 N-7) bull y (8 N) ) ) (N-7)

m (12) =sum (abs (y (1 N-8) Y (9 N) ) ) (N-8)

m(13) =sum (abs (y (1 N-9) Y (10 N) ) ) (N-9) i

m (14) =sum (abs (y (1 N-I0) bull y (11 N) ) ) (N-IO)

m(15)=sum(y(IN-l) middot2y(2N) 2)(N-l)

m(16) =sum(y (1 N-2) 2 y (3 N) A2) (N-2)

m(17)=sum(y (1 N-3) bull 2 y (4 N) 2) (N-3)

m(18)=sum(y(IN-4) A2y(5N)~-2)(N-3)

m(19)=sum(y(lN-5) -2y(6N) -2)(N-5)

m (20) =sum (y (1 N-6) - 2 y (7 N) -2) (N-6) i

m(21) =sum(y (IN-7) bull A2 y (8 N) -2) (N-7)

m(22)=sum(y(IN-8) A2y(9N) -2)(N-8)

m(23) =sum (y (1 N-9) A 2 y (10 N) - 2) IN-9)

m(24)=sum(y(IN-I0) A2y(11N) A2)(N-lO)

Hasta aqui son los momentos recomendados por Jacquier Polson

y Rossi (1994) para el caso ASVI con rho=O

Los momentos a continuaci6n los recomiendan Giraldo y Lopera

(2007) para el caso eon rho diferente de O

m (2 5) =sum (abs (y (1 N-l) ) bull y (2 N) ) (N-l)

m(26) =sum (abs (y (1 N-l) ) bull y (2 N)lt2) (N-l)

m(27)=sum(yA6)N

m (28) =sum (y (1 N-l) bull A2~ y (2 N) bull A 3) (N-l)

m(29)=sum(abs(y(1N-lraquo y(2N) -3)(N-l)

m(30)=sum(y(1N-l) A4y(2Nraquo(N-l)

70

t~lVSilSl2~~L_~middotl ~ i- iibull t~ r~OIO~~J ~

ll~middotT~middot

=----lesllgt-Ant~mandez Rivero y Juan David Ospina Arango

I -~

m(31)=sum(y(1N-l) fI

I m(32)=sum(abs(y(1N

I I

I

A 6 bullbull C0dIgO p~I

hfbrido I I 1

Estimaeion 1 globales uj modifiea la

I y varianza I

elear all Iet normrnd

ut = n~rmrnJ I

T = 6000 1

Inorm)

I nor

parametr1

alfa

I b 1-12

VOlatilidJ

b (1) ~ (1

simulac I

y simu]

mu = meal I

stdEstim

y = y - f

I I

----

--I -l EvoJutivos~d6n d~_pu~-~ shy

I

~ Ii

1 1

I

- i

Iquier Polson

do y Lopera

I I I

I

~

1

Jesus Antonio Hernandez Rivero y Juan David Ospina Arango

m(31)=sum(y(1N-I) A4y(2N) A31(N-I)

m(32)=sum(abs(y(1N-Iraquo y(2N) A41(N-I)

A6 Codigo para estimar un modelo ASVI utilizano AE

hlbrido

Estimacion emm as vI con ag y modificaciones no usa variables

globales Utiliza scores analiticos del modele auxiliar Se

modi fica la definicion de snp para que quede con media cero

y varianza uno

clear all

et normrnd(OlNl)i Serie de ruido para y_t

ut normrnd(OlNlli Serie de ruido para log (sigma_t)

T = 6000 Tamafio de las series simuladas

normrnd(OlTl)

normrnd(OlTl)i

parametros

A alfa = sr gamma ssqrt(1-r 21 s 03 r -08

b [-12 09 -024 018]

volatilidad = 000024

btl) (1-b(211log(volatilidad)i

simulacion

y simular-yt(bTet_Out_O)

mu meanly)

stdEstimate std(yl)

y = y - mUi

71

estimacion egarch(11)-snp(4) con ga hiprid

FunObj = (b) LLK_egareh_snp(byTstdEstimate)

numberOfVariables 8

optionsGA gaoptimset(PlotFcns gaplotbestfun

Plotlnterval 1 PoplnitRange [-5 5)

lb = [-100 0000000 -0999999 00000001 -01 -01

-01 -01]

ub = [100 09 0999999 1 01 01 01 01]

Estimaci6n del modele auxiliar EGARCH-SNP con algoritmos

geneticos y con SQP

opt Hybrid = gaoptimset(optionsGAGenerations25

PlotlntervallHybridFcn (fmincon

optimset(OutputFcn fminuncOut)I

[XhybridFhybrid) ga (FunObj numberOfVariables [] [] [1

[]lbub []optHybrid)i

Esta grafica permite ver el proeeso de evoluci6n en la

estimaci6n del modele axuliar EGARCH-SNP con algoritmos

geneticos y SQP

figure(l)

hold oni

plot3(Xhybrid(11Xhybrid2)Fhybrid+1middotc MarkerSize 10

MarkerFaceColor C)i

hold offi

calcular los scores

parametros = Xhybrid

tic

scoresl egarch_snp_seores_k(parametrosyTstdEstimate)

toe

72

tic

scores2

toc

Generar I

de los W Newey~

W invw)i

FunObj2 = I numberOfVa

OptimiJ geneticol

optionsGA I Plotln

b_O = paraI

lb [b_O (j ub = [b_O (

I Run GA-Fl

optHybrid 1 Plotlnt

0ptimseJI

[Xhybrid n I

ga(FunObj~

Grafica j figure (1) I hold oni I

i plot3(Xhybi

I

Estimaci6n de Pan1metros en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos----- --

con ga hibrido

T stdEst~mate)

gaplotbestfun

[-5 5])

00000001 -01 -01

01 01 01]

GARCH-SNP con algoritmos

~enerations25 m~ncon

)

IOfVariables [] [] [] ~ I

~evoluci6n en la

1 con algodtmo

I-c MarkerSize 10

1

TstdEstimate)

I

_

Jesus Antonio Hernandez Riveros y Juan David Ospina Arango

tic

scores2 egarch_snp_scores_a(parametrosyTstdEstimate)

toc

Generar la matriz de ponderaciones = matriz de varianzas

de los scores calculada por el metodo de newey-west

W NeweyWest(scoresl~3)

W inv (W)

FunObj2 = (b) funcion_objetivo(b N et ut W parametros)

numberOfVariables = 4

Optimizaci6n de la funci6n objetivo EMM con algoritmos

geneticos

optionsGA = gaoptimset(PlotFcns gaplotbestfun

Plot Interval 1 PopInitRange [-5 5] )

b_O = parametros(14)

Ib [b_O(l)-lO 0000000 -0999999 00000001]

ub [b_0(1)+100999999 0999999 b_0(4)+1]

Run GA-FMINUNC Hybrid MaxFunEvals 800

optHybrid = gaoptimset(optionsGAGenerations 25

PlotIntervallHybridFcn (fmincon

0ptimset(OutputFcnfminuncOut))

[XhybridFhybrid exit flag output population scores] = bullbullbull

ga (FunObj2 numberOfVariables [] [] [] [] Ib ub [] optHybrid)

Grafica de la soluci6n final

figure(l)

hold on

plot3(Xhybrid(1)Xhybrid(2)Fhybrid+lc MarkerSize 10

73

Estimaci6n de Parametro en Modelos de Volatilidad Estocatiea Vando Algoritmos Evolutivos

bullMarkerFaceColor c)

hold off

Optimizaci6n con EAMN

[bestfbestmejorindmejorf]=minae(FunObj2numberOfVariables

lb ub 20 40 02) i

[b parametros(l4) Xhybrid bestl

74

I

Bi

I

BANOi

lable

dingl

Confi

i

BROTO

kingp

DEMBSKI

DOORNli

de Trav3

i 1

DRTONM

gly unrell I

sity

FLEMING PI

survey C(

GALLANT j 657-681

GHYSELS E cevol 16 Ch

GILLI M Y P

zation Methol I i I

~o Algoritmos Evolutivos

con EAMN

unObj2numberOfVariables

I

~

I

I

-

~

Bibliografia

BANDYOPADHYAY S H KARGUPTA Y H GANG WANG (1998) Revisiting the GEMGA scashy

lable evolutionary optimization throughlinkage learning dans Evolutionary Computation Proceeshy

dings 1998 iEEE World Congress OIl Computational Intelligence bull The 1998 IEEE [mernational

Conference on pp 603-608 Anchorage AK USA

BROTO C Y E RUiz (2002) Estimation methods for stochastic volatility models a survey Worshy

king paper 02-54 (14) Universidad Carlos III de Madrid Espana

DEMBSKI W A (1990) Uniform Probability Journal ofTheoretical Probability 3(4)

DOORNIK J A Y M OOMS (2003) Multimodality in the GARCH Regression Model Document

de Travail Nuffleld College University of Oxford

DRTON M Y T S RICHARDSON (2001) Multimodality of the likelihood inthe bivariate seeminshy

gly unrelated regressions model Technical report Department of Statistics Whasington Univershy

sity

FLEMING P Y R PURSHOUSE (2002) Evolutionary algorithms in control systems engineering a

survey Control Engineering Practice 10 1223-1241

GALLANT A R bull Y B TAUCHEN (1996) Which Moments to match Econometric Theory 12

657-681

GHYSELS E H A Y E RENAULT (1996) Handbook ofStatistics Statistical Methods in Fillanshy

cevol 16 chap Stochastic Volatility Elsevier Science Publishers Amsterdam The Netherlands

GILL M Y P WINKER (2007) Handbook ofComputational Econometricschap Heuristic Optimishy

zation Methods in Econometrics Elsevier Amsterdam

75

Estimaci6n de Parametro en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

GOFFE W L F G D Y J ROGERS (1994) Global optimization of statistical functions with

simulated annealing Journal ofEconometrics 60(1-2) 66-99

GOURIEROUX C Y A MONTFORT (1996) Simulation-Based Econometric Methods Oxford Unishy

versity Press Oxford UK

HALL A (2005) Generalized Methods ofMoments Estimation Oxford University Press Oxford

HANSEN L (1982) Large Sample Properties of the Generalized Methods of Moments Economeshy

trica 50 1029-1054

HARIK G (1997) Learning Gene Linkage using Genetic Algorithms IIIiGAL Report 97005 Unishy

versity of Michigan

HARIK G R YD E GOLDBERG (1997) Learning Linkage dans Foundations ofGenetic Algoshy

rithms 4 ed R K Belew y M D Vose pp 247-262 Morgan Kaufmann San Francisco CA -shy

HARIK G R F LOBO Y D GOLDBERG (1999) The compact genetic algorithm IEEE Transacshy

tions on Evoilltiollary Computation 3(4) 287-297

HERNANDEZ J (999) Evoucion de la Computaci6n Evolutiva dans Memorias II Taller Renovashy

cion y Adaptacion de Sistemas Medellin Universidad Nacional de Colombia

HOLLAND J (1992) Adaptation in IIalllral and artificial systems The University of Michigan Press

1deg edn

INGBER L Y B ROSEN (1992) Genetic algorithms and very fast simulated reannealing a compashy

rison Mathematical and Computer Modelling 16(11)87-100

KARGUPTA H (1998) Revisiting the GEMGA dans Proceedings IEEE Illternational Conference

Oil Evolwionary Complltation IEEE Press

LARRANAGA P Y J A LOZANO (2001) Estimation of Distribution Algorithms A New Toolfor

Evolutionary Computation Kluwer Academic Publishers Norwell MA USA

Lru X (2001) Finding Global Minima with_a Computable Filled Functionollrnal ofGlobal

Optimization 19(2) 151-161

76

Iesu Antonio Hemampndez Rivero y Iuan David Ospina Atmgo

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics JOllrnal of

Computational and Graphical Statimiddotu_ll~t=cl-7=====~_ __________I ---------- ___ ~____~~ I

MIQUELEZ 1 E BENGOETXEA Yj tatioll_ Advances 011 estimation oftIl

tio -Hire pph pp 221 j MUHLENBEIN H (1997) The Equa

I llltiollary Compltation 5(3) 303-~ I

MUHLENBEIN H T MAHNIG Y )

hical Models in Evolutionary OptiJ I

MUHLENBElN H Y G PAASS (19J

butions 1 Binary Parameters da1

Parallel Problem Solving from Nal

I NOCEDAL J Y S WRIGHT (1999)

PELIKANM~ D GOLDBERG Y EI I

and Bayesian Networks (IIIiGAI

Illinois Genetic Algorithms Laboi

I PELIKAN M D GOLDBERG Y F

I probabilistic models Computati

I ROCKINGER M Y M SEMENOV

i characteristic functions FAME

RUDOLPH G (1996) Converger

Proceedings of the Third IEEE J

NJ IEEE Press I SPALL J C (2003) Introduction

Control John Wiley and Sons r I I

-~-

---~ ~

Estimaci6J---- lld Estocaslica Usando Algorilmos Evolutis

RS (1994) Global optimization of statistical functions with

ometrics 60(1-2) 66-99 6) Simulation-Based Econometric Methods Oxford Unishy

mampmm Omd Uionity Pre Od

th Gmli Mhd Mom poundCooommiddot

Genetic Algorithms IlIiGAL Report 97005 Unishy

g Linkage dans Foundations ofGenetic Algoshy

l 1 Morgan Kaufmann San Francisco CA

compact genetic algorithm IEEE TransacshyII II II

~l~tiva dans Memorias 1 Taller Renovashy

ional de Colombia

s The Univ~rsity of Michigan Press

simulated reannealing a compashy

BEE International Conference

gorithms A New Tool for

liSA

JOllrnal oGlobal

j

_J

Iesus Antonio Hemandoz River y Juan David Ospina ArangO

MEYER M C (2003) An Evolutionary Algorithm With Applications to Statistics Journal of

Comptltational alld Graphical Statistics 12(2) 1-17

MIQUELEZ T E BENGOETXEA Y P LARRANAGA (2006) Towardf a lew evolutionary compushy

tation Advances on estimation ofthe distribution algorithmschap Bayesian classifiers in optimizashy

tion an eda-Iike approach pp 221-242 Studies in fuzziness and soft computing Springer

MOHLENBElN H (1997) The Equation for Response to Selection and Its Use for Prediction Evoshy

lutionary Complllation 5(3) 303-346

MVHLENBEIN H T MAHNIG Y A O RODRIGUEZ (1999) Schemata Distributions and Grapshy

hical Models in Evolutionary Optimization Journal ~fHeuristic~ 5 215-247

MVHLENBElN H Y G PAASS (1996) From Recombination of Genes to the Estimation of Distrishy

butions I Binary Parameters dans PPS~ IV Proceedings of the 4th Illlemationai Conferellce Oil

Parallel Problem Sol~illgfrom Natllre pp 178-187 London UK Springer-Verlag

NOCEDAL J Y S WRIGHT (1999) Numerical Optimization Springer Verlag New York

PELIKAN M D GOLDBERG Y E CANTU-PAZ (1998) Linkage Problem Distribution Estimation

and Bayesian Networks (IIliGAL report no 98013) University of lIlinois at Urbana-Champaign

Illinois Genetic Algorithms Laboratory Urbana IL

PELIKAN M D GOLDBERG Y F LOBO (2002) A survey of optimization by building and using

probabilistic models Complttational Optimization and Applications 21(1)

ROCKINGER M Y M SEMENOVA (2005) Estimation of jump-diffusion processes via empirical

characteristic functions FAME 150

RUDOLPH G (1996) Convergence of Evolutionary Algorithms in General Search Spaces dans

Proceedings of the Third IEEE COllference on Evolutionary Computation pp 50-54 Piscataway

NJ IEEE Press

SPALL J C (2003) Introduction to Stochastic Search and Optimization Estimation Simulation and

Control John Wiley and Sons New York

77

Estimaci6n de Panlmetms en Modelos de Volatilidad Estocastica Usando Algoritmos Evolutivos

TAUCHEN G (1998) The Objetive Function of Simulation Estimators near the Boundary of the

Unstable Region of the Parameter Space 111e Review ofEconomics al~d Statistics 80 389-398

VILLALOBOS M (2003) Algoritmos geneticos algunos resultados de convergencia Mosaicos

Matematicos 11 53-60

WANG P Y P KWOK (1992) Optimal fuzzy PIO control based on genetic algorithm

WHITLEY D (1994) AGenetic Algorithm Tutorial Statistics and Compltting (4) 65-85

--- (2001) An overview of evolutionary algorithms JOllmai oflnfonnatioll and Software Teshy

chnology 43 817-831

--- (2002) Genetic Algorithms and Evolutionary Computing dans Van Nostrands Scientific

Encyclopedia

WUERTZ D~ Y CHALABIy L LUKSAN (2004) Parameter Estimation of ARMA Models with

GARCWAPARCH ErrorsAn Rand SPlus SoftwareImplementation Journal ofStatistical Softshy

ware 10

ZHANG~L S C K NG D LI y W W TIAN (2004) A new filled function method for global

optimization Journal ofGlobal Optimization 28 17-43

ZIVOT E Y J WANG (2006) Modeling Financial Time Series with S-PllIs Springer Verlag New

York

78

111

Algd I

algo~

algor)

AlgOl i

Algor

ASVI I

I Comp

i

EAMr

EDAj

EGAR

EMM I

espacicI

Estrate

i Funci6i

I GMMi

GOldset I

Griewai

Iinkagej

I I

metodos I

con

de J

i I

Estimad6n de Parametros en Mmlelo de Volatilidad Estodstica Usand Alg()ritm~o~E~volutivo~___________

j TAUCHRN-------- -EStimaIOrS near the Boundary of the t------- ------~--

wmics alld Statistics 80 389-398 IJltados de convergencia Mosaicos

Ion genetic algorithm

d Computing (4) 65-85

of Informatioll and Software Teshy

dans Van Nostrands Scientific 1

tion of ARMA Models with

- Journal of Statistical Softshy

Imiddot

r Iunction method for global II

( Spdbullbull Vorl N=

I

I

~-

~

Indice alfabetico

Algoritmo de aprendizaje incremental 37 multimodalidad 22

algoritmo de distribucion marginal multivariada Operaciones genelicas

38 Cruzamiento 28

algoritmo genetico compacto 38 Mutaci6n 29

Algoritmos Evolutivos 24 Replicaci6n 28

Algoritmos Geneticos 26

ASV15 Programaci6n Evolutiva 27

Rastrigin fund6n de 43

Rosenbrock fundon de 43

Computadon Evolutiva 25

EAMN39 ruleta32

EDA33

Schwefel funcion de 44 EGARCH6

Selecd6n31EMM89

Six-hump camel back fundon de 47 espado de Msqueda 19

SNP16Estrategias de Evolud6n 26

Fundon de Aptitud 24 30

GMM1O

Goldsetin-Price fundon de 46

Griewangk funci6n de 45

linkage problem 35

metodos de optimizacion heurlsticos 21

constructivos 22

de bUsqueda local 23

79

Page 12: Estimaci6n de Parametros en Modelos de Volatilidad
Page 13: Estimaci6n de Parametros en Modelos de Volatilidad
Page 14: Estimaci6n de Parametros en Modelos de Volatilidad
Page 15: Estimaci6n de Parametros en Modelos de Volatilidad
Page 16: Estimaci6n de Parametros en Modelos de Volatilidad
Page 17: Estimaci6n de Parametros en Modelos de Volatilidad
Page 18: Estimaci6n de Parametros en Modelos de Volatilidad
Page 19: Estimaci6n de Parametros en Modelos de Volatilidad
Page 20: Estimaci6n de Parametros en Modelos de Volatilidad
Page 21: Estimaci6n de Parametros en Modelos de Volatilidad
Page 22: Estimaci6n de Parametros en Modelos de Volatilidad
Page 23: Estimaci6n de Parametros en Modelos de Volatilidad
Page 24: Estimaci6n de Parametros en Modelos de Volatilidad
Page 25: Estimaci6n de Parametros en Modelos de Volatilidad
Page 26: Estimaci6n de Parametros en Modelos de Volatilidad
Page 27: Estimaci6n de Parametros en Modelos de Volatilidad
Page 28: Estimaci6n de Parametros en Modelos de Volatilidad
Page 29: Estimaci6n de Parametros en Modelos de Volatilidad
Page 30: Estimaci6n de Parametros en Modelos de Volatilidad
Page 31: Estimaci6n de Parametros en Modelos de Volatilidad
Page 32: Estimaci6n de Parametros en Modelos de Volatilidad
Page 33: Estimaci6n de Parametros en Modelos de Volatilidad
Page 34: Estimaci6n de Parametros en Modelos de Volatilidad
Page 35: Estimaci6n de Parametros en Modelos de Volatilidad
Page 36: Estimaci6n de Parametros en Modelos de Volatilidad
Page 37: Estimaci6n de Parametros en Modelos de Volatilidad
Page 38: Estimaci6n de Parametros en Modelos de Volatilidad
Page 39: Estimaci6n de Parametros en Modelos de Volatilidad
Page 40: Estimaci6n de Parametros en Modelos de Volatilidad
Page 41: Estimaci6n de Parametros en Modelos de Volatilidad
Page 42: Estimaci6n de Parametros en Modelos de Volatilidad
Page 43: Estimaci6n de Parametros en Modelos de Volatilidad
Page 44: Estimaci6n de Parametros en Modelos de Volatilidad
Page 45: Estimaci6n de Parametros en Modelos de Volatilidad
Page 46: Estimaci6n de Parametros en Modelos de Volatilidad
Page 47: Estimaci6n de Parametros en Modelos de Volatilidad
Page 48: Estimaci6n de Parametros en Modelos de Volatilidad
Page 49: Estimaci6n de Parametros en Modelos de Volatilidad
Page 50: Estimaci6n de Parametros en Modelos de Volatilidad
Page 51: Estimaci6n de Parametros en Modelos de Volatilidad
Page 52: Estimaci6n de Parametros en Modelos de Volatilidad
Page 53: Estimaci6n de Parametros en Modelos de Volatilidad
Page 54: Estimaci6n de Parametros en Modelos de Volatilidad
Page 55: Estimaci6n de Parametros en Modelos de Volatilidad
Page 56: Estimaci6n de Parametros en Modelos de Volatilidad
Page 57: Estimaci6n de Parametros en Modelos de Volatilidad
Page 58: Estimaci6n de Parametros en Modelos de Volatilidad
Page 59: Estimaci6n de Parametros en Modelos de Volatilidad
Page 60: Estimaci6n de Parametros en Modelos de Volatilidad
Page 61: Estimaci6n de Parametros en Modelos de Volatilidad
Page 62: Estimaci6n de Parametros en Modelos de Volatilidad
Page 63: Estimaci6n de Parametros en Modelos de Volatilidad
Page 64: Estimaci6n de Parametros en Modelos de Volatilidad
Page 65: Estimaci6n de Parametros en Modelos de Volatilidad
Page 66: Estimaci6n de Parametros en Modelos de Volatilidad
Page 67: Estimaci6n de Parametros en Modelos de Volatilidad
Page 68: Estimaci6n de Parametros en Modelos de Volatilidad
Page 69: Estimaci6n de Parametros en Modelos de Volatilidad
Page 70: Estimaci6n de Parametros en Modelos de Volatilidad
Page 71: Estimaci6n de Parametros en Modelos de Volatilidad
Page 72: Estimaci6n de Parametros en Modelos de Volatilidad
Page 73: Estimaci6n de Parametros en Modelos de Volatilidad
Page 74: Estimaci6n de Parametros en Modelos de Volatilidad
Page 75: Estimaci6n de Parametros en Modelos de Volatilidad
Page 76: Estimaci6n de Parametros en Modelos de Volatilidad
Page 77: Estimaci6n de Parametros en Modelos de Volatilidad
Page 78: Estimaci6n de Parametros en Modelos de Volatilidad
Page 79: Estimaci6n de Parametros en Modelos de Volatilidad
Page 80: Estimaci6n de Parametros en Modelos de Volatilidad
Page 81: Estimaci6n de Parametros en Modelos de Volatilidad
Page 82: Estimaci6n de Parametros en Modelos de Volatilidad
Page 83: Estimaci6n de Parametros en Modelos de Volatilidad
Page 84: Estimaci6n de Parametros en Modelos de Volatilidad