68
CAPITULO 2. ANALISIS UNIVARIANTE DE SERIES TEMPORALES: MODELOS
ARIMA.
2.1. INTRODUCCIÓN
Una serie temporal es una sucesión de observaciones de una variable en distintos
momentos del tiempo. Aunque el tiempo es, en realidad, una variable continua, en la práctica
utilizaremos mediciones en periodos aproximadamente equidistantes. Por ejemplo, la sucesión
de valores del PNBpm para un país desde 1900 hasta 1990.
Básicamente, lo que se pretende con el estudio univariante de las series temporales es el
conocimiento de una variable a lo largo del tiempo para, a partir de este conocimiento y bajo el
supuesto de que no van a producirse cambios estructurales, poder realizar predicciones.
Hay casos en los que la variable observada tiene un patrón de comportamiento fijo. En
términos estadísticos estamos ante una serie determinista. Por el contrario hay series que
resultan impredecibles. Su pauta de comportamiento no responde a un patrón fijo, por lo que
son puramente aleatorias. Un ejemplo típico es la sucesión de números premiados en un sorteo
de loterías. En general, las series económicas contienen una componente determinista y una
componente aleatoria.
Hasta el primer cuarto del siglo XX, los métodos de análisis de series temporales se
basaban en los modelos de descomposición. Según éstos, las series reales resultan de la
agregación de cuatro componentes básicas: tendencia, componente estacional, componente
cíclica y componente irregular. Cada una de estas componentes se estudia por separado
mediante el uso de métodos matemáticos.
La tendencia se corresponde con la evolución de la serie a largo plazo, evolución que
puede ser creciente, decreciente o estable. Suele estar reflejada por una línea alrededor de la
cual oscilan los valores de la serie. En la figura 2.1.1. se aprecia la representación gráfica de una
serie simulada con tendencia creciente.
Los movimientos cíclicos son variaciones o movimientos oscilatorios de amplitud
superior al año, en general no periódicos y se suelen apreciar cuando la serie tiene gran longitud.
La duración del ciclo no se mantiene constante. En economía, una explicación sobre la aparición
69
de los ciclos, es la existencia de los períodos de prosperidad y recesión de los países (la serie
observada puede ser la renta per cápita).
Tiempo
Ser
ie
Figura 2.1.1.
La figura 2.1.2. presenta un ejemplo de serie con componente cíclica y con tendencia
constante o estacionaria. Las ondas periódicas plurianuales son los ciclos de la serie.
Tiempo
Ser
ie
Figura 2.1.2.
La estacionalidad se refiere a las oscilaciones que acontecen dentro del año y que se
repiten en años sucesivos. Es consecuencia de factores climáticos, organizativos y
administrativos, fundamentalmente. Considérese como ejemplo, el aumento de la venta de
juguetes durante la fiesta de Reyes cada año.
70
Así como los ciclos se caracterizan por su irregularidad, en la componente estacional se
pueden encontrar movimientos parecidos de un año a otro. El gráfico de la figura 2.1.3.
representa una serie estacionaria con movimientos estacionales.
Tiempo
Ser
ie
Tiempo
Ser
ie
Figura 2.1.3.
La componente irregular contiene variaciones esporádicas que no responden a ningún
patrón fijo, y que son originadas por acontecimientos singulares. Recoge los efectos sobre la
serie de hechos no previsibles, como pueden ser las catástrofes o huelgas, o factores
inapreciables no explicables a causa de la conducta impredecible de los sujetos.
Estos elementos se pueden combinar de forma aditiva, multiplicativa o mixta, para
formar el valor total de la serie temporal.
En el esquema aditivo, el valor total de la serie es la suma de sus elementos:
Yt = Tt + Ct + Et + It
En el esquema multiplicativo:
Yt = Tt Ct Et It
Un modelo mixto, puede ser:
Yt = Tt Ct Et + It
T es la tendencia, C los movimientos cíclicos, E la estacionalidad e I la componente
irregular.
71
El análisis clásico tiene como fin describir la pauta de comportamiento que siguen cada
una de estas componentes, con el fin de reproducir su conducta y realizar predicciones. Se parte
de un esquema previo y se trata de aislar cada uno de los componentes.
Posteriormente surgió la concepción moderna o estocástica, basada en la teoría de los
procesos aleatorios. Se trata de los modelos estocásticos de series temporales, los cuales se
representan mediante relaciones analíticas que conectan los valores de la variable con
combinaciones lineales o no, de parámetros y variables. Entre estas variables, al menos, una
tiene carácter probabilístico, hecho que confiere a la serie un rasgo aleatorio. En este sentido, los
modelos predictivos univariantes de series temporales propuestos por Box y Jenkins (1970),
serán el punto de atención de este capítulo. Son los denominados modelos ARIMA.
La parte aleatoria de una serie no debe confundirse con el movimiento irregular, debido
a que éste no está sujeto a periodicidad alguna pero puede ser previsible (por ejemplo, el efecto
de una huelga en la producción). El componente aleatorio se caracteriza por no ser previsible.
2.2. MODELOS LINEALES DE SERIES TEMPORALES: MODELOS ARIMA
2.2.1. PROCESOS ESTOCÁSTICOS
Un proceso estocástico es una familia de variables aleatorias que corresponden a
momentos sucesivos del tiempo. En cada período o momento temporal se dispone de una
variable que tendrá su correspondiente distribución de probabilidad.
Sea el proceso Yt. Para t = 1, por ejemplo, Y1 es una variable aleatoria que tomará
diferentes valores con diferentes probabilidades. Lo mismo ocurre para todo t =1, 2, ....
En la metodología ARIMA, una serie temporal es una muestra de un proceso
estocástico. Está formada por una sola observación de cada una de las variables que componen
el proceso, es decir, es una realización del mismo1. Dicho de otra forma, la serie ha sido
generada por un proceso estocástico, y, por tanto, tiene carácter aleatorio2.
1 La notación Yt puede representar tanto una variable aleatoria como una observación muestral, depende del contexto. 2 No se pueden obtener los valores de la serie de forma exacta a través de una función matemática del tiempo, por ejemplo Yt = 2t.
72
Por ejemplo, el PIBpm desde 1970 hasta 1990 de un país es, en cada año, una variable
aleatoria que puede tomar infinitos valores con distintas probabilidades. La sucesión de
observaciones efectuadas cada año en ese país formaría la serie temporal.
Un proceso estocástico Yt, se suele describir mediante las siguientes características:
esperanza matemática, varianza, autocovarianzas y coeficientes de autocorrelación.
La esperanza matemática de Yt se traduce en la sucesión de las esperanzas matemáticas
de las variables que componen el proceso, a lo largo del tiempo.
E(Yt) = µt, t = 1,2,3,...
La varianza de un proceso aleatorio es una sucesión de varianzas, una para cada variable
del proceso.
Var (Yt) = E(Yt - µt)2, t =1,2,3,...
Las autocovarianzas son las covarianzas entre cada par de variables del proceso.
Cov(Yt,Yt+k) = E[(Yt - µt)(Yt+k - µt+k)] = γt,t+k, t = 1,2,3...
Los coeficientes de autocorrelación son los coeficientes de correlación entre cada par de
variables que componen el proceso.
ρt,t+k = γ t t k
t t kVar Y Var Y,
( ) ( )+
+
, t=1,2,3,..., con − ≤ ≤+1 1ρ t t k,
La función de autocorrelación simple o correlograma (FAS) es la representación gráfica
de los coeficientes de autocorrelación, en función de los distintos retardos o desfases entre las
variables.
La función de autocorrelación parcial (FAP) responde a la medición de la correlación
existente entre dos variables del proceso en distintos períodos de tiempo, pero una vez
eliminados los efectos sobre las mismas de los períodos intermedios. Parte de la correlación que
73
pueda detectarse entre Yt e Yt-2 puede ser debida a que ambas variables estén correlacionadas
con Yt-1.
2.2.1.1. PROCESOS ESTACIONARIOS
Un tipo de procesos que alcanzan gran importancia en este análisis es el de los procesos
estacionarios, en contraposición a los procesos evolutivos. La estacionariedad de un proceso
puede concebirse en sentido estricto y en sentido amplio.
Un proceso es estacionario en sentido estricto si cualquier conjunto m de variables
aleatorias del proceso tienen la misma distribución de probabilidad que cualquier otro conjunto
de m variables, para todo m dado. Implica que las características del proceso no sufren
alteración al considerar tiempos diferentes.
El mayor problema de esta definición es que no es empíricamente contrastable, porque
la serie temporal está formada por una sola observación de cada una de las distribuciones de
probabilidad que componen el proceso en cada período de tiempo. Además, el número de
condiciones a comprobar podría ser infinito.
Para fines prácticos se definió la estacionariedad en sentido amplio o de segundo orden.
Un proceso es estacionario en sentido amplio si su media es constante e independiente del
tiempo, su varianza es finita y constante, y el valor de la covarianza entre dos periodos no
depende del tiempo en el cual se ha calculado, sino de la distancia o desfase entre aquellos.
Todos los momentos de primer y segundo orden del proceso son independientes del tiempo,
incluyendo la función de autocorrelación parcial.
E(Yt) = µ, t =1,2,3...
Var(Yt) = E(Yt - µ)2 = σ2, t =1,2,3...
γ γ γt t k t k t k, ,+ −= = , t =1,2,3...
γ k es la covarianza entre dos variables del proceso separadas k períodos.
Si k = 0, γ 0 = E(Yt - µ)( Yt - µ) = σ2
74
ρt,t+k = k0
k
22
k ρ=γγ=
σσ
γ
ρk es el coeficiente de autocorrelación simple de dos variables separadas k períodos.
Estacionariedad en media y varianza
Vamos a suponer que una serie temporal muestra una tendencia creciente. Como cada
observación de la serie proviene de la distribución de probabilidad del período correspondiente,
es razonable creer que la esperanza matemática de dichas distribuciones también crece en el
tiempo.
Para conocer si la serie temporal es estacionaria en varianza, puede realizarse la
observación de los datos originales. Si alcanzan oscilaciones desiguales en torno a la tendencia,
se puede defender la no estacionariedad de la serie. La figura 2.2.1. presenta una serie temporal
generada por un proceso no estacionario en varianza, siendo ésta creciente con el tiempo.
Tiempo
Ser
ie
Figura 2.2.1.
Los modelos de predicción de series temporales están diseñados para procesos
estacionarios. Si las características del proceso cambian a lo largo del tiempo, resultará difícil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo. Sin embargo, por regla general, las series económicas no son series que proceden de
procesos estacionarios, sino que suelen tener una tendencia creciente o decreciente, y
75
variabilidad no constante. Esta limitación no es tan importante porque, en la práctica, se pueden
transformar las series no estacionarias en otras que sí lo son.
Un tipo de proceso estacionario particular es el denominado ruido blanco, formado por
una sucesión de variables aleatorias con distribución normal, esperanza cero, varianza constante
e incorreladas entre sí (figura 2.2.2):
εt es ruido blanco si εt ∼ N(0,σ2ε), para cualquier t, tal que Cov(εt,εt’ ) = 0, ∀ ≠t t' .
Tiempo
Ser
ie
-1
-0,5
0
0,5
1
1 2 3 4 5 6 7
Retardo
ρk
Figura 2.2.2. Figura 2.2.3.
Por otra parte, un proceso estocástico se dice ergódico cuando los valores de la serie
alejados en el tiempo están poco correlacionados, es decir, cuando ρk decrece al aumentar el
retardo k (figura 2.2.3.).
2.2.1.2. ESTIMACIÓN DE LA FUNCIÓN DE AUTOCORRELACIÓN SIMPLE EN
UN PROCESO ESTACIONARIO.
En la práctica se dispone de una muestra de un proceso estocástico, Y1, ...Yn. Se pueden
obtener los coeficientes de autocorrelación simple y parcial muestral y, a partir de ellos, la
función de autocorrelación simple y parcial teórica 3.
Función de autocorrelación simple de la muestra:
3 La estimación de la FAP se tratará en el epígrafe 3 del capítulo.
76
n
Y
Yˆ
n
1tt∑
===µ , n
)YY(ˆ
2n
1tt
0
∑=
−=γ
kn
)YY)(YY(
kn
)YY)(YY(
ˆt
n
1ktktkt
n
1ktt
k −
−−=
−
−−=γ
∑∑+=
−++=
��
�ρ
γγk
k=0
Si el tamaño de la muestra es grande con respecto a k, dividir por n o por n-k es
prácticamente lo mismo, así como el cálculo de la media con n o con n-k observaciones:
��
�ρ
γγk
k=0
=2
n
1tt
kt
n
1ktt
2n
1tt
kt
n
1ktt
)YY(
)YY)(YY(
n
)YY(
kn
)YY)(YY(
∑
∑
∑
∑
=
++=
=
++=
−
−−=
−
−
−−
2.2.2. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES.
La representación formal de los procesos aleatorios que generan series reales se puede
realizar a través de los modelos lineales de series temporales, desarrollados especialmente a
través de la metodología de Box y Jenkins. Considerando que la serie temporal ha sido generada
por un proceso estocástico, en este apartado se describirán los posibles modelos teóricos que
permitan explicar el comportamiento de la misma y, por tanto, el de su proceso generador.
Después, se utilizarán con fines predictivos.
Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie
de datos económicos se clasifican en tres tipos: el modelo autorregresivo, el modelo de medias
móviles y el modelo mixto.
77
2.2.2.1. PROCESOS AUTORREGRESIVOS
Representan los valores de una variable durante un instante del tiempo en función de sus
valores precedentes. Un modelo autorregresivo de orden p (AR(p)) tiene la forma siguiente:
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
δ es un término constante.
εt es una variable ruido blanco, que representa los errores del ajuste y otorga el carácter aleatorio
a la misma.
Las características de los procesos AR(1) y AR(2) se analizarán a continuación y los
resultados obtenidos se van a generalizar al AR(p).
Modelos autorregresivos de primer orden AR(1):
Yt = δ + φ1Yt-1 + εt
Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) y Var (Yt) = Var(Yt-1),
∀t. Entonces:
Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ ⇒ µ =δφ1 1−
Varianza: Var(Yt) = Var(Yt-1) = γ0 ⇒ γ0 = φ12γ0 + σε
2 ⇒ γ0 =σ
φε2
121−
La condición a cumplir para que γ0 sea positiva y finita es que φ1 1< . En ese caso el
modelo es estacionario en media y varianza.
Si el modelo es estacionario en sentido amplio, además:
Autocovarianzas:
Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ1 , ∀t.
Cov (Yt-1,Yt)=E[( Yt-1-µ)(Yt-µ)] = E(yt-1yt)
78
Yt = δ + φ1Yt-1 + εt = µ(1- φ1) + φ1Yt-1 + εt⇒Yt-µ = φ1(Yt-1-µ) + εt⇒ yt = φ1yt-1+ εt
γ1 = E(yt-1yt) = E(yt-1(φ1yt-1+εt)) = φ1E(yt-12) + E(yt-1εt ) = φ1γ0
yt-1 está correlacionado con εt-1 pero no con εt, debido a que ésta es una variable ruido blanco y
no presenta autocorrelación.
γ2 = E(yt-2yt) = E(yt-2(φ1yt-1 + εt))= φ1E(yt-2Yt-1)+ E(yt-2εt ) = φ1γ1 = φ12γ0
............
γk = φ1kγ0
Coeficientes de autocorrelación simple:
ρ0 = 1
ρ1 = 10
1 φ=γγ
ρ2 =21
0
2 φ=γγ
.........
ρk =k1
0
k φ=γγ ∀k
Los valores de la función de autocorrelación son las sucesivas potencias de φ1. La
condición 11 <φ garantiza que los sucesivos valores ρk converjan a cero, por lo que la función
de autocorrelación o correlograma puede tener dos aspectos distintos, dependiendo del signo de
φ1 (figura 2.2.4.).
Utilizando el operador de retardos L que, aplicado sobre una variable en un periodo del
tiempo t, la retarda un período, podemos establecer de otro modo la condición de
estacionariedad:
LYt = Yt-1, LYt-1 = Yt-2 = LLYt =L2Yt, ... Yt-k = LkYt
L0 =1 por lo que L0Yt = Yt
Podemos escribir el modelo:
79
Yt = δ + φ1Yt-1 + εt = δ + φ1LYt + ε t⇒ Yt - φ1LYt = δ + εt Yt(1 - φ1L) = δ + εt
donde (1 - φ1L) = φ(L) es el operador polinomial de retardos.
Para que el proceso AR(1) sea estacionario, 11 <φ y es equivalente a la condición de
que la raíz del operador polinomial φ(L) = 0 debe caer fuera del círculo unidad, es decir:
1 - φ1L = 0 ⇒ 1L > ⇒ 11
1
>φ
⇒ 11 <φ .-
Si 11 <φ ⇒ 1L
1 < ⇒ 1L > .-
φ1>0
-1
-0,5
0
0,5
1
Retardo
r k
φ1 <0
-1
-0,5
0
0,5
1
Retardo
ρκ
Figura 2.2.4. FAS de un modelo AR(1)
Modelos autorregresivos de segundo orden AR(2):
Yt = δ + φ1Yt-1 + φ2Yt-2 + εt
Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) y Var(Yt) = Var(Yt-1),
∀t. Entonces:
Media: E(Yt) = E(Yt-1) = µ ⇒ µ = δ + φ1µ + φ2µ ⇒ µ =211 φ−φ−
δ
Para que la media sea finita φ1+ φ2 ≠1.
80
Varianza: Var(Yt) = Var(Yt-1)= Var (Yt-2) = γ0 ⇒ Var (Yt) = E(yt2) = E(ytyt) = E[yt(φ1yt-1
+... + φ2yt-2 + εt)] = φ1γ1+ φ2γ2 + E(ytεt) = φ1γ1 + φ2γ2 + σ2ε
Ya que yt = φ1yt-1 + φ2yt-2 + εt
Autocovarianzas:
Cov(Yt-1,Yt) = Cov(Yt,Yt+1) = γ1 , ∀t.
γ1 = Cov (Yt-1,Yt) = E[( Yt-1 - µ)(Yt - µ)] = E(yt-1yt) = E[yt-1(φ1yt-1 + φ2yt-2 + εt)] = φ1γ0 +
φ2γ1.
Hay que recordar que en un proceso estacionario γ1= γ-1.
γ2 = Cov (Yt-2,Yt) = E(yt-2yt) = E(yt-2(φ1yt-1 + φ2yt-2 + εt)) = φ1γ1 + φ2γ0
...
γk = φ1γk-1 + φ2γk-2 (k>0).
Coeficientes de autocorrelación simple:
ρ0 =1
ρ1 =γγ
1
0
= φ1 + φ2ρ1
ρ2 =γγ
2
0
= φ1ρ1 +φ2
....
ρk =γγ
k
0
= φ1ρk-1 + φ2ρk-2 , k>0
En la figura 2.2.5. se pueden observar los correlogramas de procesos AR(2).
Modelos autorregresivos de orden p, AR(p):
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
Si el proceso es estacionario en media y varianza: E(Yt) = E(Yt-1) =...= E(Yt-p) y Var(Yt)
= Var(Yt-1) =...= Var(Yt-p), ∀t. Entonces:
81
µ =p21 ...1 φ−−φ−φ−
δ ; para que la media sea finita φ1 + φ2 +...+ φp ≠ 1.
La condición de estacionariedad es que las raíces de la ecuación polinomial φ(L) = 0
estén fuera del círculo unidad4.
0Lˆ...LˆLˆ1 pp
221 =φ−φ−φ−
Si Li es una raíz de la ecuación polinomial se demuestra que iL
1= λi
Donde λi son las raíces de la denominada ecuación característica:
λp - φ1λp-1 - φ2λp-2 -...- φp = 0.
Por tanto, la condición de invertibilidad se puede obtener de forma alternativa y es que
las raíces de la ecuación característica deben ser menores a la unidad en valor absoluto.
φ1>0, φ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
φ1<0, φ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
φ1>0, φ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
φ1<0, φ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.5. FAS de procesos AR(2)
82
Generalizando:
γ0 = φ1γ1 + φ2γ2 +...+ φpγp + σ2ε
γk = φ1γk-1 + φ2γk-2 +...+ φpγk-p, para todo k≥ 1 (*)
El sistema de ecuaciones (*) para k = 1...p, relaciona las p primeras autocovarianzas con
los parámetros del proceso. Se denominan ecuaciones de Yule-Walker:
γ1= φ1γ0 + φ2γ1 +...+ φpγp-1
γ2 = φ1γ1 + φ2γ0 +...+φpγp-2
.............................................
γp= φ1γp-1 + φ2γp-2 +...+φpγ0
Las ecuaciones de Yule-Walker se pueden expresar en términos de los coeficientes de
autocorrelación dividiendo por γ0 ambos miembros:
ρ1 = φ1ρ0 + φ2ρ1 +...+ φpρp-1
ρ2 = φ1ρ1 + φ2ρ0 +...+ φpρp-2
.............................................
ρp = φ1ρp-1 + φ2ρp-2 +...+φpρ0
Mediante estas ecuaciones se pueden obtener los coeficientes o parámetros del proceso
AR(p) con los datos de los coeficientes de autocorrelación o autocovarianzas.
Si se resuelve sucesivamente el sistema de Yule-Walker bajo la hipótesis de la serie es
un AR(1), AR(2), AR(3), etc., y se toma el último coeficiente de cada uno de los procesos se
obtiene la función de autocorrelación parcial teórica. Bajo el supuesto de que p es el orden del
proceso autorregresivo, se obtiene que los coeficientes de autocorrelación parcial serán distintos
de cero para retardos iguales o inferiores a p (figura 2.2.6.).
4 En caso de que las raíces sean números complejos basta calcular su módulo.
83
φ1<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
φ1>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.6. FAP de procesos AR (1)
2.2.2.2. PROCESOS DE MEDIA MÓVIL
En los procesos de media móvil de orden q, cada observación Yt es generada por una
media ponderada de perturbaciones aleatorias, con un retardo de q períodos. Se simboliza por
MA(q):
Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q, εt es ruido blanco.
Modelo MA(1):
Yt = δ + εt - θ1εt-1
E(Yt) = δ
Var (Yt) = Var (εt) + θ12Var (εt-1) = σε
2(1+ θ12) = γ0
Autocovarianzas:
γ1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2)( εt - θ1εt-1) = - θ1σε2
γ2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3)( εt - θ1εt-1) = 0
....
γk = 0, ∀ >k 1
Se dice que el proceso tiene una memoria de sólo un período. Cualquier valor de Yt está
correlacionado con Yt-1 e Yt+1, pero con ningún otro valor de la serie.
Coeficientes de autocorrelación:
84
ρ0 = 1
ρ1 = γγ
1
0
= 21
1
1 θ+θ−
ρk =γγ
k
0
= 0, k>1
Un modelo MA(1) siempre es estacionario con independencia del valor de θ1.
θ1<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.7. FAS de un proceso MA(1)
Modelo MA(2):
Yt = δ + εt - θ1εt-1 - θ2εt-2
E(Yt) = δ
γ0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ2
2Var (εt-2) = σε2(1+ θ1
2+θ22) = γ0
Autocovarianzas:
γ1 = E(Yt-1 - δ)(Yt - δ) = E(εt-1 - θ1εt-2 - θ2εt-3)( εt - θ1εt-1 - θ2εt-2) = σε2(-θ1 + θ1θ2)
γ2 = E(Yt-2 - δ)(Yt - δ) = E(εt-2 - θ1εt-3 - θ1εt-4)( εt - θ1εt-1 - θ2εt-2) = -θ2σε2
....
γk= 0, ∀ >k 2
85
Coeficientes de autocorrelación:
ρ0 =1
ρ1 =γγ
1
0
= − +
+ +θ θ θ
θ θ1 1 2
12
221
ρ1 = γγ
2
0
= −
+ +θ
θ θ2
12
221
......
ρk =γγ
k
0
= 0, k>2
Un modelo MA(2) siempre es estacionario con independencia del valor de sus
parámetros y su memoria es de dos períodos.
θ1<0 , θ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1>0 ,θ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1<0 ,θ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1>0 , θ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.8. FAS del modelo MA(2)
86
Modelo MA(q):
Yt = δ + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
E(Yt) = δ
γ0 = Var (Yt) = Var (εt) + θ12Var (εt-1) + θ2
2Var (εt-2) = σε2(1 + θ1
2+θ22+...+θq
2)
Autocovarianzas:
γ1 = E(Yt-1 - δ)(Yt - δ) = σε2(-θ1 + θ1θ2 + θ2θ3 +...+ θq-1θq)
γ2 = E(Yt-2 - δ)(Yt - δ) = (-θ2 + θ1θ3 + θ2θ4 +...+ θq-2θq )σε2
....
γq = -θqσε2
....
γk = 0, ∀ >k q
Los coeficientes de autocorrelación pueden ser obtenidos a partir de las
autocovarianzas.
Todos los procesos MA de orden finito son estacionarios.
Concepto de invertibilidad de los procesos MA
Cualquier proceso MA(q) puede expresarse como un AR(∞). Un modelo MA(1):
Yt = δ + εt - θ1εt-1
Yt-1 = δ + εt-1 - θ1εt-2
Yt-2 = δ + εt-2 - θ1εt-3
εt = Yt - δ +θ1εt-1 = Yt - δ +θ1(Yt-1 - δ + θ1εt-2) = Yt - δ + θ1Yt-1 -θ1 δ + θ12εt-2 = Yt - δ + θ1Yt-1 -θ1 δ
+ θ12 (Yt-2 - δ+θ1εt-3) = Yt - δ + θ1Yt-1 -θ1 δ + θ1
2Yt-2 - θ12δ + θ1
3εt-3 ⇒ Yt = δ(1 + θ1 + θ12) - θ1Yt-1
- θ12Yt-2 - θ1
3εt-3 + εt
87
Si continuamos eliminando εt-3 y siguientes, el procedimiento continuará hasta el
infinito. Lleva a expresar Yt como función de sus valores retardados más una constante y un
término de error. Esto tiene sentido si 11 <θ , ya que, de otro modo, el efecto del pasado sería
más importante para explicar el comportamiento actual. Lo más lógico es pensar que el efecto
del pasado va siendo cada vez menor y el proceso es invertible. Si 11 =θ , es un caso límite de
invertibilidad, en el que el efecto se mantiene constante con el retardo. 11 <θ , equivale a que
las raíces de 1-θ1L = 0 ⇒ L >1.
Para un modelo MA(2), la condición de invertibilidad es 1 - θ1L - θ2L2 = 0 ⇒ L >1
Para un modelo MA(q), dicha condición es 1 - θ1L - θ2L2-...- θqL
q = 0 ⇒ L >1
Debido a que el proceso MA(q) se puede expresar como un AR(∞), consta de infinitos
coeficientes de autocorrelación parcial distintos de cero, aunque a partir del valor q decaerán
rápidamente. Así, la FAP de un proceso MA se comporta de manera análoga a como lo hace la
FAS en un AR (véase figura 2.2.9.).
θ1>0 , θ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1<0 ,θ2>0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1>0 ,θ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
θ1<0 ,θ2<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.9. FAP de procesos MA(2)
88
2.2.2.3. PROCESOS ARMA
Un modelo mixto con componente autorregresiva y con componente de medias móviles
se denomina ARMA (p,q), donde p es el orden de la parte autorregresiva y q el de la parte de
medias móviles:
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
La condición de estacionariedad es que las raíces de la ecuación característica φ(L) = 0
estén fuera del círculo unidad.
La condición de invertibilidad es que las raíces de la ecuación θ(L) = 0 estén fuera del
círculo unidad.
Vamos a analizar las características de un modelo ARMA (1,1):
Yt = δ + φ1Yt-1 + εt - θ1εt-1
Media: µ = ∞<φ−
δ
11, |φ1|≠1
Varianza: γ0 = E(Yt2), ya que δ = 0 no afecta a la varianza.
γ0 = E(δ + φ1Yt-1 + εt- θ1εt-1)2 = φ1
2 γ0 + σ2
ε + θ12σ2
ε - 2φ1σ2ε ⇒
⇒ γ0 = 21
1121
2
1
)21(
φ−θφ−θ+σε , con 11 <φ
Autocovarianzas:
γ1 = E(Yt-1Yt) = φ1 γ0 - θ1σ2ε
γ2 = E(Yt-2Yt) = φ1 γ1
....
γk = E(Yt-kYt) = φ1 γk-1 , 2k ≥∀
Lógicamente, en un proceso ARMA (p,q) tanto la FAS como la FAP tienen infinitos
elementos distintos de cero ( figura 2.2.10.).
89
φ1>0 ,θ1<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
φ1>0 ,θ1<0
-1
-0,5
0
0,5
1
Retardo
Coe
ficie
ntes
Figura 2.2.10. FAS y FAP para un proceso ARMA(1,1).
2.2.2.4. MODELOS ARIMA
Hasta este momento se han tratado procesos estacionarios. Sin embargo, las series de
datos económicos suelen caracterizarse por ser no estacionarias: nótese la simple observación de
una tendencia creciente en el tiempo o de unas fluctuaciones que crecen en tamaño con el paso
del tiempo, como, por ejemplo, puede ocurrir con el precio de algunos activos financieros.
Es cierto que muchas series económicas se convierten en aproximadamente
estacionarias después de aplicar diferencias en una ó más etapas. Lo que se hace en tales
situaciones es trabajar con la serie en diferencias especificando y estimando un modelo para
ellas. Una predicción con estas series hay que traducirla a una predicción para la serie origen, en
cuyo análisis está interesado el investigador.
- Diferencias de orden uno o de primer orden o primeras diferencias:
1ttt YYY −−=∆
- Diferencias de orden dos o segundas diferencias: se aplican primeras diferencias a la serie ya
diferenciada una vez.
2t1tt1tt1ttt2
t YY2YYY)YY(Y)Y( −−−− +−=−=−== ∆∆∆∆∆∆∆
Se pueden calcular diferencias de cualquier orden.
90
Un ejemplo de proceso estocástico o aleatorio no estacionario es el denominado paseo o
camino aleatorio:
Yt = Yt-1 +ε t ó bien Yt = δ + Yt-1 +ε t , donde ε t es ruido blanco.
Yt = Yt-1 +ε t = Yt-2 +ε t−1+ ε t = Yt-3 +ε t−2 + ε t−1+ε t = ....= ∑∞
=−ε
0kkt
Es un proceso no estacionario en varianza pues Var (Yt) = Var (∑∞
=−ε
0kkt ) = ∞.
La transformación consistente en tomar primeras diferencias de la variable produce una
nueva serie claramente estacionaria: t1ttt YYY ε=−= −∆ , variable que sigue un proceso ruido
blanco, estacionario.
La serie Yt es no estacionaria homogénea de orden d, si la serie ωt = ∆dYt es
estacionaria. Entonces, Yt es un proceso autorregresivo integrado de media móvil de orden
(p,d,q) y se denomina ARIMA (p,d,q). Si se aplican diferencias de orden d a Yt se obtiene un
proceso estacionario ωt del tipo ARMA (p,q).
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
(1-φ1L - φ2L2 - ...- φpL
p) ωt = δ + (1 - θ1L - θ2L2 -...- θqL
q) εt
(1-φ1L - φ2L2 - ...- φpL
p) ∆dYt = δ + (1 - θ1L - θ2L2 -...- θqL
q) εt
2.3. FASES PARA LA ELABORACIÓN DE MODELOS ARIMA
2.3.1. FASE DE IDENTIFICACIÓN
Se trata de buscar un proceso ARMA que de forma verosímil haya podido generar la
serie temporal, es decir, que se adapte mejor a las características de la misma. Pero esos
procesos son estacionarios, por lo que habrá que efectuar un análisis de la estacionariedad de
los datos. Con tal fin se utilizan los siguientes instrumentos:
- Representación gráfica. Si el gráfico de la serie temporal presenta fluctuaciones cuya amplitud
cambia para distintos intervalos del período muestral, se pensará que el proceso que genera la
serie es no estacionario. Lo mismo sucede cuando la tendencia es creciente o decreciente con el
tiempo.
91
- El correlograma. El hecho de que la función de autocorrelación simple decrece muy
lentamente al aumentar el retardo, ha demostrado ser una señal de tendencia no estacionaria.
Puesto que en la práctica se dispone de una realización de un proceso estocástico, podemos
obtener los coeficientes de autocorrelación muestral y, a partir de ellos, el correlograma
muestral. Una vez representado el correlograma muestral, se conoce si la serie es o no
estacionaria.
- Mediante los contrastes de raíces unitarias. Son válidos para determinar si existe tendencia
determinística o estocástica5.
- A través del gráfico desviación típica-media. Si conforme crece la media, la desviación típica
aumenta, la varianza del proceso es creciente.
Si la serie temporal no es estacionaria se aplican las transformaciones adecuadas con
objeto de convertirla en estacionaria. Cuando la serie presente no estacionariedad en media, se
suele aplicar el proceso de diferenciación. Pero, a veces, la toma de diferencias no es suficiente
para obtener series estacionarias en media y en varianza. Una solución consiste en fijar
logaritmos de la serie, teniendo en cuenta que posteriormente hay que deshacer el cambio de
variable. En series económicas que están afectadas por una fuerte tendencia, suele ser necesario
efectuar alguna transformación del tipo Box-Cox, para obtener una serie estacionaria en
varianza. Esta transformación se define por:
Yt(λ) =
=λ≠λλ−λ
0LnY
0/)1Y(
t
t
Una vez estacionaria, se determinará el orden de la parte autorregresiva (p) y el de la
parte de medias móviles (q) del proceso ARMA, que se considere haya podido generar la serie
estacionaria. Para tal fin se utilizan el correlograma estimado y la función de autocorrelación
parcial estimada. Esta última puede obtenerse de dos formas alternativas, prácticamente
equivalentes: mediante el sistema de Yule-Walker, y mediante el método de regresión.
Se puede utilizar el sistema de Yule-Walker para estimar los coeficientes de
autocorrelación parcial a partir de los simples estimados:
5 Estos términos se desarrollarán con amplitud en el tercer capítulo.
92
111 ˆˆ ρ=φ = 0
1
ˆ
ˆ
γγ
,
ρρ
⋅
ρ
ρ=
φφ
−
2
11
1
1
22
21
ˆ
ˆ
1ˆ
ˆ1ˆ
ˆ ,
ρρρ
⋅
ρρρρρρ
=
φφφ −
3
2
11
12
11
21
33
32
31
ˆ
ˆ
ˆ
1ˆˆ
ˆ1ˆ
ˆˆ1
ˆ
ˆ
ˆ
.....
Se escogen los coeficientes ,...ˆ,ˆ,ˆ332211 φφφ para configurar la FAP estimada.
La otra opción para el cálculo de la FAP, consiste en obtener los coeficientes mediante
las siguientes regresiones sucesivas:
tktkk2t2k1t1kt
t2t221t21t
t1t11t
Yˆ...YˆYˆY
...
YˆYˆY
YˆY
ε+φ++φ+φ=
ε+φ+φ=
ε+φ=
−−−
−−
−
Así, kkφ es la correlación estimada existente entre Yt e Yt-k, después de eliminar de
ambas el efecto de Yt-1, Yt-2, ..., Yt-k+1.
En los modelos AR(p), la FAP presenta los p primeros coeficientes distintos de cero y el
resto nulos. La FAS presenta un decrecimiento rápido de tipo exponencial, sinusoidal o ambos.
En los modelos MA(q), sucede el patrón opuesto: la FAS se anula para retardos superiores a q y
la FAP decrece exponencial o sinusoidalmente. Sin embargo, la especificación de los modelos
ARMA no se ajusta a unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la
FAP es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la componente AR(1) hay
que superponer la MA(1) cuya FAP converge exponencialmente a cero. En la práctica, se puede
especificar una de las componentes y analizar sus residuos. Si el modelo considerado es un
ARMA (2,1) se especifica inicialmente la componente AR(2). Se analizarán estos residuos a
través del correlograma y si siguen un MA (1), el proceso completo será un ARMA (2,1)6. Para
que una serie sea fácilmente identificable hay que considerar un tamaño muestral elevado
(mayor a 50).
No puede olvidarse que cuando se trabaja con series reales, los correlogramas
resultantes se refieren a los estimados por la muestra. Si el proceso es estacionario, las
6 Puesto que en la práctica se observan las FAS y FAP estimadas, éstas no concordarán exactamente con sus valores teóricos. Lo único que se pretende es buscar la mayor similitud posible entre las funciones teóricas y muestrales
93
correlaciones muestrales estiman considerablemente las poblacionales y existe la posibilidad de
constrastar hipótesis respecto a la nulidad de cada coeficiente teórico de la FAS y FAP. De
hecho, si hay evidencia de que algún coeficiente es estadísticamente no significativo, puede
considerarse nulo.
El estimador �ρk es una variable aleatoria cuya varianza se estima de forma aproximada
(Barlett, 1946) por:
Var ( kρ ) ≅1
n)ˆ21(
1k
1i
2i∑
−
=
ρ+
Con un tamaño muestral suficientemente grande, kρ se aproxima a una distribución
normal. Se puede, por tanto, construir un intervalo de confianza al 95%, para contrastar la
hipótesis nula de que ρk = 0:
)ˆ(Var2 kρ±
Si los coeficientes muestrales caen dentro del intervalo, se concluye que los coeficientes
de autocorrelación no son significativamente distintos de cero. En la práctica, esta fórmula
permite identificar procesos de media móvil, para los cuales ρk se anula a partir de algún k>q.
Para la FAP, se ha demostrado (Quenouille, 1949) que, en un proceso AR(p):
Var n
1)ˆ( kk ≅φ , k>p
Entonces, el intervalo de confianza, al 95%, para contrastar 0ˆkk =φ es igual a:
)ˆ(Var2 kkφ± =n
12±
Es posible, pues, verificar si una muestra procede de un proceso autorregresivo de un
orden p* dado, comprobando si �φ kk cae dentro del intervalo (es significativamente igual a cero)
para todo k>p*. En la práctica, se utiliza empíricamente para calcular intervalos de confianza
94
para todos los coeficientes de autocorrelación parcial estimados, con independencia de cuál sea
el tipo de proceso, el cual se desconoce de antemano.
También hay que identificar la inclusión o no de término independiente. La media del
proceso está ligada al mismo, por tanto, si la media observada se considera significativamente
igual a cero, no se introducirá término independiente en el modelo.
Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general, en la
especificación tentativa de unos pocos modelos con estructuras sencillas. La etapa de estimación
y la posterior validación de los resultados confirmarán los indicios o, por el contrario, servirán
de fundamento para la reformulación de los modelos propuestos.
2.3.2. FASE DE ESTIMACIÓN
Una vez identificado el modelo de series temporales ARIMA(p,d,q), se procederá a
estimar sus parámetros.
Sea Yt ≈ ARIMA(p,d,q), donde ωt = (1-L)dYt ≈ ARMA(p,q):
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
El objetivo es la estimación de δ, φ1, φ2,..., φp, θ1,θ2...θq y, para ello, se dispone de una
muestra de tamaño n de Y. Al tomar diferencias de orden d se perderían d observaciones para la
nueva serie ωt, quedando n-d datos ω1,... ωn-d.
Las hipótesis que se adoptan en el proceso de estimación son las siguientes:
a) εt ≈ N(0,σ2ε)
b) El proceso es estacionario.
c) El proceso es invertible.
Estimación de procesos autorregresivos
Un proceso autorregresivo no cumple la hipótesis del modelo clásico de regresión
basada en regresores fijos. Son variables aleatorias puesto que son retardos de la variable Yt (ó
95
ωt, en su caso) que es aleatoria. Sin embargo, en presencia de errores que no presentan
autocorrelación, los estimadores mínimocuadráticos tienen buenas propiedades (consistencia).
Por el contrario, si el término de error estuviese correlacionado (no fuese ruido blanco), estos
estimadores serían inconsistentes. En este caso, el modelo estaría mal especificado, puesto que
una especificación correcta debe provocar un término de error con estructura de ruido blanco.
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p+εt
Aplicar el criterio de mínimos cuadrados, implica minimizar la suma de los cuadrados
de los residuos et = ωt- �ω t . El residuo se considera una estimación de la perturbación aleatoria
una vez estimado el modelo.
En forma matricial: ωn×1 = Wn×(p+1)⋅φ(p+1)×1 + εn×1 , donde n es el número final de datos
utilizados en la estimación.
ωn×1 =
ωω
ω
1
2
...
n
, Wn×(p+1) =
1
1
1
0 1 1
1 0 2
1 2
...
...
...
... ... ... ...
...
ω ω ωω ω ω
ω ω ω
− −
−
− − −
p
p
n n n p
φ(p+1)×1=
δφ
φ
1
...
p
, εn×1 =
εε
ε
1
2
...
n
� ( )φMCO = −W'W W'w1
Si no se incluye término independiente en el modelo, se suprime la columna de unos.
Estimación de procesos de medias móviles y mixtos
La estimación de modelos de medias móviles y modelos mixtos se lleva a cabo
mediante algoritmos de optimización numérica, debido a que los errores no son función lineal
de los parámetros.
Partimos de un modelo MA(1), sin término independiente:
ωt = εt - θ1εt-1
96
et = ωt- �ω t = ωt + �θ ε1 1t− .
εt = ωt + θ1εt-1
Para t =1: ε1 = ω1 + θ1ε0
Para t =2: ε2 = ω2 + θ1ε1 = ω2 + θ1(ω1 + θ1ε0) = ω2 + θ1ω1 + θ21ε0
Para t =3: ε3 = ω3 + θ1ε2 = ω3 + θ1(ω2 + θ1ω1 + θ21ε0) = ω3 + θ1ω2 + θ2
1ω1 + +θ31ε0
.....
El término de error no es función lineal del parámetro a diferencia de lo que sucede con
los modelos autorregresivos. El modelo se puede estimar a través de un proceso iterativo de
estimación no lineal, que utiliza los dos primeros términos de la aproximación de εt a través del
desarrollo en serie de Taylor7 (se consideran despreciables los términos de segundo orden y
superior).
εt ≅ + −
=
ε θ θ∂ε∂θ
θ θ
tt0
1 10
11 1
0
( )
ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ0
1. Por
tanto, hay que partir de un valor inicial para el parámetro.
∂ε∂θ
θ θ
t
11 1
0
=
es la derivada de los errores respecto a θ1, sustituyendo θ1 por su valor
inicial.
En este modelo ∂ε∂θ
εtt
11= − . Entonces:
7 Si y =f(x1,x2) es una función no lineal de dos variables X1 y X2, se puede igualar a una serie de Taylor, en torno a unos valores numéricos de las variables x10 y x20:
...
xxxx
2x
1x
f2)xx)(xx(
xxxx
2x
f22)xx(
2
1
xxxx
1x
f22)xx(
2
1
xxxx
2x
f)xx(
xxxx
1x
f)xx()x,x(fy
2010
2010
2010
2010
20
10
2
1
202101
2
1
202
2
1
101
2
1
202
2
1
1012010
+
==∂∂
∂−−+
==∂
∂−+
+
==∂
∂−+
==∂
∂−+
==∂
∂−+=
El resto de los términos son despreciables.
97
εt 1t00
110t
1
t011
0t )()(
011
−
θ=θ
εθ−θ+ε=
∂θ∂ε
θ−θ+ε≅ =
1t0
1t1t00
10t1t
011t
001
0t −−−− εθ−ε=εθ−ε⇒εθ+εθ−ε= ⇒
⇒ tt1t xw ε+θ=
donde wt = 1t00
10t −εθ−ε y xt = 1t
0−ε−
Es una ecuación de regresión lineal que se puede estimar mediante MCO. También es
posible establecer la ecuación en función de )( 011 θ−θ y obtendríamos el estimador de
)( 011 θ−θ : MCOβ = )ˆ( 0
11 θ−θ ⇒ 01MCO1
ˆˆ θ+=θ β . Entonces, 1θ constituye la primera iteración del
proceso. Este valor se utiliza para realizar una segunda iteración, como valor inicial, y así
sucesivamente.
La fórmula de actualización de las estimaciones sucesivas sería la siguiente:
)ˆ( 1h1hh −− β−β+β=β
Si h = 0, tenemos el valor inicial.
Si h = 1, tenemos la primera iteración.
Si h = 2, la segunda iteración.
......
El procedimiento finaliza cuando se cumple algún criterio de convergencia
satisfactorio, como el que establece que la diferencia entre dos estimaciones sucesivas en valor
absoluto sea menor que una cantidad pequeña fijada de antemano (0,001, por ejemplo):
001,01hh <β−β −
Otro criterio de convergencia alternativo consistiría en detener el proceso si la
variación producida en la suma de los cuadrados de los residuos es pequeña (por ejemplo,
inferior al 1%).
Un criterio más exigente sería el de aceptar la convergencia del proceso cuando se
cumplan a la vez los dos criterios citados.
98
Este procedimiento, aplicado a un modelo MA(2), generaría la siguiente aproximación:
εt
021
011
021
011 2
t021
1
t011
0t )()(
θ=θθ=θ
θ=θθ=θ
∂θ∂ε
θ−θ+
∂θ∂ε
θ−θ+ε≅ ⇒
ε 0t es el valor que toma el residuo después de sustituir θ1 por el valor inicial θ01 y θ2 por
θ02.
1t1
t−ε=
∂θ∂ε
y 2t2
t−ε=
∂θ∂ε
Se tiene:
εt
021
011
021
011 2
t022
1
t011
0t )()(
θ=θθ=θ
θ=θθ=θ
∂θ∂ε
θ−θ+
∂θ∂ε
θ−θ+ε≅ =
2t0
21t0
1t2t00
21t00
10t
2t0
22t00
21t0
11t00
10t
−−−−
−−−−
εθ−εθ−ε=εθ−εθ−ε⇒
⇒εθ+εθ−εθ+εθ−ε=
⇒ tt22t11t xxw ε+θ+θ=
donde wt = 2t00
21t00
10t −− εθ−εθ−ε , x1t = − −ε0
1t y x2t = 2t0
−ε−
Este método se puede extender a cualquier proceso MA(q) y ARMA(p,q):
ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
Supongamos que δ = 0
εt = ωt - φ1ωt-1 - φ2ωt-2 -...- φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q
εt0i
t0ii
qp
1i
0t )(
β=β
+
=
∂β∂ε
β−β+ε≅ ∑
Ahora habrá que estimar el vector de p+q parámetros β =
β
ββ
+qp
2
1
..., p de la parte AR y q
de la parte MA, siendo el procedimiento igual al visto anteriormente.
99
Con objeto de obtener un proceso de convergencia rápido, se introducen ciertos
refinamientos en el proceso. En este sentido, el algoritmo de Marquardt (1963) es muy utilizado
en los paquetes de ordenador.
También un proceso AR puede estimarse desde el punto de vista de este procedimiento
iterativo, siguiendo los mismos pasos.
Para efectuar contrastes estadísticos, en la iteración final se calcula la estimación de la
matriz de varianzas y covarianzas de los estimadores mediante la expresión:
V = 112 )(qpn
)(ˆ −−
−−=σ XX'
ee'XX'
El procedimiento iterativo no siempre es convergente. Si se produce divergencia el
modelo se puede volver a estimar una o más veces, utilizando diferentes pronósticos iniciales,
con la esperanza de obtener convergencia. Puede también producirse por una mala
especificación del modelo, es decir porque no sea el que mejor representa la estructura del
proceso estocástico que generó la serie temporal objeto de análisis. En este caso, habría que
elegir una nueva especificación.
Obtención de valores iniciales para los parámetros del modelo
Los valores numéricos de la FAS y FAP estimadas pueden utilizarse para obtener
estimaciones iniciales de los coeficientes. La convergencia del proceso de estimación puede que
sea más ràpida si el pronóstico inicial es bueno.
Si el modelo identificado es un AR(p), las ecuaciones de Yule-Walker proporcionan los
valores de los parámetros del modelo a partir de los coeficientes de autocorrelación estimados.
Si, por el contrario, se ha elegido un modelo MA(1), entonces recordando que
21
11
1ˆ
θ+θ−
=ρ , podemos deducir un valor para el parámetro, teniendo en cuenta que el modelo
debe cumplir la condición de invertibilidad.
Para procesos de orden superior, el método es más complejo aunque similar.
100
Enfoque condicionado y no condicionado en la fase de estimación
Si en el modelo ωt = δ + φ1ωt-1 + φ2ωt-2 + ...+ φpωt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q se dan
valores desde t =1...n, se nota que para determinar el valor de los εt = ωt- δ - φ1ωt-1 - φ2ωt-2 - ...-
φpωt-p + θ1εt-1 + θ2εt-2 +...+ θqεt-q, se necesitan los valores anteriores y no observables de εt y ωt:
ω0, ω-1, ..., ε0,..... Estos valores constituyen las condiciones iniciales y los estimadores
mínimocuadráticos que obtengamos, dependerán de los valores elegidos para ellos.
El método de estimación puede seguir un enfoque condicional o un enfoque no
condicional. El enfoque condicional asigna unos valores apropiados a las condiciones iniciales
basados en las hipótesis estadísticas del modelo: los errores se igualan a su media teórica, es
decir, cero, y los primeros datos de la serie son utilizados para estimar los valores iniciales ω0,
ω-1, ...8 (a veces, se consideran igual a cero, es decir a su media teórica, en caso de no incluir
término constante en el modelo, pero esta solución no es demasiado realista).
El enfoque no condicional se caracteriza porque los valores iniciales no se consideran
como datos, sino que se determinan dentro del proceso de estimación, conjuntamente con los
parámetros del modelo. Este procedimiento es más eficiente que el condicional.
2.3.3.FASE DE VALIDACIÓN
En esta etapa se comprobará la capacidad de ajuste del modelo propuesto y estimado a
los datos. Si éste no supera satisfactoriamente este paso, es necesario reformularlo. Cabe decir
que los resultados de la comprobación de la validez del modelo, suelen dar insinuaciones para
proceder a la especificación de uno diferente.
Para la aceptación del modelo, éste debe cumplir algunos requisitos:
• Análisis de los residuos:
8 La muestra se divide en dos partes, la primera de las cuales sirve para determinar los valores previos o iniciales y la otra para el proceso de estimación.
101
Se parte de la hipótesis de que el término de error de un modelo ARIMA es ruido
blanco. Estos errores son inobservables, pero no ocurre lo mismo con los residuos. Cualquier
test sobre la perturbación aleatoria debe basarse en los residuos del modelo, los cuales deben
seguir, pues, el comportamiento de un proceso puramente aleatorio normal. En caso contrario,
contendrían información relevante para la predicción.
Con el objeto de estudiar si los residuos se aproximan al comportamiento de un proceso
ruido blanco, se disponen de las siguientes herramientas:
Contraste independencia de Box-Pierce
Está destinado a contrastar la independencia o no autocorrelación de los residuos. La
autocorrelación se mide por los coeficientes de autocorrelación de los residuos rk. Es un
contraste global (contraste de “portmanteau”) acerca de la no autocorrelación de los residuos de
las observaciones separadas un número determinado de periodos.
Ho : r1 = r2 =...= rk = 0
Se utiliza el siguiente estadístico propuesto por Box y Pierce (1970): Q (k) = n∑=
k
1t
2tr
�rt es el coeficiente de autocorrelación estimado de orden t de los residuos, t = 1...k.
La elección de k es arbitraria. Cuanto mayor sea k el test se extenderá a desfases
mayores, pero la precisión en la estimación de los rk es menor y disminuye la potencia del
contraste, es decir, la probabilidad de rechazar la hipótesis nula cuando es falsa.
Bajo la hipótesis nula, la distribución asintótica del estadístico es: Q(k) ∼χk
Se rechazará la hipótesis nula si el valor de Q experimental es superior que el teórico o
tabulado de la distribución a un nivel de significación dado.
Box y Pierce han demostrado que utilizando k elevado, el estadístico Q es apropiado si
se supone que sigue una distribución Q(k) ∼χk-(p+q).
102
La versión mas actual de ese estadístico es la de Ljung-Box (1978), para disminuir el
sesgo en pequeñas muestras.
Bajo la hipótesis nula: Q*(k) = n (n+2) ∑= −
k
1t
2t
tn
r ∼χk-(p+q)
Sabiendo que kr = ∑
∑
=
−
=−
1t
2t
kn
1tktt
e
ee
es el coeficiente de autocorrelación de orden k y et son
los residuos.
A veces, en lugar de fijar a priori un nivel de significación para el contraste, el contraste
se puede contemplar a través del nivel de significación crítico. Éste es un indicador del nivel de
admisibilidad de la hipótesis nula. Cuanto mayor sea el nivel de significación crítico mayor
confianza podemos tener para aceptar la hipótesis nula y viceversa: si toma el valor cero,
podemos rechazar la hipótesis nula al 100% de confianza.
Representación de la función de autocorrelación simple y parcial de los residuos
La serie de residuos es aleatoria si los coeficientes de autocorrelación simple y parcial
son significativamente cero.
Anderson (1942) ha demostrado que los coeficientes de autocorrelación muestrales
procedentes de un proceso ruido blanco, siguen asintóticamente, la siguiente distribución:
�rk )n/1,0(N≈
En consecuencia, bajo la hipótesis de que rk = 0 , se construye un intervalo de confianza
al 95% de la siguiente forma: n
2± . Si algún �rk cae fuera de los límites, se rechaza la hipótesis
de no autocorrelación. En este caso hay evidencia de no aleatoriedad de la serie.
Además, los errores deberán alternar el signo de su coeficiente de autocorrelación sin
ningún criterio obvio.
103
También, los coeficientes de la FAP deben ser significativamente cero. En la práctica se
construyen bandas de confianza utilizando la distribución de una variable ruido blanco cuya
varianza es 1/n según se ha visto anteriormente.
Hay que tener en cuenta que esta aproximación realizada sobre la varianza no es muy
adecuada tanto para la FAS como para la FAP especialmente en los retardos bajos. Se podría
concluir que un coeficiente es estadísticamente no significativo cuando en realidad lo es.
La FAS y la FAP de los residuos del modelo estimado son instrumentos valiosos a la
hora de reformular el modelo, en caso de que no se comporten como un proceso ruido blanco.
Supongamos que se ha estimado un AR(1): Yt = 1φ Yt-1 ⇒ et = Yt- 1φ Yt-1. Después de examinar
la FAS y la FAP de la serie et, se llega a la conclusión de que sigue un modelo MA (1), no un
proceso ruido blanco : et = εt - θ1εt-1. Sustituyendo en el modelo AR (1) : Yt = φ1Yt-1+ εt - θ1εt-1,
se puede concluir que Yt es un ARMA (1,1).
Representación gráfica de los residuos
La representación de los residuos en el tiempo permite observar si la varianza es
constante y si la media está próxima a cero. Además, se puede verificar si se ajustan a una
distribución normal y la existencia de residuos atípicos. Un residuo se considera atípico si el
valor absoluto excede en tres o cuatro veces su desviación típica (siendo su media cero).
Para contrastar la existencia de heteroscedasticidad se puede realizar el contraste de
White (1980). Su hipótesis nula es que el término de perturbación es homocedástico e
independiente de los regresores y que la especificación lineal es correcta. El procedimiento es el
siguiente:
a) Estimación del modelo original ignorando la posible heteroscedasticidad.
b) Estimación de una regresión del cuadrado de los residuos anteriores sobre una constante, los
regresores del modelo original, sus cuadrados y productos cruzados de segundo orden.
c) El output es un estadístico nR2, donde n es el tamaño muestral y R2 es el coeficiente de
determinación de la última regresión, que sigue una distribución asintótica chi-cuadrado con
grados de libertad igual al número de regresores en el contraste de regresión anterior.
d) Bajo la hipótesis nula de homoscedasticidad, asintóticamente el coeficiente de
determinación tenderá a cero, excepto cuando la varianza del término de error del modelo
104
depende de sus variables explicativas. En tal caso nR2 permanecerá lejos de cero y es de
esperar que sea mayor que el valor de las tablas de la distribución chi-cuadrado.
Para contrastar la normalidad se utiliza el contraste de Jarque-Bera (1987). Se trata de
una prueba de grandes muestras, que primero calcula la asimetría (A) y la curtosis o
apuntamiento (K) de los residuos de la estimación del modelo y después utiliza el siguiente
estadístico de contraste:
−+=24
)3K(
6
AnJB
22
Bajo la hipótesis nula de que los residuos están normalmente distribuidos,
asintóticamente JB sigue una distribución 22χ . Si el valor del estadístico supera el valor
tabulado de la distribución chi- cuadrado, se rechazará la hipótesis nula a un determinado nivel
de confianza. O si el nivel de significación crítico (p-valor) es suficientemente pequeño, se
puede rechazar la hipótesis de que los residuos siguen una distribución normal.
• Análisis de los coeficientes estimados
Primero hay que verificar si los coeficientes son significativos. El estadístico de
contraste está construido bajo la hipótesis nula de que el coeficiente es cero y sigue una
distribución t-student con n-m grados de libertad, con m igual al número de parámetros
incluidos. Si concluimos que alguno no es significativo se puede suprimir.
Ho: φi = 0 , t*= mni
ii t)(S
)(E−≈
φφ−φ
Ho: θi = 0, t*= mni
ii t)(S
)(E−≈
θθ−θ
Ho: δ = 0, t*= mnt)(S
)(E−≈
δδ−δ
La aplicación del test anterior requiere un contraste de dos colas, pues la hipótesis
alternativa considera que puede tomar el coeficiente cualquier valor distinto de cero. Si *t es
mayor que el teórico tabulado, se rechaza la hipótesis nula y el parámetro es significativo.
105
Otro aspecto importante es el examen del cumplimiento de las condiciones de
estacionariedad e invertibilidad:
Si alguna de las raíces de:
0Lˆ...LˆLˆ1 pp
221 =φ−φ−φ−
0Lˆ...LˆLˆ1 pp
221 =θ−θ−θ−
fuesen inferior a la unidad, el modelo se rechazaría.
Si alguna de las raíces de 0Lˆ...LˆLˆ1 pp
221 =φ−φ−φ− , estuviese próxima a uno, es
posible que la serie original esté subdiferenciada, por lo que puede que precise alguna
diferenciación adicional.
Si alguna de las raíces de 0Lˆ...LˆLˆ1 pp
221 =θ−θ−θ− está próxima a uno, es posible
que el modelo esté sobrediferenciado.
Si existen raíces comunes, se podría utilizar para las predicciones un modelo con dos
parámetros menos, es decir, el modelo sería un ARMA (p-1, q-1).
Es conveniente también examinar la matriz de correlación entre los coeficientes
estimados. Cuando la correlación entre dos coeficientes es próxima a uno, los coeficientes
estimados son muy inestables, con lo que podrían cambiar bastante de una muestra a otra. El
modelo estimado para el período muestral puede diferir del que se obtendría para los períodos
de predicción. Puede existir este problema siempre que alguna de las correlaciones entre
estimadores tome un valor superior a 0,6. Para evitar este problema puede ser eficaz eliminar
algún parámetro aún a costa de que el grado de ajuste sea más pequeño. No obstante, si todos
los coeficientes son significativos no sería aconsejable eliminar coeficientes del modelo.
• Análisis de la bondad del ajuste:
Se suele utilizar el coeficiente de determinación R2 o el corregido R2 :
106
STC
SCR1R2 −=
Es una medida de la proporción de la variación total de la variable que es explicada por
el modelo.
1n/STC
mn/SCR1R2
−−−=
donde SCR = n
et
2t∑
es la suma de los cuadrados de los residuos y
n
)(
STC
2
Tt∑ ω−ω
= la suma total de los cuadrados.
El coeficiente de determinación corregido penaliza la introducción de parámetros
adicionales en el modelo. Si se introducen parámetros adicionales aunque no sean apropiados
pueden incrementar R2. Para evitar este problema se suele utilizar el coeficiente corregido.
El modelo se ajusta en mayor medida a los datos cuanto más próximos a la unidad estén
los coeficientes de determinación. Pero sólo son comparables en modelos en los que se hayan
tomado idéntico número de diferencias, debido a que para que este sea un elemento de
comparación directa la varianza de la variable debe ser la misma. Si se calcula el coeficiente de
determinación con la varianza de la variable diferenciada una vez, el resultado no será
comparable con el calculado a partir del ajuste a un modelo sobre la variable original.
Para paliar el anterior inconveniente, se han propuesto medidas alternativas destacando
el estadístico AIC (Akaike Information Criterion), formulado por Akaike (1974). Consiste en
seleccionar aquél modelo para el que se obtenga un AIC más bajo. Otra medida es SC (Schwarz
Criterion) y cuanto menor sea ésta, mejor es el ajuste.
• Análisis de la estabilidad
La construcción de un modelo ARIMA está justificada por su utilización para la
predicción. Conviene saber si el modelo estimado para el período muestral sigue siendo válido
107
para períodos futuros. Para esta finalidad se puede aplicar el test de estabilidad estructural de
Chow:
m2n,mn
1t
2t2
n
1t
2t1
n
1t
2t2
n
1t
2t1
n
1t
2t
F
m2n/ee
m/eee
F21
21
−
==
===≈
−
+
+−
=
∑∑
∑∑∑
m es el número de parámetros a estimar.
N = n1+n2
et es el residuo del modelo utilizando todo el período muestral.
e1t es el residuo utilizando los n1 primeros datos.
e2t es el residuo utilizando los n2 últimos datos.
Se pretende contrastar si el último tramo muestral ha estado generado por la misma
estructura que el resto de las observaciones. Algunos autores aconsejan tomar como segundo
tramo muestral un tercio o un cuarto de la muestra.
Si la F calculada o experimental es mayor que la tabulada o teórica a un determinado
nivel de significación, se rechaza la hipótesis de estabilidad estructural.
2.3.4. FASE DE PREDICCIÓN.
Una vez que el modelo ha sido estimado y sometido a la fase de diagnosis, se convierte
en un instrumento útil para la predicción. Sea el modelo estimado ARMA(p,q), para la serie ωt,
siendo la serie original Yt ≈ ARIMA(p,d,q). Se trata de predecir los valores para la serie no
estacionaria Yt, una vez se haya realizado para la serie ωt estacionaria.
Por ejemplo, si ωt =Yt-Yt-1 , donde ωt es estacionaria. La predicción para esa serie en el
período n+1 es 1nˆ +ω . La correspondiente predicción para �Yn+1 es 1nˆ +ω +Yn.
Si se aplica una diferencia de segundo orden ωt = Yt –2Yt-1 +Yt-2, entonces 1nY + =
= 1nˆ +ω + 2Yn –Yn-1
108
Si se ha fijado en algún momento la transformación logarítmica, se tomarán
antilogaritmos para deshacer el cambio: ωt = LnYt ⇒ Yt = eωt
Un criterio que se suele establecer para realizar predicciones es elegir aquellas con
mínimo error cuadrático medio. El error cuadrático medio es igual a la esperanza matemática
del cuadrado de los errores de predicción. La mejor predicción puntual desde este punto de vista
es aquélla que se obtiene mediante la esperanza matemática condicional a toda la información
disponible hasta el período de predicción. La expresión de este predictor es la siguiente:
1nY + = E(Yn+1/Yn, Yn-1...)
Yn+1 = δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p + εn+1 - θ1εn - θ2εn-1 -...- θqεn+1-q
Tomando esperanzas condicionadas, se obtiene:
�Yn+1= δ + φ1Yn + φ2Yn-1 + ...+ φpYn+1-p - θ1εn - θ2εn-1 -...- θqεn+1-q
donde todas las variables con subíndices inferiores a n+1, dejan de ser aleatorias, por lo que sus
esperanzas matemáticas coinciden con sus realizaciones y E(εn+1) = 0, por hipótesis.
Después de obtener 1nY + , se calcula 2nY + , y así sucesivamente.
Los εt son inobservables, por lo que hay que sustituirlos por sus estimaciones, que se
obtienen a través de los sucesivos residuos del modelo. Si algún residuo no es posible obtenerlo,
se considera igual a su media teórica: cero. Esta solución es aceptable si el proceso es invertible,
dado que, en ese caso, la importancia de los valores iniciales tiende a desaparecer a medida que
aumenta el tamaño muestral.
Cuando dispongamos de los valores observados, se utilizan para efectuar la predicción,
si no se conocen se utilizan sus estimaciones en períodos anteriores.
A medida que el horizonte de la predicción crece, la predicción por puntos de un
modelo ARMA tiende a la media.
109
Error de predicción
La predicción de una variable aleatoria como es Yt, conlleva incertidumbre pues
depende de la muestra considerada. Entonces aparece un error de predicción. Si se conociesen
los valores exactos de los coeficientes, cosa imposible en la mayoría de los casos, sería posible
obtener una expresión del error de predicción como sigue:
Yt+s - stY + = et+s
Escribamos el proceso ARMA, como un proceso de medias móviles de infinitos
términos, mediante sustituciones sucesivas:
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt - θ1εt-1 - θ2εt-2 -...- θqεt-q
Yt = K+ εt +ψ1εt-1 +ψ2εt-2 +...
Yt+s = K + εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+s-s+1 + ∑∞
=−+ εψ
0jjtjs
La predicción stY + se puede basar únicamente en la información disponible hasta el
período t. Escribimos la predicción como una suma ponderada de los términos de error que
podemos estimar:
stY + = K+ ∑∞
=−+ εψ
0jjtjs* , donde las ponderaciones ψ* se elegirán de manera que minimicen el
Error Cuadrático Medio de predición.
et+s = εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+1 + ∑∞
=−++ εψ−ψ
0jjtjsjs )*(
El error cuadrático medio de predicción es E(et+s)2 = (1 + ψ2
1+ψ22 +...+ψ2
s-1) σ2ε
+∑∞
=ε++ σψ−ψ
0j
22jsjs )*( , puesto que E(εiεj) = 0, para i≠j.
El error cuadrático medio se minimiza cuando el último término es igual a cero, es decir si
jsjs * ++ ψ=ψ . Entonces el error de predicción se puede escribir:
et+s = εt+s + ψ1εt+s-1 +ψ2 εt+s-2 +...+ψs-1 εt+1
110
y teniendo en cuenta que E(en+s) = 0:
Var (en+s) = E(en+s)2 = (1 + ψ2
1+ψ22 +...+ψ2
s-1) σ2ε
El uso más importante de los errores de predicción es la construcción de intervalos de
confianza para la predicción. El intervalo de predicción para el pronóstico de Yt+s es, al 95%:
21s
22
21st ...196,1Y −ε+ ψ++ψ+ψ+σ±
El cálculo de los coeficientes ψ se obtienen a partir de la siguiente relación:
φ(L)Yt = θ(L)εt ⇔Yt = φ-1(L)θ(L)εt = ψ(L) εt, con ψ(L) = 1 + ψ1L+ψ2 L2 +...⇒
⇒ φ-1 (L)θ(L)εt = ψ(L) ⇒ φ(L)ψ(L) = θ(L)
Valoración de la capacidad predictiva de los modelos
Podemos verificar si el modelo sigue siendo válido para los períodos de predicción, una
vez se ha comprobado su validez para el periodo muestral, utilizando el siguiente estadístico:
E* = 2
m
0s
st/1st2
ˆ
e
ε
=+++
σ
∑
Donde st/1st2e +++ es el error de predicción de Yt+s+1 utilizando la información disponible
en el momento t+s y σ2ε =
kn
SCR
−, con k el número de parámetros del modelo.
Este estadístico se distribuye asintóticamente como una chi-cuadrado con m grados de
libertad, bajo la hipótesis nula de estabilidad estructural al pasar a los períodos de predicción.
Si el valor calculado supera al tabulado, habrá diferencias significativas entre los
verdaderos valores y los estimados, por lo que se rechazará la hipótesis nula de estabilidad.
111
2.4. MODELOS ESTACIONALES
Las series temporales de datos económicos presentan generalmente características
estacionales cuando se disponen de datos con frecuencia inferior al año, trimestral o
mensualmente. Un ejemplo de serie temporal con una marcada componente estacional podría
ser la venta de helados en verano. Cuando la serie es estacional, suelen aparecer relaciones entre
los valores que se corresponden con periodos análogos dentro de cada año (mes a mes o
trimestre a trimestre).
Modelos autorregresivos estacionales
Trabajando con datos mensuales, por ejemplo, Yt puede expresarse en función de Yt-12,
el valor correspondiente al mismo mes del año anterior, de forma que:
Yt = Φ1Yt-12 + εt
Este es un proceso autorregresivo estacional de primer orden, para el que se utiliza la
notación AR(1)12.
En general, el proceso autorregresivo estacional de orden P, AR(P)s, donde s = 12 para
datos mensuales, s = 4 para datos trimestrales, etc., viene definido:
Yt = Φ1Yt-s+ Φ2Yt-2s + ...+ ΦPYt-Ps + εt
Yt (1 - Φ1Ls - Φ2L
2s -...- ΦPLPs) = εt
Para este proceso las funciones de autocorrelación simple y parcial, se comportan como
en el caso del modelo AR(p) pero a intervalos de s retardos, siendo cero en los retardos
intermedios.
Modelos de medias móviles estacionales
El valor actual Yt se puede expresar en función de una perturbación actual y de otra
correspondiente a s períodos anteriores (s =12 para datos mensuales):
112
Yt = εt - Θεt-s
Yt sigue un proceso de medias móviles estacional de primer orden MA(1)s.
FAP de un modelo AR(1)s=4
-1
-0,5
0
0,5
1
1 2 3 4 5 6 7 8
Retardo
Coe
ficie
ntes
FAS de un modelo AR(1)s=4
-1
-0,5
0
0,5
1
1 3 5 7 9 11
Retardo
Coe
ficie
ntes
Figura 2.4.1. FAS y FAP de un modelo AR(1)4
En general, un proceso de medias móviles estacional de orden Q, MA (Q)s, es el
siguiente:
Yt = εt - Θ1εt-s - Θ2εt-2s - ...- ΘQεt-Qs
Yt = (1 - Θ1Ls- Θ2L
2s -...- ΘQLQs) εt
La función de autocorrelación simple de un proceso de medias móviles estacional tiene
el mismo comportamiento que la de un proceso de medias móviles no estacional. Así en un
MA(1)4 presenta un solo valor distinto de cero, que corresponde con el desfase k = 4.
Modelos mixtos estacionales
Generalizando, podemos definir el proceso mixto ARMA (P,Q)s mediante:
Yt = Φ1Yt-s + Φ2Yt-2s +...+ ΦPYt-Ps+ εt - Θ1εt-s - Θ2εt-2s - ... - ΘQεt -Qs
113
Proceso mixto estacional ARIMA (P,D,Q)s :
Además de la presencia de tendencia o de varianza, la estacionalidad constituye una
fuente de no estacionariedad de la serie. El procedimiento que se suele utilizar para
desestacionalizar las series es el de la diferenciación estacional.
Si los datos son mensuales, la diferenciación estacional consiste en calcular una nueva
variable:
Zt = Yt – Yt-12 = (1-L12) Yt = ∆12 Yt
Con datos trimestrales se calcularía:
Zt = Yt – Yt-4 = (1-L4) Yt = ∆4Yt
Si después de efectuar esta transformación, la serie sigue presentando evidencia de
variaciones estacionales, es posible aplicar de nuevo el procedimiento, es decir, calcular las
diferencias de segundo orden, y así sucesivamente.
Una vez que a la serie original Yt se le aplica D veces el procedimiento de la
diferenciación estacional y se obtiene una serie Zt que es estacionaria, entonces se puede aplicar
a Zt cualquiera de los modelos estudiados para las series estacionarias.
(1-Ls)DYt = Zt, con (1-Ls)D = ∆sD
Yt sigue un proceso estacional ARIMA(P,D,Q)s si:
Zt (1 - Φ1Ls - Φ2L
2s-...- ΦPLPs) = (1- Θ1L
s - Θ2L2s - ...- ΘQLQs) εt
Con Zt = (1-Ls)DYt
Modelo multiplicativo general:
En la realidad, los factores estacionales se sobreponen a los factores regulares, por lo
que podemos encontrar series que vengan generadas por ambos tipos de procesos. Se puede
formular un modelo mixto o multiplicativo, ARMA(p,q)× (P,Q)s:
114
φ(L) Φs(L)Yt= θ(L) Θs(L)εt
Por ejemplo, un modelo estacional multiplicativo ARMA(1,0)×(1,0)12, se escribiría:
(1-φ1L)(1-Θ1L12)Yt = εt ⇔ Yt = φ1Yt-1 + Θ1Yt-12 - φ1Θ1Yt-13 + εt.
El primer término de la derecha representa la componente autorregresiva regular de
primer orden, el segundo término indica lo mismo para la componente autorregresiva estacional,
y el tercer término permite la interacción entre ambas estructuras.
Finalmente, si la tendencia está presente tanto en la componente regular como en la
estacional, habrá que efectuar una doble diferenciación, una en cada parte. Así, todos los
modelos estacionales pueden unirse en uno general denominado ARIMA estacional
multiplicativo: ARIMA (p,d,q)×(P,D,Q)s.
φ(L)∆d Φs(L) ∆sD Yt = θ(L) Θs(L)εt
(1-φ1L - φ2L2 - ...- φpL
p) ∆d (1-Φ1Ls-Φ2L2s-...-ΦPLPs) ∆s
D Yt =
= (1 - θ1L - θ2L2 -...- θqL
q)(1- Θ1Ls-Θ2L
2s - ...- ΘQLQs) εt .
La FAS de los modelos multiplicativos, de forma aproximada, se caracteriza porque en
los retardos bajos, la única estructura que aparece es la de la parte ordinaria, en los retardos s,
2s, 3s... el único efecto importante es el de la parte estacional y en los retardos contiguos a
múltiplos de s, se obtiene simétricamente la reproducción de la parte ordinaria tomando como
referencia los valores de los retardos estacionales, es decir, recogen la interacción entre la parte
ordinaria y la parte estacional.
FAS de un modeloARMA(0,1)x(0,1)s=4
-1
-0,5
0
0,5
1
1 2 3 4 5 6
Retardo
Coe
ficie
ntes
FAS de un modeloARMA(1,0)x(1,0)s=12
-1
-0,5
0
0,5
1
1 4 7 10 13 16 19
Retardo
Coe
ficie
ntes
Figura 2.4.2. FAS de modelos multiplicativos
115
Se puede construir el siguiente cuadro como resumen de los modelos estacionales
multiplicativos, aunque para más detalles puede consultarse Vandale (1983):
Modelos FAS FAP
ARMA(p,0)×(P,0)s Decaimiento exponencial o
sinusoidad o ambos
Se anula para un retardo
k>p+sP
ARMA(0,q)×(0,Q)s Se anula para un retardo
k>q+sQ
Decrecimiento exponencial o
sinusoidal o ambos
116