40
U NA APLICACIÓN DE LAS SERIES DE TIEMPO VISTO DESDE LOS ESPACIOS DE H ILBERT. E RIKA V ALERIA R IVERA J IMENEZ D IRECTOR :L UIS F ERNANDO V ILLARRAGA P OVEDA Universidad Distrital Francisco José de Caldas Bogotá D.C. 2017

ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

UNA APLICACIÓN DE LAS SERIES DE TIEMPO

VISTO DESDE LOS ESPACIOS DE HILBERT.

ERIKA VALERIA RIVERA JIMENEZ

DIRECTOR: LUIS FERNANDO VILLARRAGA POVEDA

Universidad Distrital Francisco José de CaldasBogotá D.C.

2017

Page 2: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Dedicado a mis padres, hermano y novio.

Page 3: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Agradecimientos

Agradezco a mis padres y hermano por su apoyo y aliento en cada tropiezo o alegríavivida durante este proceso, a los profesores del proyecto curricular de matemáticas porlos consejos y conocimientos transmitidos y a Pipesaubrio por su compresión, fortaleza,amor y paciencia.

I

Page 4: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Índice general

Introducción IV

1. Preliminares 1

1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Espacio de Hilbert L2(Ω, F , P) . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2.1. Espacios de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2.2. Completitud del espacio L2(Ω, F , P) . . . . . . . . . . . . . . . . . 5

1.2.3. Aproximación lineal en L2(Ω, F , P) . . . . . . . . . . . . . . . . . . 10

2. Modelos autorregresivos 12

2.1. Procesos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.1.1. Procesos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1.2. Procesos autorregresivos (AR(1)). . . . . . . . . . . . . . . . . . . . 19

2.1.3. Proceso autorregresivo general (AR(p)). . . . . . . . . . . . . . . . . 22

II

Page 5: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

3. Aplicación 26

3.1. Análisis series de tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.1.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4. Conclusiones 32

Apéndices 33

Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

III

Page 6: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Introducción

Las series de tiempo surgen el siglo pasado gracias a los trabajos pioneros del matemáti-co A.N. Kolgomorov en 1931 (Anales matemáticos de la academia de ciencias alemana)y del estadístico británico George Yule (1871-1951) y su obra (On the time-correlationProblem, (1921)); donde promueven la investigación y las primeras aplicaciones basa-das en modelos autorregresivos de segundo orden, en base a los trabajos de Yule, el ma-temático y economista ruso Eugen Slutsky (1880-1948), integra una metodología, desdeun punto de vista estocástico, fundamentando las series de tiempo y el análisis econó-mico de las mismas, desde unas bases estadísticas.En el presente trabajo se elegirá un modelo para estimar parametros y utilizar el mo-delo para mejorar y comprender el funcionamiento que genera la serie, visto desde losespacios de Hilbert L2(Ω, F , P). Inicialmente se mostrara que el espacio de todas lasvariables aleatorias X definidas en Ω son un espacio vectorial y con un producto in-terno definido será un espacio de Hilbert, soportado desde la teoría de la medida y elanálisis funcional, se introducirá la relación entre espacios estocásticos y las series detiempo encontrando que el modelo matemático para una serie de tiempo es el conceptode proceso estocástico, se enunciarán y demostrarán las propiedades del modelo auto-rregresivo. Finalmente, se aplicara la teoría ya mencionada a un ejemplo particular delmodelo autorregresivo.

IV

Page 7: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

CAPÍTULO 1

Preliminares

1.1. Motivación

Las series de tiempo han tenido un rol muy importante en el análisis y predicción deeventos, son una secuencia de datos, valores u observaciones, que se miden en diferen-tes momentos cronológicamente ordenados donde los datos pueden estar en intervalosde tiempo iguales o desiguales.

Existen modelos matemáticos de las series de tiempo que permiten la predicción, com-portamiento y comprensión de ciertos eventos que pueden utilizarse de diversas formasdependiendo del campo de aplicación particular como la economía, el marketing, la de-mografía y el medio ambiente, entre otros.Las aplicaciones incluyen la separación (filtración) del ruido de las señales, la predic-ción de valores futuros de una serie y el control de valores futuros permitiendo un claroentendimiento de los resultados debido a su fácil modelización.

1

Page 8: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

1.2. Espacio de Hilbert L2(Ω, F , P)

El análisis de las series de tiempo es posible sin el estudio previo de los espacios deHilbert. Pero, dada la relación que existe entre la geometría euclidiana y en particularcon los conceptos de ortogonalidad y proyección ortogonal en espacios de dos y tresdimensiones. Daremos a conocer con el presenté trabajo el papel tan importante quetiene los espacios de Hilbert de dimensión infinita en el estudio de variables aleato-rias con segundo momento finito y en especial en la teoría de predicción de procesosestacionarios.

1.2.1. Espacios de probabilidad

La teoría de la probabilidad es la parte de las matemáticas que se encarga del estudio delos fenómenos o experimentos aleatorios, se entiende por experimento aleatorio aquelque cuando se repite bajo las mismas condiciones iniciales, el resultado que se obtieneno siempre es el mismo,el espacio a trabajar consiste de una terna ordenada, denotadausualmente por (Ω, F , P), en donde Ω es un espacio muestral, F es una σ-álgebra desubconjuntos de Ω, y P es una medida de probabilidad definida sobre F [Brezis, 2010,pág 89].A la pareja (Ω, F ) se le llama espacio medible y a los elementos de F se lesllama eventos o conjuntos medibles.Como caso especial de σ-álgebra se tiene la σ-álgebra de Borel que esta generada porla colección de conjuntos abiertos de un espacio topológico. Los miembros de esta σ-álgebra son llamados conjuntos de Borel, para los espacios medibles (Ω, F ) tendremosque si se le asocia una medida de probabilidad P, una función h de Ω sobre Y con Ω unespacio medible y Y un espacio topológico será llamada una variable aleatoria sí h−1(B)es un conjunto medible en Ω para cada conjunto abierto B en Y. La función h se dicemedible de Ω a Y y se considera primeramente variables aleatorias correspondientes a(Y, G ) = (Rd, Bd) y denotada con letras mayúsculas, por ejemplo X : Ω → Rd parad > 1 y X : Ω→ R para d = 1. Para variables aleatorias con valores d > 1 se les llamarávectores aleatorios.[Grigoriu, 2002, pág 8].

Algunas propiedades de las variables aleatorias que son de importancia se mencionarána continuación, una de ellas afirma que si, h es medible y P es una medida de probabili-

2

Page 9: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

dad sobre Ω entonces una función Q de G (σ-álgebra asignada al espacio topológico Y)a [0, 1] sera llamada la probabilidad inducida por h o la distribución de h sí Q definidocomo P(h−1(B)) es una medida de probabilidad sobre Y para un conjunto abierto en G .Probar que efectivamente Q es una medida, es inmediato ya que:

Q(Y) = 1

Q(Y) =P(h−1(Y))

=P(Ω)

=1.

Aditividad contable.Para cualquier conjunto contable I y disjunto de eventos Bi ∈ G , se tiene,

Q

(⋃i∈I

Bi

)=P

(h−1

(⋃i∈I

Bi

))

=∞

∑i=1

Q(Bi).

Dado que h−1(Bi) son eventos disjuntos en F .

Otra propiedad, dice que la σ-álgebra generada por una variable aleatoria X es,

σ(X) = X−1(Bd) =

X−1(B) ∈ F : ∀B ∈ Bd

.

Y representa la más pequeña σ-álgebra con respecto a la cual X es medible [Grigoriu, 2002,pág 6]. La colección de subconjuntos σ(X) es una σ-álgebra ya que:

X−1(Rd) = Ω y dado que Ω ∈ F entonces X−1(Rd) ∈ F , obteniendo asi,X−1(Rd) ∈ σ(X).

Si B ∈ Bd,

X−1(Rd − B) = X−1(Rd)− X−1(B) = Ω− X−1(B).

3

Page 10: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Se tiene que Ω ∈ F y X−1(B) ∈ F , por tanto, X−1(Rd − B) ∈ F , obteniendo asi,X−1(Rd − B) ∈ σ(X).

Sea Bi ∈ Bd con i = 1, 2, ... , entonces,

X−1(B1 ∪ B2 ∪ ...) = X−1(B1) ∪ X−1(B2) ∪ ...

Se tiene que X−1(Bi) ∈ F , por tanto,⋃∞

i=1 X−1(Bi) ∈ σ(X).

Además para estudiar el espacio L2 es necesario hacer el estudio de las variables aleatoriassimples que se definen como una función de valores reales definida en un espacio demedida cuyo rango es finito, estas funciones tienen un papel muy importante en lateoría de la medida y sobre todo en los espacios de probabilidad y en el estudio generalde los espacios Lp [Rudin, 1981, pág 61], un ejemplo de variable aleatoria simple es lafunción característica, definida como

χAi =

1 si w ∈ A

0 si w /∈ A

ya que si χ−1Ai(B) =

w : χAi(w) ∈ B

entonces

Si 0, 1 /∈ B entonces χ−1Ai(B) = .

Si 1 ∈ B y 0 /∈ B entonces χ−1Ai(B) = A.

Si 1 /∈ B y 0 ∈ B entonces χ−1Ai(B) = Ac.

Si 0, 1 ∈ B entonces χ−1Ai(B) = Ω.

Por tanto χ−1Ai(B) ∈ F , lo que implica que la función característica es una variable

aleatoria simple.Antes de entrar en detalle con el espacio L2(Ω, F , P) se deben tener en cuenta algunaspropiedades de las variables aleatorias simples que se utilizaran más adelante, tales

4

Page 11: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

como: sí X es una variable aleatoria simple tal que la norma de xi es finita con i ∈ I, suesperanza o valor esperado se define como

E[X] = ∑i∈I

xiP(Ai).

y si la esperanza de una variable aleatoria X existe, esta es también denotada por

E[X] =∫

ΩX dP.

1.2.2. Completitud del espacio L2(Ω, F , P)

Sea (Ω, F , P) un espacio de probabilidad y denotamos por Lq(Ω, F , P) la colección devariables aleatorias X a valor real definidas sobre (Ω, F , P) tal que E[|X|q] < ∞ paraq ≥ 1. Si X está en Lq(Ω, F , P) se escribíra X ∼ Lq(Ω, F , P). Con q = 2 es el caso rele-vante para las aplicaciones dado que está relaciona el calculo del segundo momento yla teoría de la estimación.Consideramos el espacio L2(Ω, F , P) donde dos variables aleatorias X y Y son estric-tamente iguales si para cada ω se cumple X(ω) = Y(ω). Existen, sin embargo, otrasformas más debíles de igualdad donde cambiaremos las variables aleatorias individua-les X ∈ L2 a clases de equivalencia de variables aleatorias que coinciden en casi todaparte definidas como,

[X] =

Y ∈ L2 : P(Y = X) = 1

.

De tal forma, que se pueden cumplir satisfactoriamente las propiedades para que L2 seaun espacio de Hilbert principalmente, se debe cumplir que la relación ∼ definida porX ∼ Y ⇐⇒ X c.s

= Y es una relación de equivalencia y esto se tiene facilmente ya que, sise cumplen las relaciones

Reflexiva.X ∼ X ⇐⇒ P(ω : X(ω) 6= X(ω)) = P() = 0.

Simetrica.X ∼ Y ⇐⇒ P(ω : X(ω) = Y(ω)) = 1 = P(ω : Y(ω) = X(ω)) .Por tanto Y ∼ X.

5

Page 12: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Transitiva.Si X ∼ Y y Y ∼ Z entonces X ∼ Z.Sea, P(ω : X(ω) = Y(ω)︸ ︷︷ ︸

A

) = 1 Y P(ω : Y(ω) = Z(ω)︸ ︷︷ ︸B

) = 1, es decír, P(A) = 1

y P(B) = 1.Luego,

1 = P(A ∩ B) = P(ω : X(ω) = Z(ω)) = P(X = Z).

Puesto que la intersección de dos conjuntos de probabilidad uno tiene probabili-dad uno, luego X ∼ Z.

Dicho lo anterior se probara que efectivamente sí (Ω, F , P) es un espacio de probabili-dad y se denotá por L2(Ω, F , P) el espacio de las clases de todas las variables aleatoriasX definidas en Ω y que satisfacen la condición

E(X2) =∫

ΩX2(ω) dP < ∞.

Entonces con la notación usual de multiplicación por un escalar α ∈ R y la suma devariables aleatorias, L2 es un espacio vectorial. Además L2 es un espacio de Hilbert conel producto interno 〈X, Y〉 = E[X, Y] para X, Y ∈ L2 y la norma ‖X‖L2

=(E(X2)

)1/2.L2 sera un espacio vectorial, sí probamos, inicialmente que αX + βY con X, Y ∈ L2 yα, β ∈ R pertenecen a L2 basta ver que,

‖(X + Y)‖2 + ‖(X−Y)‖2 = E((X + Y)2) + E((X−Y)2)

= E(X2) + 2E(XY) + E(Y2) + E(X2)− 2E(XY) + E(Y2)

= 2(E(X2) + E(Y2)).

LuegoE((X + Y)2) ≤ 2(E(X2) + E(Y2)) < ∞

Y por tanto X + Y ∈ L2

Además,E((αX)2) = α2E(X2) < ∞ α ∈ R, X ∈ L2,

6

Page 13: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

obteniendo así que L2 es un espacio vectorial.Luego para que L2 sea un espacio de Hilbert, se probara que 〈X, Y〉 = E[X, Y] cumplelas propiedades de producto interno.Por tanto,

1. 〈X, Y〉 = 〈Y, X〉.〈X, Y〉 = E(XY) = E(YX) = 〈Y, X〉

2. 〈X + Y, Z〉 = 〈X, Z〉+ 〈Y, Z〉.

〈X + Y, Z〉 = E((X + Y)Z) = E(XZ + YZ) = E(XZ) + E(YZ) = 〈X, Z〉+ 〈Y, Z〉

3. 〈αX, Y〉 = α 〈X, Y〉.

〈αX, Y〉 = E(αXY) = αE(XY) = α 〈X, Y〉

4. 〈X, X〉 ≥ 0.〈X, X〉 = E(XX) = E(X2) ≥ 0

5. 〈X, X〉 = 0 si y solo si X c.s= 0.

Esta condición no se satisface en un sentido estricto. La condición se mantiene si nose distingue entre variables aleatorias que difieren sobre un conjunto de probabi-lidad cero. Teniendo en cuenta la relación de equivalencia definida anteriormentese tendrá,⇐) Si X c.s

= 0 y N = ω ∈ Ω : X(ω) = 0 tal que Nc = ω ∈ Ω : X(ω) > 0 conP(Nc) = 0.Por tanto,

〈X, X〉 =∫

ΩX2dP =

∫N

X2dP +∫

NcX2dP = 0.

⇒) Si 〈X, X〉 =∫

Ω X2dP = 0 y An = ω ∈ Ω : X2(ω) > 1n. Se tendra que,

X2(ω) ≥ 1n

χAn(ω)

7

Page 14: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

∫Ω

X2dP ≥ 1n

∫Ω

χAn(ω)dP∫Ω

X2dP ≥ 1n

P(An)

0 ≥ 1n

P(An)

Por tanto, P(An) = 0. Ahora sí, X =⋃

n∈N An, obtendremos,

P(ω ∈ Ω : X(ω) 6= 0) = P(⋃

n∈N

An) = ∑n∈N

P(An) = 0.

Cumpliendo, la definición de dos variables aleatorias son iguales casi seguramen-te es decir, X c.s

= Y, si y solo si P(ω : X(ω) 6= Y(ω)) = 0 concluyendo, X c.s= 0.

Por último se necesita probar que si Xn ∈ L2 con n = 1, 2, ..., y ‖Xn − Xm‖ → 0 cuan-do m, n → ∞, entonces existe X ∈ L2 tal que Xn converge casi seguramente a X, esdecir, L2 es completo. Para esto se necesita la proposición que afirma que si Xn ∈ L2 y‖Xn+1 − Xn‖ ≤ 2−n, n = 1, 2, ..., entonces existe una variable aleatoria X en (Ω, F , P)tal que Xn → X con probabilidad uno [Brockwell, 2006, pág 62].Para verificar la proposición, sea X0 = 0 entonces Xn = ∑n

j=1(Xj−Xj−1) ahora ∑∞j=1 |Xj−

Xj−1| es finito con probabilidad uno, ya que, por el teorema de la convergencia monó-tona [Rudin, 1981, pág 16],se tiene que lımn→∞ ∑n

j=1 |Xj − Xj−1| existe y es finito conprobabilidad uno.

E

(∞

∑j=1|Xj − Xj−1|

)=∫

X

∑j=1|Xj − Xj−1|dP

=∫

Xlım

n→∞

n

∑j=1|Xj − Xj−1|dP

= lımn→∞

∫X

n

∑j=1|Xj − Xj−1|dP

8

Page 15: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

= lımn→∞

n

∑j=1

∫X|Xj − Xj−1|dP

=∞

∑j=1

E|Xj − Xj−1||1|

≤∞

∑j=1‖Xj − Xj−1‖

= ‖X1‖+∞

∑m=1‖Xm+1 − Xm‖

≤ ‖x1‖+∞

∑j=1

12j

< ∞

Concluyendo, que si Xn es una sucesión de Cauchy en L2 entonces se podran encontrarn1, n2, ..., tal que n1 < n2 < ..., y

‖Xn − Xm‖ ≤ 2−k para n, m > nk

Por la proposición anterior, existe una variable aleatoria X tal que Xn → X con proba-bilidad uno cuando n → ∞.Ahora dado ε > 0, para m y n suficientemente grandes,tendremos que ‖Xm − Xn‖ < ε luego por lema de Fatou [Rudin, 1981, pág 23], paravalores grande de m.

E[(Xm − X)2] = E[lım infn−>∞

(Xm − Xn)2]

≤ lım infn→∞

E[(Xm − Xn)2]

= lım infn→∞

‖Xm − Xn‖2

< ε2.

De modo que lım supm→∞ E[(Xm − X)2] < ε2, y por tanto, Xmm.c−→ X.

Así, L2 es un espacio de Hilbert, completo con un producto interno definido.

9

Page 16: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

1.2.3. Aproximación lineal en L2(Ω, F , P)

Se comenzara dando un ejemplo del uso del teorema de la proyección particularmenteen espacios de Hilbert. El resultado general es entonces establecido más adelante. Paraesto suponga que X1, X2 y Y son variables aleatorias en L2(Ω, F , P) donde, solamenteX1 y X2 son conocidas podríamos desear estimar el valor de Y utilizando la combinaciónlineal Y = α1X1 + α2X2 la cual minimiza el error cuadrático medio,

S = E|Y− α1X1 − α2X2|2 = ‖Y− α1X1 − α2X2‖2.

el objetivo es encontrar un elemento Y en el conjunto

M =

X ∈ L2(Ω, F , P) : X = a1X1 + a2X2 para algún a1, a2 ∈ R

cuya distancia cuadrada de Y, ‖Y − Y‖2 es tan pequeña como sea posible. Se esperaríaque Y tenga la propiedad que Y − Y sea ortogonal a todos los elementos de M , esto sepodría aplicar en casos más generales, que sera establecido en el teorema de la proyección.Aplicando esto a la estimación de Y descrita más arriba, se obtiene

〈Y− α1X1 − α2X2, X〉 = 0 para todo X ∈M (1.1)

o equivalentemente, por la linealidad del producto interior,

〈Y− α1X1 − α2X2, Xi〉 = 0, i = 1, 2.

Dada la definición del producto interior en L2, lo anterior puede quedar expresado entérminos de la esperanza como,

α1E(X21) + α2E(X2X1) = E(YX1),

α1E(X1X2) + α2E(X22) = E(YX2),

del cual α1 y α2 se pueden encontrar.El teorema clave que soporta toda la teoría del siguiente capítulo llamado el Teoremade la proyección afirma, que sí M es un subespacio cerrado del espacio de Hilbert H y

10

Page 17: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

x ∈H [Bartle, 1995], entonces, hay un único elemento x ∈M tal que

‖x− x‖ = ınfy∈M‖x− y‖

y x ∈ M y ‖x− x‖ = ınfy∈M ‖x− y‖ si y solo si x ∈ M y (x− x) ∈ M⊥.(El elementox es llamado la proyección de x sobre M ). La demostración del presente teorema sepuede ver en [Kreyszig, 1989]. Dado un espacio de Hilbert H , un subespacio cerradoM , y un elemento x ∈ M , por el teorema de la proyección se muestra que el elementode M más cercano a x es el único elemento x ∈M tal que

〈x− x, y〉 = 0 para todo y ∈M (1.2)

Se interpretara x = PM x como la mejor predicción de x en el subespacio M .

El teorema de la proyección nos deja que x = PM x está únicamente determinada poresta condición para cualquier espacio de Hilbert H y un subespacio cerrado M .Esto justifica en particular el uso de la ecuación 1.1, el teorema de la proyección juegaun rol fundamental en todos los problemas que involucran aproximación o predicciónde variables aleatorias con varianza finita.

11

Page 18: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

CAPÍTULO 2

Modelos autorregresivos

El modelo matemático para una serie temporal es el concepto de proceso estocásticosupondremos que el valor observado de la serie en el instante t es una extracción alazar de una variable aleatoria definida en dicho instante, en consecuencia, una serie den datos será una muestra de un vector de n variables aleatorias ordenadas en el tiempo(z1, ..., zt, ..., zn).

2.1. Procesos estocásticos

Se denomina proceso estocástico al conjunto de variables zt, t = 1.....n y la serie obser-vada se considera una realización o trayectoria del proceso [Peña Sanchez, 1995], másformalmente sea (Ω, F , P) un espacio de probabilidad, z = (zt, t ∈ T) una familiade variables aleatorias definidas sobre (Ω, F , P) y con valores en un espacio medible(E, B).zt es llamado un proceso estocástico con espacio muestral (Ω, F , P) espacio condi-cional (o espacio de datos) (E, B) y conjunto tiempo T [Bosq, 2000].

12

Page 19: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Se debe tener en cuenta que sí T es contable, entonces el proceso de tiempo es discretomientras, que sí T es un intervalo en R (T = [a, b], R+, R), zt es un proceso de tiempocontinuo. Por ejemplo, se quiere saber la cantidad de autos rojos vendidos en una agen-cia de autos en los próximos 6 meses, teniendo en exhibición 4 colores negro, rojo, grisy azul.[Coleman, 1986],donde el espacio muestral sera 0, 1, 2, 3, 4 que consideraremosuna realización del proceso zt , t = 1, 2, .., 6, siendo zt la variable aleatoria número deautos rojos vendidos en los t meses.La forma probabilística de un proceso estocástico se conocerá si tenemos la distribuciónconjunta de las n variables aleatorias zt, determinar prácticamente esta distribuciónlleva consigo un buen número de realizaciones, para lograr simplificar esta determina-ción, se supone que la distribución conjunta es normal multivariante, ya que, entonces,quedará determinada por el vector de medias y la matriz de varianzas y covarianzasentre las variables [Peña Sanchez, 1995].Para esto, una función del tiempo que proporciona las medias de las distribuciones mar-ginales zt para cada instante:

µt = E[zt]

se le llamará función de medias.La función de varianzas del proceso proporciona las varianzas en cada instante temporal:

σ2t = Var(zt)

y se dira que el proceso es estable en la varianza si ésta es constante en el tiempo. Lafunción que describe las covarianzas en dos instantes cualesquiera:

Cov(t, t + j) = Cov(zt, zt+j) = E[(zt − µt)(zt+j − µt+j)]

se le llamará función de autocovarianza. A la estandarización de la función de covarianzas:

$(t, t + j) =Cov(t, t + j)

σtσt+j

se le llamará función de autocorrelación.

Diremos que un proceso puede ser estable en la media y no en la varianza y al contrario,

13

Page 20: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

además, la estructura de dependencia lineal entre las variables aleatorias del proceso serepresenta por las funciones de covarianza y correlación.En general, la función de autocorrelacion y autocovarianzas dependen de dos parame-tros (t, j), siendo t el instante inicial y j el intervalo de observaciones.

Para poder estimar las características del proceso como medias, varianzas, entre otrosa partir de su cambio en el tiempo es necesario suponer que las distribuciones de lasvariables en cada instante son estables a lo largo del tiempo. Obteniedo así el conceptode estacionaridad.

2.1.1. Procesos estacionarios

Se dice que un proceso estocástico (serie temporal) es estacionario en sentido débil si exis-ten y son estables la media, la varianza y las covarianzas, es decir, si para todo t

1. µt = µ = cte

2. σ2t = σ2 = cte

3. Cov(t, t + k) = Cov(t, t− k) = γk k = 0,±1,±2, ...

Para un proceso estacionario la función de autocorrelación se calcula mediante;

$k = γk/γ0

teniendo en cuenta que γ0 = σ2. Una propiedad importante de los procesos estacio-narios es tener incrementos estacionarios; es decir, si zt es estacionario, el proceso ωt

definido por:ωt = zt − zt−1

es también estacionario.

Media constante.

E[ωt] = E[zt − zt−1] = E[zt]− E[zt−1] = 0

14

Page 21: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Varianza constante.Teniendo en cuenta lo demostrado en el item anterior.

Var(ωt) = E[(ωt − µ)2]

= E[(zt − zt−1 − µ)(zt − zt−1 − µ)]

= E[−2ztµ + 2zt−1µ− 2(zt)(zt−1) + µ2] + E[z2t ] + E[z2

t−1]

= E[−2(zt)(zt−1)] + E[z2t ] + E[z2

t−1]

= −2Cov(zt, zt−1) + Var(zt) + Var(zt−1)

= 2(σ2 − γ1).

llamando γ a la covarianza entre observaciones contiguas.

Función de autocovarianza.

Cov(ωt, ωt+k) = E[(zt − zt−1)(zt+k − zt+k−1)] = 2γk − γk+1 − γk−2.

Un proceso estacionario muy importante es el ruido blanco, que se define como,

1. E[zt] = 0

2. Var(zt) = σ2

3. Cov(zt, zt−k) = 0, k = ±1,±2, ...

Por ejemplo si tiramos una moneda en instantes t = 1, 2, ... y definimos zt = −1 si seobtiene cara y zt = +1 si se obtiene cruz, se obtiene un proceso de ruido ya que laesperanza es cero, la varianza es constante, es decir, igual a uno y las covarianzas soncero [Peña Sanchez, 1995].Los procesos estacionarios juegan un papel crucial en el análisis de series de tiempoademás, muchas series de tiempo observadas no son estacionarias en apariencia. Confrecuencia, tales conjuntos de datos pueden ser transformados por ciertas técnicas, querazonablemente pueden modelarse como realizaciones de un proceso estacionario.Método 1 realiza una estimación por mínimos cuadrados de mt.Método 2 es para un suavizado por medio de una media móvil.

15

Page 22: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Método 3 es una diferenciación para generar datos estacionarios.La teoría de procesos estacionarios se utiliza para el análisis, ajuste y predicción de laserie resultante. En todo esto la función de autocovariancia es una herramienta primaria.

Existe un modelo clasico de descomposición de un proceso estacionario que permite laposibilidad de representar los datos como una realización del proceso escrita:

zt = mt + st + Yt

donde mt es una función de cambio lento conocida como componente tendencia, st es unafunción con el periodo conocido d conocido como componente estacional y Yt es una com-ponente de ruido blanco que se sabe que es estacionario por lo definido anteriormente.El objetivo es estimar y extraer las componentes deterministicas mt y st con la esperanzade que la componente residual o ruido blanco resultará ser un proceso aleatorio estacio-nario. Podemos utilizar la teoria de tales procesos para encontrar un modelo probabilis-tico satisfactorio para el proceso y analizar sus propiedades y utilizarlo en conjugacióncon mt y st con fines de prediccion modelización y analisis de zt.

Se usará en el presenté trabajo el método 3, donde se intenta eliminar el término ten-dencia mt mediante la diferenciación, definido el operador derivada con la notación ∇tal que

∇zt = zt − zt−1 = (1− B)zt

donde B es el operador de desplazamiento hacia atras,

Bzt = zt−1.

y,Bj(zj) = zt−j y ∇j(zt) = ∇(∇j−1(zt)), j ≥ 1 con ∇0(zt) = zt.

16

Page 23: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Para j=2,

∇(∇zt) = ∇((1− B)zt)

= (1− B)∇(zt)

= (1− B)(1− B)zt

= (1− 2B + B2)zt

= zt − 2zt−1 + zt−2

Si el operador ∇ se aplica a una función de tendencia lineal mt = at + b, se obtiene lafunción constante ∇mt = a.De la misma manera cualquier polinomio con tendencia de grado k puede ser reducidoa una constante por la aplicación del operador ∇k.Comenzando con el modelo zt = mt + Yt donde mt = ∑k

j=0 ajtj y Yt estacionario conmedia cero, se obtiene que

∇k zt = k!ak +∇kYt

un proceso estacionario con media k!ak.

La técnica de diferenciación que aplicamos anteriormente a los datos no estacionariosse pueden adaptar para hacer frente a la estacionalidad del periodo d introduciendo eloperador de diferencia ∇d definido por

∇d zt = zt − zt−d = (1− Bd)zt.

Aplicando el operador ∇d al modelo

zt = mt + st + Yt

donde st tiene periodo d se obtiene

∇d zt = mt −mt−d + Yt −Yt−d

la cual da una descomposición del diferencial ∇d zt, en una componente tendencia(mt −mt−d) y un ruido blanco (Yt −Yt−d).

17

Page 24: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Para ver la utilidad del método de diferenciación, sea Yt un proceso estacionario conmedia cero y a, b constantes.

(a) Si zt = a + bt + st + Yt donde st es una componente estacional con periodo 12,probaremos que

∇∇12zt = (1− B)(1− B12)zt

es estacionario.Dado que muchas series no son estacionarias, pero existen métodos que transfor-man las series en procesos estacionarios el objetivo será estimar y extraer las com-ponentes mt y st de tal forma que la componente residual o ruido llegará a ser unproceso aleatorio estacionario, por lo cual primero se aplica el operador diferencialpara eliminar la componente de estacionalidad st de la serie de tiempo.

∇12zt = zt − zt−12

= (1− B12)zt

= a + bt + st + Yt − a− b(t− 12)− st−12 −Yt−12

= Yt + 12b−Yt−12.

Ahora aplicando el diferencial para eliminar la componente de tendencia a + bt.

∇∇12zt = ∇[(1− B12)zt

]= (1− B12)∇zt

= (1− B12)(1− B)zt

= (1− B− B12 + B13)zt

= zt − zt−1 − zt−12 + zt−13

= Yt −Yt−12 + Yt−13.

Obteniendo asi un residual o ruido que se sabe que es estacionario y centrado encero.

(b) Si zt = (a + bt)st +Yt donde st es de nuevo una componente estacional con periódo

18

Page 25: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

12 probaremos que∇2

12zt = (1− B12)(1− B12)zt

es estacionaria.Aplicando diferenciación para eliminar la componente de estacionaridad.

∇12zt = (1− B12)zt = zt − zt−12

= (a− bt)st + Yt − (a + b(t− 12))st−12 −Yt−12

= Yt − (12b)st −Yt−12.

Por último, aplicando diferenciación para eliminar la componente de tendencia.

∇212zt = (1− B12)(1− B12)zt

= (1− B12 − B12 + B24)zt

= zt − 2zt−12 + zt−24

= Yt + 2Yt−12 + Yt−24.

Se obtiene a Yt que es un proceso estacionario con media cero.

2.1.2. Procesos autorregresivos (AR(1)).

Una clase muy importante de procesos estacionarios son los procesos autorregresivos,que resultan de imponer una dependencia entre las variables del proceso, similar a lade una ecuación de regresión.[Peña Sanchez, 1995].La forma de dependencia más simple es relacionar zt con zt−1 mediante la ecuación de”autorregresion”

zt = c + φzt−1 + at, |φ| < 1 (2.1)

donde c y φ son constantes a determinar y at es un proceso de ruido blanco, indepen-diente de zt−k para todo k positivo. El proceso (2.1) se denomina proceso autorregresivode primer orden o , brevemente, AR(1).

Las propiedades principales de este proceso son:

19

Page 26: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

1. Si el proceso comienza con z0 = h, siendo h un valor cualquiera fijo, z1 = c +φh + a1 tendrá una distribución normal y lo mismo le ocurrirá a zt para cualquiert además, sustituyendo sucesivamente y suponiendo c=0.

z1 = φh + a1

z2 = φ2h + φa1 + a2

z3 = φ3h + φ2a1 + φa2 + a3

.

.

.

zt = φth +t−1

∑i=0

φiat−i.

tomando esperanzas, como E[at] = 0

E[zt] = φth

el proceso sólo puede ser estacionario si |φ| < 1. Entonces, después de un periodotransitorio incial, cuando t→ ∞, φt tenderá a cero.

2. Función de medias. Tomando esperanzas en 2.1 suponiendo que |φ| < 1, de maneraque E[zt] = E[zt−1] = µ.

zt = c + φzt−1 + at

E[zt] = E[c + φzt−1 + at]

µ = E[c] + E[φzt−1] + E[at]

µ = c + φE[zt−1] + 0

µ = c + φµ

µ =c

1− φ.

20

Page 27: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Llamando zt = zt − µ, el proceso puede escribirse en desviaciones a su media:

zt = φzt−1 + at (2.2)

que es la expresión más usada del AR(1).

3. Función de varianzas. Como zt−1 y at son independientes, llamando σ2z a la varianza

del proceso:

zt = c + φzt−1 + at

V[zt] = V[c + φzt−1 + at]

σ2z = V[c] + V[φzt−1] + V[at]

σ2z = 0 + φ2V[zt−1] + σ2

a

σ2z = φ2σ2

z + σ2a

σ2z =

σ2a

1− φ2

De nuevo apareciendo la condición |φ| < 1 que es necesaria ahora para que σ2z sea

finita y positiva.

4. Función de autocovarianzas. Utilizando (2.2) y escribiendo:

zt − µ = φ(zt−1 − µ) + at

multiplicando por zt−k, tomando esperanzas y llamando:

γk = E[(zt−k − µ)(zt − µ)]

= E[zt−kzt − zt−kµ− µzt + µ2]

= E[zt−kzt − zt−kµ− µ2 + µ2]

= E[zt−k(zt − µ)]

se obtieneγk = φγk−1 k = 1, 2, 3, ... ; γo = σ2

z

21

Page 28: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

como |φ| < 1 la dependencia entre observaciones se amortigua al aumentar elretardo en particular usando la formula encontrada en la función de varianzas:

γ1 =φσ2

a1− φ2 . (2.3)

5. Función de autocorrelación. Se verifica:

$k =γkγ0

=φγk−1

γ0= φ$k−1

como, según la formula encontrada para la función de varianzas y (2.3), $1 = φ,esta función será:

$k = φk (2.4)

y cuando k es grande, $k tiende a cero con rapidez que depende de φ.

2.1.3. Proceso autorregresivo general (AR(p)).

Un proceso zt es autorregresivo de orden p si

zt = φ1zt1 + ... + φpzt−p + at (2.5)

donde zt = zt − µ y at es un proceso de ruido blanco independiente de zt−h, para todoh ≥ 1. Para manejar de forma más cómoda estos procesos se usara el operador de despla-zamiento hacia atrás, B, definido en la sección anterior, de tal forma que la ecuación deun proceso AR(P) es:

zt = (φB + ... + φpBp)zt + at

es decir:(1− φ1B− φ2B2 − ...− φpBp)zt = at. (2.6)

y renombrando a φp(B) = 1− φ1B− φ2B2 − ...− φpBp como un polinomio de grado pen el operador de retardo, cuyo primer término es la unidad, obtenemos,

φp(B)zt = at (2.7)

22

Page 29: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

que es la expresión general de un proceso autorregresivo. Y se nombrará ecuación carac-terística del proceso a: φp(B) = 0, que estará en función de B. Esta ecuación tendrá praìces G−1

1 , ..., G−1p , en general distintas escribiendo,

φp(B) =p

∏i=1

(1− GiB)

Finalizaremos, comprobando que el proceso será estacionario si |Gi| < 1, para todo i.La modelización de una serie a través de un modelo AR exige que el modelo sea estacio-nario en media y varianza. La condición de estacionariedad en media exige que la E(Yt)

no sea función del tiempo y la E(Yt) debe ser finita y determinada, observaremos quécondiciones deben verificar los parámetros φ1, ...φp para que el proceso sea estacionario.

1. Función de medias Tomando esperanzas en (2.5) e imponiendo que la media seaconstante se obtiene:

zt = c + φ1zt−1 + ... + φpzt−p + at

E[zt] = E[c + φ1zt−1 + ... + φpzt−p + at]

µ = E[c] + E[φ1zt−1] + ... + E[φpzt−p] + E[at]

µ = c + φ1E[zt−1] + ... + E[φpzt−p] + 0

µ = c + φ1µ + ... + φpµ

µ =c

1− φ1 − ...− φp.

2. Función de varianzas Una forma alternativa de comprobar que el modelo autorre-gresivo de orden p es estacionario en varianza es comprobando que las raíces delpolinomio característico, en módulo, sean menores que la unidad. Con el fin decomprobar si el modelo es estacionario en varianza se van a calcular las raíces delpolinomio característico del modelo, para ello se iguala a cero la parte autorregre-siva del modelo:

zt − φ1zt−1 − ...− φpzt−p = 0

23

Page 30: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

sustituye zt por λt y se obtiene,

λt − φ1λt−1 − ...− φpλt−p = 0

dividiendo por λt−p se tiene,

λp − φ1λp−1 − ...− φp = 0

La solución de la ecuación o raíces del polinomio de grado p se puede escribircomo se hizo anteriormente,

φp(B) =p

∏i=1

(1− GiB)

así pues, si el modelo especificado para representar la serie (2.5) cumple las condi-ciones |Gi| < 1 y ∑

pi=1 Gk

i 6= 1 el modelo será estacionario en media y varianza.

3. Función de autocovarianzas Para esto multiplicamos (2.5) por zt−k(k > 0), tomandoesperanza, resulta

γk = φ1γk−1 + ... + φpγk−p k ≥ 1 (2.8)

además,γ0 = φ1γ1 + φ2γ2 + ... + φpγp + σ2

a

4. Función de autocorrelación Si dividimos (2.8) por γ0 se obtienen las relaciones entrecorrelaciones

$k = φ1$k−1 + ... + φp$k−p k > 0

y las correlaciones satisfacen la misma ecuación que el proceso

φp(B)$k = 0 k > 0 (2.9)

24

Page 31: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

La solución general de la ecuación es

$k =p

∑i=1

AiGki (2.10)

donde los Ai son constantes a determinar a partir de las condiciones iniciales y Gi

es una solución de la ecuación característica.Comprobar la condición de |Gi| < 1, es observar que la condición |$| < 1 exigeque no exista en (2.10) ningún Gi mayor que la unidad, ya que entonces cuando kaumenta el término Gk

i crecería sin limite, y no puede existir una raíz unitaria yaque entonces su componente Gk

i no decrece y los coeficientes $k no tienden a ceropara ningún retardo [Peña Sanchez, 1995].

25

Page 32: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

CAPÍTULO 3

Aplicación

Una de las características definitivas de las series temporales es que se trata de una listade observaciones en las que el orden es importante ya que ordenar es muy importanteporque hay dependencia y cambiar el orden podría cambiar el significado de los datos.

3.1. Análisis series de tiempo

Algunas preguntas importantes a tener en cuenta al mirar una serie de tiempo son[of Science, 2016]:

¿Existe una tendencia , lo que significa que, en promedio, las mediciones tiendena aumentar (o disminuir) con el tiempo?

¿Hay estacionalidad , lo que significa que hay un patrón repetitivo de altos y bajosrelacionados con el tiempo del calendario, tales como estaciones, cuartos, meses,días de la semana, y así sucesivamente?

26

Page 33: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

¿Son sus valores atípicos ? En la regresión, los valores extremos están muy lejos desu línea. Con datos de series de tiempo, sus valores extremos están muy lejos deotros datos.

¿Existe un ciclo o período de largo plazo sin relación con los factores de estaciona-lidad?

¿Existe varianza constante en el tiempo, o es la varianza no constante?

¿Hay cambios abruptos en el nivel de la serie o en la varianza?

3.1.1. Ejemplo

La siguiente tabla muestra las muertes accidentales mensuales en los Estados Unidos,1973-1978. La siguiente gráfica es una gráfica de series de tiempo del número de muertes

1973 1974 1975 1976 1977 1978Jan 9007 7750 8162 7717 7792 7836Feb 8106 6981 7306 7461 6957 6892Mar 8928 8038 8124 7776 7726 7791Apr 9137 8422 7870 7925 8106 8129May 10017 8714 9387 8634 8890 9115Jun 10826 9512 9556 8945 9299 9434Jul 11317 10120 10093 10078 10625 10484

Aug 10744 9823 9620 9179 9302 9827Sep 9713 8743 8285 8037 8314 9110Oct 9938 9129 8433 8488 8850 9070Nov 9161 8710 8160 7874 8265 8633Dec 8927 8680 8034 8647 8796 9240

Cuadro 3.1: Muertes accidentales mensuales en U.S.A

accidentales mensuales en U.S.A., durante 6 años consecutivos. Mediante un gráfico deseries de tiempo, simplemente queremos decir que la variable se representa en funcióndel tiempo.

27

Page 34: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Figura 3.1: Gráfica muertes accidentales mensuales en U.S.A., 1973− 1978

De la gráfica anterior podemos decir, que no hay una tendencia consistente (ascendenteo descendente) sobre todo el intervalo de tiempo. La serie parece vagar lentamente haciaarriba y hacia abajo. Casi por definición, se podría decir que existe una componenteestacional pronunciada con periodo 12, no hay valores atípicos obvios y se podría juzgarsi la varianza es constante o no.El código usado para la figura 3.1, se muestra a continuación.

1 months <-c(1:72)

2 acci <-c

(9007 ,8106 ,8928 ,9137 ,10017 ,10826 ,11317 ,10744 ,9713 ,9938 ,9161 ,8927 ,\\

28

Page 35: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

36981 ,8038 ,8422 ,8714 ,9512 ,10120 ,9823 ,8743 ,9129 ,8710 ,8680 ,8162 ,7306 ,\\

48124 ,7870 ,9387 ,9556 ,10093 ,9620 ,8285 ,8433 ,8160 ,8034 ,7717 ,7461 ,7776 ,\\

57925 ,8634 ,8945 ,10078 ,9179 ,8037 ,8488 ,7874 ,8647 ,7792 ,6957 ,7726 ,8106 ,\\

68890 ,9299 ,10625 ,9302 ,8314 ,8850 ,8265 ,8796 ,7836 ,6892 ,7791 ,8129 ,9115 ,\\

79434 ,10484 ,9827 ,9110 ,9070 ,8633 ,9240)

8names(acci)<-months

9acci <-ts(acci)

10plot(acci ,type="b")

11library(astsa)

El modelo lineal que se usará para predecir el valor en el tiempo presente usando unvalor en un tiempo pasado será el llamado AR(1).El orden del modelo expresa el nú-mero de observaciones retrasadas de la serie temporal analizada que intervienen en elmodelo. Una de las formas de evaluar un modelo AR(1) es gráficar los datos de la seriecontra los valores retrasados un período de tiempo.

El código usado para la figura 3.2 se muestra a continuación,

1> xlag1=lag(acci ,-1)

2> y=cbind(acci ,xlag1)

3> head(y)

4 acci xlag1

5[1,] 9007 NA

6[2,] 8106 9007

7[3,] 8928 8106

8[4,] 9137 8928

9[5,] 10017 9137

10[6,] 10826 10017

11> lag1.plot(acci ,1)

29

Page 36: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Figura 3.2: Gráfica xt v.s. xt−1

Por tanto,en este modelo, el valor de x en el tiempo t es una función lineal del valorde x en el tiempo t− 1.Y el modelo escogido sera optímo para la predicción a realizar.La figura 3.3 es la función de autocorrelación donde, si φ1 > 0,la ACF decrece expo-nencialmente a 0 cuando lag− h crece, o si φ1 < 0, la ACF decrece exponencialmentea 0 cuando lag − h cree, pero el signo de las correlaciones se alterna entre positivo ynegativo.El código de la figura 3.3 se muestra a continuación,

1ar1fit=lm(y[,1]~ y[, 2])

2> summary(ar1fit)

3> plot(ar1fit$fit ,ar1fit$residuals)

4> cor <-acf(acci ,type="covariance")

30

Page 37: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Figura 3.3: Gráfica 1

5> plot(cor)

El principal propósito del correlograma es detectar autocorrelaciones en las series detiempo luego de haberles removido y estimado la tendencia y la variación estacional.

31

Page 38: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

CAPÍTULO 4

Conclusiones

En el presente trabajo se estudiarón las series de tiempo, profundizando desde los es-pacios de Hilbert, dada la relación que existe entre la geometría y en particular los con-ceptos de ortogonalidad y proyecciones que se vieron en teoremas esenciales como elteorema de la proyección que permite la práctica de las series de tiempo, donde puedenmencionarse varios motivos por los cuales es útil analizarlas por ejemplo, para obtenerpronósticos de valores futuros de la serie, con el fin de ayudar a tomar decisiones quetienen consecuencias importantes o para entender mejor el mecanismo de generaciónde datos, que puede no ser claro inicialmente en una investigación. Se implemento unmetodología que describió el patrón de la serie temporal y se concluyó que los usospara este modelo son: describir las características importantes del patrón de series tem-porales, explicar cómo el pasado afecta el futuro o cómo dos series de tiempo puedeninteractuar para predecir los valores futuros de la serie y posiblemente servir como unestándar de control para una variable que mide la calidad del producto en algunas si-tuaciones.

32

Page 39: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

Bibliografía

[Bartle, 1995] Bartle, R. (1995). The elements of integration and Lebesgue measure. Wileyclassics library. Wiley.

[Bosq, 2000] Bosq, D. (2000). Linear Processes in Function Spaces, Theory and applications.Springer science.

[Brezis, 2010] Brezis, H. (2010). Functional Analysis, Sobolev Spaces and Partial DifferentialEquations. Universitext. Springer New York.

[Brockwell, 2006] Brockwell, P. D. (2006). Time series theory and methods. Springer scien-ce.

[Coleman, 1986] Coleman, R. (1986). Procesos estocásticos:Volumen 14. Limusa.

[Grigoriu, 2002] Grigoriu, M. (2002). Stochastic Calculus. Springer science.

[Kreyszig, 1989] Kreyszig, E. (1989). Introductory Functional Analysis with Applications.John Wiley and Sons.

[of Science, 2016] of Science, E. C. (2016). Applied time series analysis. The PennsylvaniaState University, pages 1–5.

33

Page 40: ERIKA VALERIA RIVERA JIMENEZ DIRECTOR: L F V Prepository.udistrital.edu.co/bitstream/11349/6729/... · a [0,1] sera llamada la probabilidad inducida por h o la distribución de h

ÍNDICE ALFABÉTICO

[Peña Sanchez, 1995] Peña Sanchez, D. (1995). Estadística Modelos y métodos. Ma-drid:Alianza.

[Rudin, 1981] Rudin, W. (1981). Real and Complex Analysis. Mc Graw-Hill InternationalEdtiions, 3 edition.

34