Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
EconometrıaModelo Lineal Clasico
Erix RuizOsinergmin
XII CEU-Osinergmin
Lima, Febrero de 2014
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Contenido
1 El Modelo Lineal ClasicoRepresentacion Matricial del MLCSupuestos del MLC
2 Metodos de EstimacionOrdinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
3 Pruebas de HipotesisDistribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
4 Bondad de AjusteCoeficiente de Determinacion R2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
En general,el modelo econometrico mas simple asume una relacionfuncional entre una variable dependiente, un conjunto de variablesexplicativas y un termino de error (perturbacion) estocastico.
yi = f (Xi ) + εi
i = 1, · · · , n(1)
donde Xi es un vector de dimension 1× K , donde K es el numero devariables explicativas (incluye intercepto).
Asumiendo una forma lineal para (1), tenemos:
yi = X1iβ1 + X2iβ2 + X3iβ3 + · · ·+ XKiβK + εi
i = 1, · · · , n(2)
Se pueden utilizar matrices y vectores para una representacion general delmodelo:
Yn×1, Xn×K , βK×1, εn×1
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
Ası, matricialmente tenemos:
Y = Xβ + ε (3)
donde:
Y =
y1
y2
...yn
,X =
X11 X21 · · · XK1
X12 X22 · · · XK2
......
. . ....
X1n a2n · · · XKn
(4)
β =
β1
β2
...βK
, ε =
ε1
ε2
...εn
(5)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Representacion Matricial del MLC
Ası, matricialmente tenemos:
Y = Xβ + ε (3)
donde:
Y =
y1
y2
...yn
,X =
X11 X21 · · · XK1
X12 X22 · · · XK2
......
. . ....
X1n a2n · · · XKn
(4)
β =
β1
β2
...βK
, ε =
ε1
ε2
...εn
(5)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0,∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
1 Linealidad en los parametros
2 No multicolinealidad (Identificacion)
Este supuesto implica que Xn×K es de rango completo (rango(X ) = K).
El supuesto garantiza que (X ′X )K×K tenga rango completo (K) y que(X ′X )−1 exista. (X ′X ) es no singular (det(X ′X ) 6= 0).
3 No endogeneidad
Cov [X , ε|X ] = 0
E [ε|X ] = 0
E [X ′ε|X ] = 0
(6)
El supuesto garantiza que los estimadores sean insesgados.
4 Perturbaciones esfericas: Homoscedasticidad y no-autocorrelacion
Var [εi |X ] = σ2, ∀i = 1, · · · , nCov [εi , εj |X ] = 0, ∀i 6= j
(7)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
El supuesto de perturbaciones esfericas implica que:
Var [ε|X ] = E [εε′|X ] =
E [ε1ε1|X ] E [ε1ε2|X ] · · · E [ε1εn|X ]E [ε2ε1|X ] E [ε2ε2|X ] · · · E [ε2εn|X ]
......
. . ....
E [εnε1|X ] E [εnε2|X ] · · · E [εnεn|X ]
(8)
Var [ε|X ] =
σ2 0 · · · 00 σ2 · · · 0...
.... . .
...0 0 · · · σ2
= σ2In (9)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Representacion Matricial del MLCSupuestos del MLC
Las condiciones ideales del MLC
El supuesto de perturbaciones esfericas implica que:
Var [ε|X ] = E [εε′|X ] =
E [ε1ε1|X ] E [ε1ε2|X ] · · · E [ε1εn|X ]E [ε2ε1|X ] E [ε2ε2|X ] · · · E [ε2εn|X ]
......
. . ....
E [εnε1|X ] E [εnε2|X ] · · · E [εnεn|X ]
(8)
Var [ε|X ] =
σ2 0 · · · 00 σ2 · · · 0...
.... . .
...0 0 · · · σ2
= σ2In (9)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La importancia de tener estimadores adecuados para β
En general, estamos interesados en obtener un estimador β para β.
Los parametros contenidos en β reflejan el sentido (direccion) e intensidad(fuerza) de las relaciones entre las variables explicativas y la variabledependiente.
En el MLC los parametros contenidos en β son estimadores de los EfectosMarginales
yi = Xiβ + εi
E [yi |X ] = Xiβ + E [εi |X ]
∂E [yi |X ]
∂Xk= βk
(10)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La importancia de tener estimadores adecuados para β
En general, estamos interesados en obtener un estimador β para β.
Los parametros contenidos en β reflejan el sentido (direccion) e intensidad(fuerza) de las relaciones entre las variables explicativas y la variabledependiente.
En el MLC los parametros contenidos en β son estimadores de los EfectosMarginales
yi = Xiβ + εi
E [yi |X ] = Xiβ + E [εi |X ]
∂E [yi |X ]
∂Xk= βk
(10)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La importancia de tener estimadores adecuados para β
En general, estamos interesados en obtener un estimador β para β.
Los parametros contenidos en β reflejan el sentido (direccion) e intensidad(fuerza) de las relaciones entre las variables explicativas y la variabledependiente.
En el MLC los parametros contenidos en β son estimadores de los EfectosMarginales
yi = Xiβ + εi
E [yi |X ] = Xiβ + E [εi |X ]
∂E [yi |X ]
∂Xk= βk
(10)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La importancia de tener estimadores adecuados para β
En general, estamos interesados en obtener un estimador β para β.
Los parametros contenidos en β reflejan el sentido (direccion) e intensidad(fuerza) de las relaciones entre las variables explicativas y la variabledependiente.
En el MLC los parametros contenidos en β son estimadores de los EfectosMarginales
yi = Xiβ + εi
E [yi |X ] = Xiβ + E [εi |X ]
∂E [yi |X ]
∂Xk= βk
(10)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
El objetivo de OLS es minimizar una medida de error de prediccion, eneste caso, la suma cuadratica de residuos
S(β) =n∑
i=1
e2i = e′e (11)
dondeei = yi − yi = yi − Xi β
e = Y − X β
S(β) puede expresarse como:
S(β) = e′e = (Y − X β)′(Y − X β)
= (Y ′ − β′X ′)(Y − X β)
= Y ′Y − Y ′X β − β′X ′Y + β′X ′X β
(12)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
El objetivo de OLS es minimizar una medida de error de prediccion, eneste caso, la suma cuadratica de residuos
S(β) =n∑
i=1
e2i = e′e (11)
dondeei = yi − yi = yi − Xi β
e = Y − X β
S(β) puede expresarse como:
S(β) = e′e = (Y − X β)′(Y − X β)
= (Y ′ − β′X ′)(Y − X β)
= Y ′Y − Y ′X β − β′X ′Y + β′X ′X β
(12)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
El objetivo de OLS es minimizar una medida de error de prediccion, eneste caso, la suma cuadratica de residuos
S(β) =n∑
i=1
e2i = e′e (11)
dondeei = yi − yi = yi − Xi β
e = Y − X β
S(β) puede expresarse como:
S(β) = e′e = (Y − X β)′(Y − X β)
= (Y ′ − β′X ′)(Y − X β)
= Y ′Y − Y ′X β − β′X ′Y + β′X ′X β
(12)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
El objetivo de OLS es minimizar una medida de error de prediccion, eneste caso, la suma cuadratica de residuos
S(β) =n∑
i=1
e2i = e′e (11)
dondeei = yi − yi = yi − Xi β
e = Y − X β
S(β) puede expresarse como:
S(β) = e′e = (Y − X β)′(Y − X β)
= (Y ′ − β′X ′)(Y − X β)
= Y ′Y − Y ′X β − β′X ′Y + β′X ′X β
(12)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Note que : Y ′X β = β′X ′Y , por lo que S(β) puede expresarse como:
S(β) = Y ′Y − 2Y ′X β + β′X ′X β (13)
Entonces, la estrategia de estimacion OLS es resolver el siguienteproblema de optimizacion:
Minβ∈RK
Y ′Y − 2Y ′X β + β′X ′X β
Aplicando la CPO :
∂S(β)
∂β= −2X ′Y + 2X ′X β = 0
X ′X β = X ′Y
βols = (X ′X )−1X ′Y
(14)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Note que : Y ′X β = β′X ′Y , por lo que S(β) puede expresarse como:
S(β) = Y ′Y − 2Y ′X β + β′X ′X β (13)
Entonces, la estrategia de estimacion OLS es resolver el siguienteproblema de optimizacion:
Minβ∈RK
Y ′Y − 2Y ′X β + β′X ′X β
Aplicando la CPO :
∂S(β)
∂β= −2X ′Y + 2X ′X β = 0
X ′X β = X ′Y
βols = (X ′X )−1X ′Y
(14)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Note que : Y ′X β = β′X ′Y , por lo que S(β) puede expresarse como:
S(β) = Y ′Y − 2Y ′X β + β′X ′X β (13)
Entonces, la estrategia de estimacion OLS es resolver el siguienteproblema de optimizacion:
Minβ∈RK
Y ′Y − 2Y ′X β + β′X ′X β
Aplicando la CPO :
∂S(β)
∂β= −2X ′Y + 2X ′X β = 0
X ′X β = X ′Y
βols = (X ′X )−1X ′Y
(14)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Note que : Y ′X β = β′X ′Y , por lo que S(β) puede expresarse como:
S(β) = Y ′Y − 2Y ′X β + β′X ′X β (13)
Entonces, la estrategia de estimacion OLS es resolver el siguienteproblema de optimizacion:
Minβ∈RK
Y ′Y − 2Y ′X β + β′X ′X β
Aplicando la CPO :
∂S(β)
∂β= −2X ′Y + 2X ′X β = 0
X ′X β = X ′Y
βols = (X ′X )−1X ′Y
(14)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Para verificar que β minimiza S(β), tenemos que:
∂
∂β′(∂S(β)
∂β) = 2X ′X (15)
Como X ′X es positiva definida,β minimiza S(β)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
La estrategia de estimacion en OLS
Para verificar que β minimiza S(β), tenemos que:
∂
∂β′(∂S(β)
∂β) = 2X ′X (15)
Como X ′X es positiva definida,β minimiza S(β)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Que propiedades tiene βols?
βols proviene de resolver el Sistema de Ecuaciones Normales:
X ′X β = X ′Y
X ′(Y − X β) = 0
X ′e = 0
(16)
La ultima condicion implica que los regresores sean ortogonales a losresiduos (condicion de momento).
1 Si el modelo tienen intercepto:
n∑i=1
ei = 0⇒ ¯e = 0 (17)
2 Si el modelo tiene intercepto, tambien se cumple que :
Y = X β (18)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Que propiedades tiene βols?
βols proviene de resolver el Sistema de Ecuaciones Normales:
X ′X β = X ′Y
X ′(Y − X β) = 0
X ′e = 0
(16)
La ultima condicion implica que los regresores sean ortogonales a losresiduos (condicion de momento).
1 Si el modelo tienen intercepto:
n∑i=1
ei = 0⇒ ¯e = 0 (17)
2 Si el modelo tiene intercepto, tambien se cumple que :
Y = X β (18)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Que propiedades tiene βols?
βols proviene de resolver el Sistema de Ecuaciones Normales:
X ′X β = X ′Y
X ′(Y − X β) = 0
X ′e = 0
(16)
La ultima condicion implica que los regresores sean ortogonales a losresiduos (condicion de momento).
1 Si el modelo tienen intercepto:
n∑i=1
ei = 0⇒ ¯e = 0 (17)
2 Si el modelo tiene intercepto, tambien se cumple que :
Y = X β (18)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
Note que por definicion:
e = Y − X β = Y − X (X ′X )−1X ′Y
e = [In − X (X ′X )−1X ′]Y(19)
Las expresiones previas permiten definir dos matrices importantes: Lamatriz de proyeccion (PX ) y la matriz generadora de residuos (MX )
PX = X (X ′X )−1X ′
MX = In − X (X ′X )−1X ′ = In − PX
(20)
Ası, se cumple que:
Y = X β = PXY
e = MXY(21)
PX muestra cuanto del vector Y puede ser explicado con las variablescontenidas en X . MX muestra cuanto del vector Y no puede ser explicadopor las variables contenidas en X .
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
Note que por definicion:
e = Y − X β = Y − X (X ′X )−1X ′Y
e = [In − X (X ′X )−1X ′]Y(19)
Las expresiones previas permiten definir dos matrices importantes: Lamatriz de proyeccion (PX ) y la matriz generadora de residuos (MX )
PX = X (X ′X )−1X ′
MX = In − X (X ′X )−1X ′ = In − PX
(20)
Ası, se cumple que:
Y = X β = PXY
e = MXY(21)
PX muestra cuanto del vector Y puede ser explicado con las variablescontenidas en X . MX muestra cuanto del vector Y no puede ser explicadopor las variables contenidas en X .
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
Note que por definicion:
e = Y − X β = Y − X (X ′X )−1X ′Y
e = [In − X (X ′X )−1X ′]Y(19)
Las expresiones previas permiten definir dos matrices importantes: Lamatriz de proyeccion (PX ) y la matriz generadora de residuos (MX )
PX = X (X ′X )−1X ′
MX = In − X (X ′X )−1X ′ = In − PX
(20)
Ası, se cumple que:
Y = X β = PXY
e = MXY(21)
PX muestra cuanto del vector Y puede ser explicado con las variablescontenidas en X . MX muestra cuanto del vector Y no puede ser explicadopor las variables contenidas en X .
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
Note que por definicion:
e = Y − X β = Y − X (X ′X )−1X ′Y
e = [In − X (X ′X )−1X ′]Y(19)
Las expresiones previas permiten definir dos matrices importantes: Lamatriz de proyeccion (PX ) y la matriz generadora de residuos (MX )
PX = X (X ′X )−1X ′
MX = In − X (X ′X )−1X ′ = In − PX
(20)
Ası, se cumple que:
Y = X β = PXY
e = MXY(21)
PX muestra cuanto del vector Y puede ser explicado con las variablescontenidas en X . MX muestra cuanto del vector Y no puede ser explicadopor las variables contenidas en X .
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
Note que por definicion:
e = Y − X β = Y − X (X ′X )−1X ′Y
e = [In − X (X ′X )−1X ′]Y(19)
Las expresiones previas permiten definir dos matrices importantes: Lamatriz de proyeccion (PX ) y la matriz generadora de residuos (MX )
PX = X (X ′X )−1X ′
MX = In − X (X ′X )−1X ′ = In − PX
(20)
Ası, se cumple que:
Y = X β = PXY
e = MXY(21)
PX muestra cuanto del vector Y puede ser explicado con las variablescontenidas en X . MX muestra cuanto del vector Y no puede ser explicadopor las variables contenidas en X .
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
PX y MX son fundamentales en el analisis de regresion.
PX y MX son matrices simetricas e idempotentes, es decir:
P ′X = PX ;PXPX = PX
M ′X = MX ;MXMX = MX
(22)
Adicionalmente, PX y MX son ortogonales, es decir:
MXPX = PXMX = 0 (23)
Ası, OLS divide el vector Y en dos partes ortogonales:
Y = PXY + MXY = X β + e (24)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
PX y MX son fundamentales en el analisis de regresion.
PX y MX son matrices simetricas e idempotentes, es decir:
P ′X = PX ;PXPX = PX
M ′X = MX ;MXMX = MX
(22)
Adicionalmente, PX y MX son ortogonales, es decir:
MXPX = PXMX = 0 (23)
Ası, OLS divide el vector Y en dos partes ortogonales:
Y = PXY + MXY = X β + e (24)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
PX y MX son fundamentales en el analisis de regresion.
PX y MX son matrices simetricas e idempotentes, es decir:
P ′X = PX ;PXPX = PX
M ′X = MX ;MXMX = MX
(22)
Adicionalmente, PX y MX son ortogonales, es decir:
MXPX = PXMX = 0 (23)
Ası, OLS divide el vector Y en dos partes ortogonales:
Y = PXY + MXY = X β + e (24)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Matrices clave
PX y MX son fundamentales en el analisis de regresion.
PX y MX son matrices simetricas e idempotentes, es decir:
P ′X = PX ;PXPX = PX
M ′X = MX ;MXMX = MX
(22)
Adicionalmente, PX y MX son ortogonales, es decir:
MXPX = PXMX = 0 (23)
Ası, OLS divide el vector Y en dos partes ortogonales:
Y = PXY + MXY = X β + e (24)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Proyeccion ortogonal
Considerando K = 2
Figura: Proyeccion de Y sobre el espacio de X
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Expresiones utiles para e ′e
Sabemos que:Y = PXY + MXY
Utilizando el teorema de Pitagoras se cumple que:
Y ′Y = Y ′P ′XPXY + Y ′M ′XMXY
Y ′Y = Y ′Y + e′e(25)
Adicionalmente, se pueden encontrar expresiones utiles para la sumacuadratica de residuos:
e′e = Y ′MXMXY = Y ′MXY = Y ′e = e′Y
e′e = Y ′Y − βX ′X β = Y ′Y − β′X ′Y = Y ′Y − Y ′X β(26)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Expresiones utiles para e ′e
Sabemos que:Y = PXY + MXY
Utilizando el teorema de Pitagoras se cumple que:
Y ′Y = Y ′P ′XPXY + Y ′M ′XMXY
Y ′Y = Y ′Y + e′e(25)
Adicionalmente, se pueden encontrar expresiones utiles para la sumacuadratica de residuos:
e′e = Y ′MXMXY = Y ′MXY = Y ′e = e′Y
e′e = Y ′Y − βX ′X β = Y ′Y − β′X ′Y = Y ′Y − Y ′X β(26)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Expresiones utiles para e ′e
Sabemos que:Y = PXY + MXY
Utilizando el teorema de Pitagoras se cumple que:
Y ′Y = Y ′P ′XPXY + Y ′M ′XMXY
Y ′Y = Y ′Y + e′e(25)
Adicionalmente, se pueden encontrar expresiones utiles para la sumacuadratica de residuos:
e′e = Y ′MXMXY = Y ′MXY = Y ′e = e′Y
e′e = Y ′Y − βX ′X β = Y ′Y − β′X ′Y = Y ′Y − Y ′X β(26)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Expresiones utiles para e ′e
Sabemos que:Y = PXY + MXY
Utilizando el teorema de Pitagoras se cumple que:
Y ′Y = Y ′P ′XPXY + Y ′M ′XMXY
Y ′Y = Y ′Y + e′e(25)
Adicionalmente, se pueden encontrar expresiones utiles para la sumacuadratica de residuos:
e′e = Y ′MXMXY = Y ′MXY = Y ′e = e′Y
e′e = Y ′Y − βX ′X β = Y ′Y − β′X ′Y = Y ′Y − Y ′X β(26)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Como es Var [βols |X ]
Sabemos que:
Var [β|X ] = E [ββ′|X ]− E [β|X ]E [β′|X ] = E [ββ′|X ]− ββ′
Var [β|X ] = E [(X ′X )−1X ′Y ′X (X ′X )−1|X ]− ββ′
Var [β|X ] = (X ′X )−1X ′E [YY ′|X ]′X (X ′X )−1 − ββ′ (27)
Resolviendo E [YY ′|X ] se tiene que:
E [YY ′|X ] = Xββ′X ′ + σ2In (28)
Reemplazando (28) en (27), tenemos que:
Var [β|X ] = (X ′X )−1X ′[Xββ′X ′ + σ2In]′X (X ′X )−1 − ββ′
Var [β|X ] = σ2(X ′X )−1(29)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Como es Var [βols |X ]
Sabemos que:
Var [β|X ] = E [ββ′|X ]− E [β|X ]E [β′|X ] = E [ββ′|X ]− ββ′
Var [β|X ] = E [(X ′X )−1X ′Y ′X (X ′X )−1|X ]− ββ′
Var [β|X ] = (X ′X )−1X ′E [YY ′|X ]′X (X ′X )−1 − ββ′ (27)
Resolviendo E [YY ′|X ] se tiene que:
E [YY ′|X ] = Xββ′X ′ + σ2In (28)
Reemplazando (28) en (27), tenemos que:
Var [β|X ] = (X ′X )−1X ′[Xββ′X ′ + σ2In]′X (X ′X )−1 − ββ′
Var [β|X ] = σ2(X ′X )−1(29)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Como es Var [βols |X ]
Sabemos que:
Var [β|X ] = E [ββ′|X ]− E [β|X ]E [β′|X ] = E [ββ′|X ]− ββ′
Var [β|X ] = E [(X ′X )−1X ′Y ′X (X ′X )−1|X ]− ββ′
Var [β|X ] = (X ′X )−1X ′E [YY ′|X ]′X (X ′X )−1 − ββ′ (27)
Resolviendo E [YY ′|X ] se tiene que:
E [YY ′|X ] = Xββ′X ′ + σ2In (28)
Reemplazando (28) en (27), tenemos que:
Var [β|X ] = (X ′X )−1X ′[Xββ′X ′ + σ2In]′X (X ′X )−1 − ββ′
Var [β|X ] = σ2(X ′X )−1(29)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Como es Var [βols |X ]
Sabemos que:
Var [β|X ] = E [ββ′|X ]− E [β|X ]E [β′|X ] = E [ββ′|X ]− ββ′
Var [β|X ] = E [(X ′X )−1X ′Y ′X (X ′X )−1|X ]− ββ′
Var [β|X ] = (X ′X )−1X ′E [YY ′|X ]′X (X ′X )−1 − ββ′ (27)
Resolviendo E [YY ′|X ] se tiene que:
E [YY ′|X ] = Xββ′X ′ + σ2In (28)
Reemplazando (28) en (27), tenemos que:
Var [β|X ] = (X ′X )−1X ′[Xββ′X ′ + σ2In]′X (X ′X )−1 − ββ′
Var [β|X ] = σ2(X ′X )−1(29)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
¿Como es Var [βols |X ]
Sabemos que:
Var [β|X ] = E [ββ′|X ]− E [β|X ]E [β′|X ] = E [ββ′|X ]− ββ′
Var [β|X ] = E [(X ′X )−1X ′Y ′X (X ′X )−1|X ]− ββ′
Var [β|X ] = (X ′X )−1X ′E [YY ′|X ]′X (X ′X )−1 − ββ′ (27)
Resolviendo E [YY ′|X ] se tiene que:
E [YY ′|X ] = Xββ′X ′ + σ2In (28)
Reemplazando (28) en (27), tenemos que:
Var [β|X ] = (X ′X )−1X ′[Xββ′X ′ + σ2In]′X (X ′X )−1 − ββ′
Var [β|X ] = σ2(X ′X )−1(29)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Condicional en X , Los dos primeros momentos de β son:
E [β] = β
Var [β] = σ2(X ′X )−1
Se tiene un estimador para β(β = (X ′X )−1X ′Y ), pero no para σ2.
Sabemos que σ2In = E [εε|X ] y que ei es la mejor aproximacion de εi .
Un estimador obvio de σ2 es: σ2 = Var [ei ] =∑n
i=1 e2i
n= e′ e
n.
¿Es este estimador insesgado?
E [σ2] = E [e′e
n] =
1
nE [e′e]
E [σ2] =1
nE [(MX ε)′(MX ε)]
E [σ2] =1
nE [ε′M ′XMX ε] =
1
nE [ε′MX ε]
(30)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Note que se cumple que ε′MX ε = traza(ε′MX ε).
Adicionalmente, sabemos que: traza(ABC) = traza(BCA) = traza(CAB)
Por lo tanto, se cumple que:
E [σ2] =1
nE [traza(MX εε
′]
E [σ2] =1
ntraza(MXE [εε′]) =
1
ntraza(MXσ
2In) =σ2
ntraza(MX )
(31)
Note que traza(MX ) = rango(MX ) = n − K . Por lo tanto:
E [σ2] =σ2
n(n − K)
Entonces, E [σ2] = e′ en
es un estimador sesgado de σ2. Un estimadorinsesgado de σ2 es:
E σ2 =e′e
n − K(32)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Note que se cumple que ε′MX ε = traza(ε′MX ε).
Adicionalmente, sabemos que: traza(ABC) = traza(BCA) = traza(CAB)
Por lo tanto, se cumple que:
E [σ2] =1
nE [traza(MX εε
′]
E [σ2] =1
ntraza(MXE [εε′]) =
1
ntraza(MXσ
2In) =σ2
ntraza(MX )
(31)
Note que traza(MX ) = rango(MX ) = n − K . Por lo tanto:
E [σ2] =σ2
n(n − K)
Entonces, E [σ2] = e′ en
es un estimador sesgado de σ2. Un estimadorinsesgado de σ2 es:
E σ2 =e′e
n − K(32)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Note que se cumple que ε′MX ε = traza(ε′MX ε).
Adicionalmente, sabemos que: traza(ABC) = traza(BCA) = traza(CAB)
Por lo tanto, se cumple que:
E [σ2] =1
nE [traza(MX εε
′]
E [σ2] =1
ntraza(MXE [εε′]) =
1
ntraza(MXσ
2In) =σ2
ntraza(MX )
(31)
Note que traza(MX ) = rango(MX ) = n − K . Por lo tanto:
E [σ2] =σ2
n(n − K)
Entonces, E [σ2] = e′ en
es un estimador sesgado de σ2. Un estimadorinsesgado de σ2 es:
E σ2 =e′e
n − K(32)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Note que se cumple que ε′MX ε = traza(ε′MX ε).
Adicionalmente, sabemos que: traza(ABC) = traza(BCA) = traza(CAB)
Por lo tanto, se cumple que:
E [σ2] =1
nE [traza(MX εε
′]
E [σ2] =1
ntraza(MXE [εε′]) =
1
ntraza(MXσ
2In) =σ2
ntraza(MX )
(31)
Note que traza(MX ) = rango(MX ) = n − K . Por lo tanto:
E [σ2] =σ2
n(n − K)
Entonces, E [σ2] = e′ en
es un estimador sesgado de σ2. Un estimadorinsesgado de σ2 es:
E σ2 =e′e
n − K(32)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Cual es el mejor estimador para σ2
Note que se cumple que ε′MX ε = traza(ε′MX ε).
Adicionalmente, sabemos que: traza(ABC) = traza(BCA) = traza(CAB)
Por lo tanto, se cumple que:
E [σ2] =1
nE [traza(MX εε
′]
E [σ2] =1
ntraza(MXE [εε′]) =
1
ntraza(MXσ
2In) =σ2
ntraza(MX )
(31)
Note que traza(MX ) = rango(MX ) = n − K . Por lo tanto:
E [σ2] =σ2
n(n − K)
Entonces, E [σ2] = e′ en
es un estimador sesgado de σ2. Un estimadorinsesgado de σ2 es:
E σ2 =e′e
n − K(32)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Ahora tenemos que Var [β] = σ2(X ′X )−1.
¿Cual es Var(σ2)?
Si asumimos que ε ∼ N (0, σ2I ), ¿Cual es la distribucion de e′e = ε′MX ε?
Teorema 1-Distribucion Normal-Estandar
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
Σ−12 (x − µ) ∼ N (0, Im)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Ahora tenemos que Var [β] = σ2(X ′X )−1.
¿Cual es Var(σ2)?
Si asumimos que ε ∼ N (0, σ2I ), ¿Cual es la distribucion de e′e = ε′MX ε?
Teorema 1-Distribucion Normal-Estandar
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
Σ−12 (x − µ) ∼ N (0, Im)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Ahora tenemos que Var [β] = σ2(X ′X )−1.
¿Cual es Var(σ2)?
Si asumimos que ε ∼ N (0, σ2I ), ¿Cual es la distribucion de e′e = ε′MX ε?
Teorema 1-Distribucion Normal-Estandar
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
Σ−12 (x − µ) ∼ N (0, Im)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Ahora tenemos que Var [β] = σ2(X ′X )−1.
¿Cual es Var(σ2)?
Si asumimos que ε ∼ N (0, σ2I ), ¿Cual es la distribucion de e′e = ε′MX ε?
Teorema 1-Distribucion Normal-Estandar
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
Σ−12 (x − µ) ∼ N (0, Im)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Teorema 2-Distribucion Chi-cuadrado
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
(x − µ)′Σ−1(x − µ) ∼ χ2(m)
donde m = rango(Σ).
Teorema 3-Distribucion de una forma idempotente de un vector normalestandar
Si el vector x ∼ N (0, I ) y A es una matriz idempotente, entonces:
x ′Ax ∼ χ2(rango(A))
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Teorema 2-Distribucion Chi-cuadrado
Si el vector x ∼ N (µ,Σ). Donde x es de dimension m × 1, µ es el vector demedias y Σ es la matriz de varianzas y covarianzas, entonces:
(x − µ)′Σ−1(x − µ) ∼ χ2(m)
donde m = rango(Σ).
Teorema 3-Distribucion de una forma idempotente de un vector normalestandar
Si el vector x ∼ N (0, I ) y A es una matriz idempotente, entonces:
x ′Ax ∼ χ2(rango(A))
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Sabemos que:
e′e = ε′MX ε = σ2( εσ
)′MX
( εσ
)
Usando el Teorema 2, sabemos que:
U =( εσ
)′MX
( εσ
)∼ χ2
n−K (33)
Entonces, se cumple que:
E [U ] = n − K
Var [U ] = 2(n − K)(34)
Ası, se tiene que:
σ2 =e′e
n − K=
σ2
n − KU
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Sabemos que:
e′e = ε′MX ε = σ2( εσ
)′MX
( εσ
)Usando el Teorema 2, sabemos que:
U =( εσ
)′MX
( εσ
)∼ χ2
n−K (33)
Entonces, se cumple que:
E [U ] = n − K
Var [U ] = 2(n − K)(34)
Ası, se tiene que:
σ2 =e′e
n − K=
σ2
n − KU
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Sabemos que:
e′e = ε′MX ε = σ2( εσ
)′MX
( εσ
)Usando el Teorema 2, sabemos que:
U =( εσ
)′MX
( εσ
)∼ χ2
n−K (33)
Entonces, se cumple que:
E [U ] = n − K
Var [U ] = 2(n − K)(34)
Ası, se tiene que:
σ2 =e′e
n − K=
σ2
n − KU
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Sabemos que:
e′e = ε′MX ε = σ2( εσ
)′MX
( εσ
)Usando el Teorema 2, sabemos que:
U =( εσ
)′MX
( εσ
)∼ χ2
n−K (33)
Entonces, se cumple que:
E [U ] = n − K
Var [U ] = 2(n − K)(34)
Ası, se tiene que:
σ2 =e′e
n − K=
σ2
n − KU
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Ordinary Least Squares (OLS)Propiedades del estimador OLSVarianza del estimador OLSDistribucion de los estimadores OLSAlgunos teoremas para distribuciones multivariadas
Distribuciones utiles
Entonces, se cumple que:
E [σ2] =σ2
n − KE [U ] =
σ2(n − K)
n − K= σ2
Var [σ2] = Var
(σ2
n − KU)
=σ4
(n − K)2Var (U)
Var [σ2] =σ4
(n − K)22(n − K) =
2σ4
n − K
(35)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Mas distribuciones conocidas
Teorema 4-Distribucion t
Si el vector z ∼ N (0, 1) y x ∼ χ2(m); entonces si z y x son independientes,
entonces :
z√χ2/m
∼ t(m)
Teorema 5-Independencia entre una forma lineal y una forma cuadratica
Considera una forma lineal Lx , donde x es un vector de dimension m× 1; y unaforma cuadratica x ′Ax . Entonces estas son independientes si L.A = 0.
Teorema 6-Independencia de formas cuadraticas idempotentes
Sea x ∼ N (0, I ). x ′Ax y x ′Bx son formas cuadraticas idempotentes. Estasformas son independientes si A.B = 0
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Mas distribuciones conocidas
Teorema 4-Distribucion t
Si el vector z ∼ N (0, 1) y x ∼ χ2(m); entonces si z y x son independientes,
entonces :
z√χ2/m
∼ t(m)
Teorema 5-Independencia entre una forma lineal y una forma cuadratica
Considera una forma lineal Lx , donde x es un vector de dimension m× 1; y unaforma cuadratica x ′Ax . Entonces estas son independientes si L.A = 0.
Teorema 6-Independencia de formas cuadraticas idempotentes
Sea x ∼ N (0, I ). x ′Ax y x ′Bx son formas cuadraticas idempotentes. Estasformas son independientes si A.B = 0
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Mas distribuciones conocidas
Teorema 4-Distribucion t
Si el vector z ∼ N (0, 1) y x ∼ χ2(m); entonces si z y x son independientes,
entonces :
z√χ2/m
∼ t(m)
Teorema 5-Independencia entre una forma lineal y una forma cuadratica
Considera una forma lineal Lx , donde x es un vector de dimension m× 1; y unaforma cuadratica x ′Ax . Entonces estas son independientes si L.A = 0.
Teorema 6-Independencia de formas cuadraticas idempotentes
Sea x ∼ N (0, I ). x ′Ax y x ′Bx son formas cuadraticas idempotentes. Estasformas son independientes si A.B = 0
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Mas distribuciones conocidas
Teorema 6-Distribucion F
Sea x ∼ N (0, I ). Sean U = x ′Ax y V = x ′Bx formas cuadraticas idempotentesindependientes (A.B = 0), entonces:
U ∼ χ2(rango(A)),V ∼ χ2
(rango(B))
U/rango(A)
V/rango(B)∼ F(rango(A),rango(B))
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Sabemos que:
β = (X ′X )−1X ′Y ;Var(β) = σ2(X ′X )−1
Consideremos la siguiente prueba de hipotesis:
H0 : βk = βk
H1 : βk 6= βk(36)
Para evaluar una hipotesis es necesario un estadıstico con distribucionconocida. Un candidato para esta hipotesis es:
z =βk − βk√σ2(X ′X )−1
kk
∼H0 N (0, 1) (37)
Sin embargo, el estadıstico z no es apropiado, salvo que σ2 sea conocido.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Sabemos que:
β = (X ′X )−1X ′Y ;Var(β) = σ2(X ′X )−1
Consideremos la siguiente prueba de hipotesis:
H0 : βk = βk
H1 : βk 6= βk(36)
Para evaluar una hipotesis es necesario un estadıstico con distribucionconocida. Un candidato para esta hipotesis es:
z =βk − βk√σ2(X ′X )−1
kk
∼H0 N (0, 1) (37)
Sin embargo, el estadıstico z no es apropiado, salvo que σ2 sea conocido.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Sabemos que:
β = (X ′X )−1X ′Y ;Var(β) = σ2(X ′X )−1
Consideremos la siguiente prueba de hipotesis:
H0 : βk = βk
H1 : βk 6= βk(36)
Para evaluar una hipotesis es necesario un estadıstico con distribucionconocida. Un candidato para esta hipotesis es:
z =βk − βk√σ2(X ′X )−1
kk
∼H0 N (0, 1) (37)
Sin embargo, el estadıstico z no es apropiado, salvo que σ2 sea conocido.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Sabemos que:
β = (X ′X )−1X ′Y ;Var(β) = σ2(X ′X )−1
Consideremos la siguiente prueba de hipotesis:
H0 : βk = βk
H1 : βk 6= βk(36)
Para evaluar una hipotesis es necesario un estadıstico con distribucionconocida. Un candidato para esta hipotesis es:
z =βk − βk√σ2(X ′X )−1
kk
∼H0 N (0, 1) (37)
Sin embargo, el estadıstico z no es apropiado, salvo que σ2 sea conocido.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Se puede construir un estadıstico usando z y el hecho de que :( εσ
)′MX
( εσ
)∼ χ2
(n−K)
Sabemos que
e′e = σ2( εσ
)′MX
( εσ
).
Entonces se debe cumplir que :
n − K
σ2
e′e
n − K=
n − K
σ2σ2 ∼ χ2
(n−K) (38)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Se puede construir un estadıstico usando z y el hecho de que :( εσ
)′MX
( εσ
)∼ χ2
(n−K)
Sabemos que
e′e = σ2( εσ
)′MX
( εσ
).
Entonces se debe cumplir que :
n − K
σ2
e′e
n − K=
n − K
σ2σ2 ∼ χ2
(n−K) (38)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Se puede construir un estadıstico usando z y el hecho de que :( εσ
)′MX
( εσ
)∼ χ2
(n−K)
Sabemos que
e′e = σ2( εσ
)′MX
( εσ
).
Entonces se debe cumplir que :
n − K
σ2
e′e
n − K=
n − K
σ2σ2 ∼ χ2
(n−K) (38)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Ası, se puede construir el siguiente estadıstico:
βk−βk√σ2(X ′X )−1
kk√n−K
σ2 σ2
n−K
=βk − βk√σ2(X ′X )−1
kk
∼ t(n−k) (39)
¿Como sabemos que podemos usar la prueba t? ¿z y(εσ
)′MX
(εσ
)son
independientes? ¿Como probamos esto?
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Ası, se puede construir el siguiente estadıstico:
βk−βk√σ2(X ′X )−1
kk√n−K
σ2 σ2
n−K
=βk − βk√σ2(X ′X )−1
kk
∼ t(n−k) (39)
¿Como sabemos que podemos usar la prueba t? ¿z y(εσ
)′MX
(εσ
)son
independientes? ¿Como probamos esto?
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Inferencia sobre parametros estimados
Ası, se puede construir el siguiente estadıstico:
βk−βk√σ2(X ′X )−1
kk√n−K
σ2 σ2
n−K
=βk − βk√σ2(X ′X )−1
kk
∼ t(n−k) (39)
¿Como sabemos que podemos usar la prueba t? ¿z y(εσ
)′MX
(εσ
)son
independientes? ¿Como probamos esto?
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Representacion matricial
Consideremos hipotesis que involucren solo una restriccion lineal:
(1)H0 : β3 = β3 = 0
(2)H0 : 2β1 + 3β4 = 5(40)
Sea R la matriz de restricciones, r un escalar tal que Rβ = r . Suponiendoque K = 5, se tiene :
(1)R =(0 0 1 0 0
), r = 0 ; (2)R =
(2 0 0 3 0
), r = 5
(41)
Ası, el estadıstico para la prueba t puede escribirse como:
Rβ − r√σ2R(X ′X )−1R ′
∼ t(n−K) (42)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Representacion matricial
Consideremos hipotesis que involucren solo una restriccion lineal:
(1)H0 : β3 = β3 = 0
(2)H0 : 2β1 + 3β4 = 5(40)
Sea R la matriz de restricciones, r un escalar tal que Rβ = r . Suponiendoque K = 5, se tiene :
(1)R =(0 0 1 0 0
), r = 0 ; (2)R =
(2 0 0 3 0
), r = 5
(41)
Ası, el estadıstico para la prueba t puede escribirse como:
Rβ − r√σ2R(X ′X )−1R ′
∼ t(n−K) (42)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Representacion matricial
Consideremos hipotesis que involucren solo una restriccion lineal:
(1)H0 : β3 = β3 = 0
(2)H0 : 2β1 + 3β4 = 5(40)
Sea R la matriz de restricciones, r un escalar tal que Rβ = r . Suponiendoque K = 5, se tiene :
(1)R =(0 0 1 0 0
), r = 0 ; (2)R =
(2 0 0 3 0
), r = 5
(41)
Ası, el estadıstico para la prueba t puede escribirse como:
Rβ − r√σ2R(X ′X )−1R ′
∼ t(n−K) (42)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Representacion matricial
Consideremos hipotesis que involucren solo una restriccion lineal:
(1)H0 : β3 = β3 = 0
(2)H0 : 2β1 + 3β4 = 5(40)
Sea R la matriz de restricciones, r un escalar tal que Rβ = r . Suponiendoque K = 5, se tiene :
(1)R =(0 0 1 0 0
), r = 0 ; (2)R =
(2 0 0 3 0
), r = 5
(41)
Ası, el estadıstico para la prueba t puede escribirse como:
Rβ − r√σ2R(X ′X )−1R ′
∼ t(n−K) (42)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Consideremos la siguiente hipotesis nula:
H0 : β1 + β3 = 3
2β4 − β5 =
β2 = 4
1 (43)
H1: Alguna restriccion no se cumple. Para K = 5 Rβ = r se puedeexpresar con:
R =
1 0 1 0 00 0 0 2 −10 1 0 0 0
; r =
314
(44)
En este caso, en lugar de usar una prueba t , podemos utilizar el hecho deque :
Rβ − r ∼H0 N (0, σ2R(X ′X )−1R ′)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Consideremos la siguiente hipotesis nula:
H0 : β1 + β3 = 3
2β4 − β5 =
β2 = 4
1 (43)
H1: Alguna restriccion no se cumple. Para K = 5 Rβ = r se puedeexpresar con:
R =
1 0 1 0 00 0 0 2 −10 1 0 0 0
; r =
314
(44)
En este caso, en lugar de usar una prueba t , podemos utilizar el hecho deque :
Rβ − r ∼H0 N (0, σ2R(X ′X )−1R ′)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Consideremos la siguiente hipotesis nula:
H0 : β1 + β3 = 3
2β4 − β5 =
β2 = 4
1 (43)
H1: Alguna restriccion no se cumple. Para K = 5 Rβ = r se puedeexpresar con:
R =
1 0 1 0 00 0 0 2 −10 1 0 0 0
; r =
314
(44)
En este caso, en lugar de usar una prueba t , podemos utilizar el hecho deque :
Rβ − r ∼H0 N (0, σ2R(X ′X )−1R ′)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Ası, se pueden utilizar dos estadısticos para este tipo de pruebas dehipotesis.
Estadıstico de Wald
W =
[(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]′ [(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]
W =(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1 (Rβ − r
)∼ χ2
(J) (45)
donde J es el numero de restricciones.
Dado que σ2 no es conocido, la prueba de Wald se reserva para casos enlos que n→∞ (σ2 = σ2).
Necesitamos un estadıstico general que se pueda usar sin necesidad de quen→∞.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Ası, se pueden utilizar dos estadısticos para este tipo de pruebas dehipotesis.
Estadıstico de Wald
W =
[(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]′ [(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]
W =(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1 (Rβ − r
)∼ χ2
(J) (45)
donde J es el numero de restricciones.
Dado que σ2 no es conocido, la prueba de Wald se reserva para casos enlos que n→∞ (σ2 = σ2).
Necesitamos un estadıstico general que se pueda usar sin necesidad de quen→∞.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Ası, se pueden utilizar dos estadısticos para este tipo de pruebas dehipotesis.
Estadıstico de Wald
W =
[(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]′ [(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]
W =(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1 (Rβ − r
)∼ χ2
(J) (45)
donde J es el numero de restricciones.
Dado que σ2 no es conocido, la prueba de Wald se reserva para casos enlos que n→∞ (σ2 = σ2).
Necesitamos un estadıstico general que se pueda usar sin necesidad de quen→∞.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Ası, se pueden utilizar dos estadısticos para este tipo de pruebas dehipotesis.
Estadıstico de Wald
W =
[(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]′ [(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]
W =(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1 (Rβ − r
)∼ χ2
(J) (45)
donde J es el numero de restricciones.
Dado que σ2 no es conocido, la prueba de Wald se reserva para casos enlos que n→∞ (σ2 = σ2).
Necesitamos un estadıstico general que se pueda usar sin necesidad de quen→∞.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Ası, se pueden utilizar dos estadısticos para este tipo de pruebas dehipotesis.
Estadıstico de Wald
W =
[(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]′ [(σ2R(X ′X )−1R ′
)− 12(Rβ − r
)]
W =(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1 (Rβ − r
)∼ χ2
(J) (45)
donde J es el numero de restricciones.
Dado que σ2 no es conocido, la prueba de Wald se reserva para casos enlos que n→∞ (σ2 = σ2).
Necesitamos un estadıstico general que se pueda usar sin necesidad de quen→∞.
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Estadıstico F: Sabemos que:( εσ
)′MX
( εσ
)=
n − K
σ2σ2 ∼ χ2
(n−K)
Entonces el estadıstico F es:
F =
(Rβ−r)′[σ2R(X ′X )−1R′]−1(Rβ−r)J
n−K
σ2 σ2
n−K
F =
(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1(Rβ − r
)J
∼ F(J,n−K) (46)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Estadıstico F: Sabemos que:( εσ
)′MX
( εσ
)=
n − K
σ2σ2 ∼ χ2
(n−K)
Entonces el estadıstico F es:
F =
(Rβ−r)′[σ2R(X ′X )−1R′]−1(Rβ−r)J
n−K
σ2 σ2
n−K
F =
(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1(Rβ − r
)J
∼ F(J,n−K) (46)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Distribuciones relacionadasPruebas de Hipotesis IndividualesHipotesis con J restricciones lineales
Pruebas de hipotesis conjuntas
Estadıstico F: Sabemos que:( εσ
)′MX
( εσ
)=
n − K
σ2σ2 ∼ χ2
(n−K)
Entonces el estadıstico F es:
F =
(Rβ−r)′[σ2R(X ′X )−1R′]−1(Rβ−r)J
n−K
σ2 σ2
n−K
F =
(Rβ − r
)′ [σ2R(X ′X )−1R ′
]−1(Rβ − r
)J
∼ F(J,n−K) (46)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
El R2 mide que tan bien se ajusta el modelo a los datos observados.
Sabemos que:yi = yi + ei = Xi β + ei
Restando y de ambos lados, tenemos:
yi − y = Xi β − X β + ei − ¯e
yi − y = (Xi − X )β + ei − ¯e (47)
Si el modelo tiene intercepto (¯e = 0), entonces podemos expresar laecuacion previa, en terminos matriciales como:
Y − Y = (X − X )β + e (48)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
El R2 mide que tan bien se ajusta el modelo a los datos observados.
Sabemos que:yi = yi + ei = Xi β + ei
Restando y de ambos lados, tenemos:
yi − y = Xi β − X β + ei − ¯e
yi − y = (Xi − X )β + ei − ¯e (47)
Si el modelo tiene intercepto (¯e = 0), entonces podemos expresar laecuacion previa, en terminos matriciales como:
Y − Y = (X − X )β + e (48)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
El R2 mide que tan bien se ajusta el modelo a los datos observados.
Sabemos que:yi = yi + ei = Xi β + ei
Restando y de ambos lados, tenemos:
yi − y = Xi β − X β + ei − ¯e
yi − y = (Xi − X )β + ei − ¯e (47)
Si el modelo tiene intercepto (¯e = 0), entonces podemos expresar laecuacion previa, en terminos matriciales como:
Y − Y = (X − X )β + e (48)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
El R2 mide que tan bien se ajusta el modelo a los datos observados.
Sabemos que:yi = yi + ei = Xi β + ei
Restando y de ambos lados, tenemos:
yi − y = Xi β − X β + ei − ¯e
yi − y = (Xi − X )β + ei − ¯e (47)
Si el modelo tiene intercepto (¯e = 0), entonces podemos expresar laecuacion previa, en terminos matriciales como:
Y − Y = (X − X )β + e (48)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
El R2 mide que tan bien se ajusta el modelo a los datos observados.
Sabemos que:yi = yi + ei = Xi β + ei
Restando y de ambos lados, tenemos:
yi − y = Xi β − X β + ei − ¯e
yi − y = (Xi − X )β + ei − ¯e (47)
Si el modelo tiene intercepto (¯e = 0), entonces podemos expresar laecuacion previa, en terminos matriciales como:
Y − Y = (X − X )β + e (48)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Adicionalmente, definimos la matriz M0(matriz que arroja desviacionesrespecto de la media) como:
M0 = In −ιι′
n(49)
donde ι es un vector de unos , de dimension n × 1
M0 es simetrica e idempotente.
Ası, (48) puede escribirse como:
Y − Y = (X − X )β + e
M0Y = M0X β + M0e(50)
Ası, la suma cuadratica de las desviaciones de Y respecto de su mediapuede escribirse como:
(M0Y )′(M0Y ) = (M0X β + M0e)′(M0X β + M0e) (51)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Adicionalmente, definimos la matriz M0(matriz que arroja desviacionesrespecto de la media) como:
M0 = In −ιι′
n(49)
donde ι es un vector de unos , de dimension n × 1
M0 es simetrica e idempotente.
Ası, (48) puede escribirse como:
Y − Y = (X − X )β + e
M0Y = M0X β + M0e(50)
Ası, la suma cuadratica de las desviaciones de Y respecto de su mediapuede escribirse como:
(M0Y )′(M0Y ) = (M0X β + M0e)′(M0X β + M0e) (51)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Adicionalmente, definimos la matriz M0(matriz que arroja desviacionesrespecto de la media) como:
M0 = In −ιι′
n(49)
donde ι es un vector de unos , de dimension n × 1
M0 es simetrica e idempotente.
Ası, (48) puede escribirse como:
Y − Y = (X − X )β + e
M0Y = M0X β + M0e(50)
Ası, la suma cuadratica de las desviaciones de Y respecto de su mediapuede escribirse como:
(M0Y )′(M0Y ) = (M0X β + M0e)′(M0X β + M0e) (51)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Adicionalmente, definimos la matriz M0(matriz que arroja desviacionesrespecto de la media) como:
M0 = In −ιι′
n(49)
donde ι es un vector de unos , de dimension n × 1
M0 es simetrica e idempotente.
Ası, (48) puede escribirse como:
Y − Y = (X − X )β + e
M0Y = M0X β + M0e(50)
Ası, la suma cuadratica de las desviaciones de Y respecto de su mediapuede escribirse como:
(M0Y )′(M0Y ) = (M0X β + M0e)′(M0X β + M0e) (51)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Adicionalmente, definimos la matriz M0(matriz que arroja desviacionesrespecto de la media) como:
M0 = In −ιι′
n(49)
donde ι es un vector de unos , de dimension n × 1
M0 es simetrica e idempotente.
Ası, (48) puede escribirse como:
Y − Y = (X − X )β + e
M0Y = M0X β + M0e(50)
Ası, la suma cuadratica de las desviaciones de Y respecto de su mediapuede escribirse como:
(M0Y )′(M0Y ) = (M0X β + M0e)′(M0X β + M0e) (51)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Operando y utilizando la condicion de OLS (X ′e = 0), tenemos que:
Y ′M0Y = β′X ′M0X β + e′e
Diviendo la ultima expresion por Y ′M0Y , tenemos que:
1 =β′X ′M0X β
Y ′M0Y+
e′e
Y ′M0Y(52)
Finalmente, se define la medida de bondad de ajuste como:
R2 =β′X ′M0X β
Y ′M0Y= 1− e′e
Y ′M0Y,R2 ∈ [0, 1] (53)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Operando y utilizando la condicion de OLS (X ′e = 0), tenemos que:
Y ′M0Y = β′X ′M0X β + e′e
Diviendo la ultima expresion por Y ′M0Y , tenemos que:
1 =β′X ′M0X β
Y ′M0Y+
e′e
Y ′M0Y(52)
Finalmente, se define la medida de bondad de ajuste como:
R2 =β′X ′M0X β
Y ′M0Y= 1− e′e
Y ′M0Y,R2 ∈ [0, 1] (53)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
¿Cuanto podemos explicar con nuestro modelo?
Operando y utilizando la condicion de OLS (X ′e = 0), tenemos que:
Y ′M0Y = β′X ′M0X β + e′e
Diviendo la ultima expresion por Y ′M0Y , tenemos que:
1 =β′X ′M0X β
Y ′M0Y+
e′e
Y ′M0Y(52)
Finalmente, se define la medida de bondad de ajuste como:
R2 =β′X ′M0X β
Y ′M0Y= 1− e′e
Y ′M0Y,R2 ∈ [0, 1] (53)
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico
El Modelo Lineal ClasicoMetodos de Estimacion
Pruebas de HipotesisBondad de Ajuste
Coeficiente de Determinacion R2
R2 ajustado (R2)
Adicionalmente, podemos tener una medida de bonda de ajuste quepenaliza la agregacion de variables redundantes.
R2 = 1− n − 1
n − K
e′e
Y ′M0Y, R2 ≤ R2 (54)
Notese que si el modelo no tiene intercepto, entonces M0e 6= e yX ′M0e 6= 0. En este caso, no se puede establecer claramente el valor deR2 (¡incluso puede ser negativo!).
En estos casos, se pueden usar otras alternativas como medida de bondadde ajuste.
R22 =
β′X ′Y
Y ′M0Y
R23 =
(Cov(Y ,Y )
σYσY
)2
Erix Ruiz Osinergmin Econometrıa Modelo Lineal Clasico