61
UNIVERSIDAD DE PANAMÁ VICERRECTORÍA DE INVESTIGACIÓN Y POSTGRADO PROGRAMA CENTROAMERICANO DE MAESTRÍA EN MATEMÁTICA EL MODELO DE REGRESIÓN LINEAL MULTIVARIADO Y SU APLICACIÓN. POR: ALBERTO CASTILLO PORTUGAL TESIS PRESENTADA COMO UNO DE LOS REQUISITOS PARA OPTAR POR EL TITULO DE MAESTRO EN CIENCIAS CON ESPECIALIZACIÓN EN ESTADÍSTICA MATEMÁTICA. PANAMÁ, REP . DE PANAMÁ 2002

EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

  • Upload
    lenhu

  • View
    223

  • Download
    0

Embed Size (px)

Citation preview

Page 1: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

UNIVERSIDAD DE PANAMÁ

VICERRECTORÍA DE INVESTIGACIÓN Y POSTGRADO

PROGRAMA CENTROAMERICANO DE MAESTRÍA EN MATEMÁTICA

EL MODELO DE REGRESIÓN LINEAL

MULTIVARIADO Y SU APLICACIÓN.

POR:

ALBERTO CASTILLO PORTUGAL

TESIS PRESENTADA COMO UNO DE LOS REQUISITOS PARA

OPTAR POR EL TITULO DE MAESTRO EN CIENCIAS CON

ESPECIALIZACIÓN EN ESTADÍSTICA MATEMÁTICA.

PANAMÁ, REP. DE PANAMÁ

2002

Page 2: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

= APROBADO POR :

M . en C. GLADYS E. SEGURAPRESIDENTE

M . en C. JOSE OCHOAMIEMBRO

2LA VICERRECTORIA

CION Y POSTGRADOAN

STIG

b

1

Page 3: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

DEDICATORIA

Page 4: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

Dedico este trabajo de graduación, permanentemente a Dios

Todopoderoso, como muestra de gratitud por la oportunidad que me

ha brindado de superarme en mi vida profesional, a mis padres y

esposa por su apoyo y comprensión, a mis hijos Katherine, Jesús y

Alexis, como ejemplo de la constancia en el esfuerzo por ser mejor

cada día.

Page 5: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

AGRADECIMIENTO

Page 6: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

Agradezco infinitamente a Dios, por darme la oportunidad,

fuerza y conocimiento para culminar mis estudios ; a mi asesora la

Profesora Gladys Segura por sus empeño y constancia durante la

realización de este trabajo .

Page 7: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

INDICE GENERAL

Page 8: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

Pág.

RESUMEN 1

INTRODUCCIÓN 2

CAPÍTULO I. EL MODELO DE REGRESIÓN LINEAL

MULTI VARIADO 5

La Ecuación de Regresión 6

Matrices del Modelo 7

La Función de Verosimilitud del modelo 11

Propiedades del Modelo 12

Propiedades de la matriz P 12

Estimadores de máxima verosimilitud de B y E 14

Propiedad de los estimadores de B y E 18

Distribución de B

CAPÍTULO 11. PRIJEBAS DE HIPÓTESIS

'Tipo de prueba según las matrices

La distribución Wishart Centrada

Distribución de M 1 Y' + P2 Y, M i

Prueba de Razón de Verosimilitud

El Estadístico de Wilk's

28

31

32

34

40

43

44

Page 9: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

El estadístico de prueba dado por LnA 45

Pruebas de unión e intersección 53

Intervalo de confianza para y la Correlación Múltiple 58

Correlación Múltiple 64

Coeficiente de Correlación Múltiple 65

Correlación para muestras Grandes 68

CAPÍTULO M. ANÁLISIS E INTERPRETACIÓN DE LOS

RESULTADOS '71

Análisis de los Resultados Obtenidos en el Área Urbana 72

Análisis de Regresión Multivariado de la Variable Salario para el Área

Urbana 73

Análisis de Regresión Multivariado de la Variable Ingreso para el Área

Urbana 74

Análisis de los Resultados Obtenidos en el Área Indígena 83

Análisis de Regresión Multivariado de la Variable Salario para el Área

Indígena 83

Análisis de Regresión Multivariado de la Variable Ingreso para el Área

Indígena 84

CONCLUSIONES Y RECOMENDACIONES 93

BIBLIOGRAFÍA 95

ANEXO 98

Page 10: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

INDICE DE CUADROS

Page 11: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

Pág.

Cuadro 1 .

Estadística descriptiva, muestra los valores promedios y

las desviaciones estándar de cada una de las variables en

el estudio sobre niveles de vida en el área Urbana, 1997 . 78

Cuadro II . Análisis de varianza para el modelo de regresión lineal

multivariado de la variable explicada salario con respecto

a las variables explicativas en el estudio de niveles de

vida en el área urbana, 1997 79

Cuadro 111 . Estimación de parámetros, el estadístico para la

unificación de la hipótesis nula y las respectivas

probabilidades en cada uno de los casos para las variables

en estudio con respecto a la variable salario en área

urbana, 1997 80

Cuadro IV . Análisis de varianza para el modelo de regresión

multivariado de la variable explicada ingreso, con

respecto a las variables explicativas en. estudio sobre

niveles de vida en el área urbana, 1997 81

Cuadro V . Cuadro V. Estimación de parámetros, el estadístico t

para la verificación de la hipótesis nula y las respectivas

probabilidades en cada uno de los casos para las variables

en estudio con respecto a la variable Ingreso en área

urbana, 1997 82

Page 12: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

Pág.

Cuadro VI . Estadística descriptiva, muestra los valores promedios y

las desviaciones estándar de cada una de las variables en

el estudio sobre niveles de vida en el área indígena, 1997 88

Cuadro VII. Análisis de varianza para el modelo de regresión lineal

multivariado de la variable explicada salario con respecto

a las variables explicativas en el estudio de niveles de

vida en el área indígena, 1997 89

Cuadro VIII. Estimación de parámetros, el estadístico para la

unificación de la hipótesis nula y las respectivas

probabilidades en cada uno de los casos para las variables

en estudio con respecto a la variable salario en área

indígena, 1997 90

Cuadro IX . Análisis de varianza para el modelo de regresión

multivariado de la variable explicada ingreso, con

respecto a las variables explicativas en estudio sobre

niveles de vida en el área indígena, 1997 91

Cuadro X. Cuadro V. Estimación de parámetros, el estadístico t

para la verificación de la hipótesis nula y las respectivas

probabilidades en cada uno de los casos para las variables

en estudio con respecto a la variable Ingreso en área

indígena, 1997 92

Page 13: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

RESUMENEn el presente trabajo definimos el modelo de regresión lineal

multivariado, en su forma matricial, demostrándose algunas de laspropiedades de los estimadores, tanto en el insesgamiento como en laverosimilitud.

Se plantean las pruebas de hipótesis referente a la matriz deparámetros, para comprobar la correlación existente entre las variablesexplicativas y las explicadas, con el uso de la distribución Wishart, dondese demuestran algunas proposiciones de esta distribución . Tambiénconsiderarnos dentro de este modelo la prueba de razón de verosimilitud y elestadístico de Wilks, utilizado en la realización de pruebas de hipótesis.

Contemplamos los intervalos de confianza para un valor numérico,con el apoyo de las distribución Wishart, T2 y F. Además se consideró el.Coeficiente de Correlación multivariado, para la base de datosproporcionada por el M.1.P.P.E . (Ministerio de Planificación y PolíticaEconómico), sobre los niveles de vida en Panamá, en la que se determinó laecuación de regresión multivariada, se realizan pruebas de hipótesis paraverificar las influencia de las variables explicativas.

SUMMARYPresent work defined the model of multivaried lineal regression, in

their matricial form, demonstrating some of the properties of the estimators,so much in the unbiasing like in the verisimilitude.

We are expounded the hypothesis taste with respect to the womb ofparameters, in order to check the existent correlation between theexplanatory variables and explained variables, with the use of the WishartDistribution, where some propositions of these distribution aredemonstrated. We also considered within this model taste reason ofverisimilitude and the Statistic of Wilk's, utilized in the realization of youtaste hypothesis.

We contemplated the intervals of trust for a numerie courage, with thesupport of the Wishart Distribution, T2 and F. were Also considered themultivaried correlation coefficient, for the base of data proportioned by theM.I.P.P.E . (Ministry of Planning and Economical Politics), on the levels oflife in Panama, they in the one which was determined the equation ofmultivaried regression, are carried out taste hypothesis in order to verify theinfluence of the explanatory variables.

Page 14: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

INTRODUCCIÓN

Page 15: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

3

Es normal encontrar en la realización de investigaciones muchas

variables explicativas y explicadas, que influyen en cierto grado dentro de

un fenómeno dado, por tal razón es de gran utilidad trabajar con todas ellas.

Una forma de estudiar estas variables en conjunto, es a través del

Modelo de Regresión Lineal Multivariado y de la correlación de las mismas

con las que se puede hacer las interrelaciones, estimando la matriz de los

parámetros de todos las variables explicativas y explicadas, además ver las

interrelaciones de dos a dos .

La regresión fue utilizada por primera vez en el año 1880 por el

científico inglés Sir Francis Galton, dedicado a investigaciones genéticas,

quien trataba de establecer las características trasmitidas de padres a hijos a

través de sus estaturas.

El modelo de regresión nos permite eliminar aquellas variables que

producen poco o ningún efecto en la regresión, esto por medio de las

pruebas de hipótesis o de la correlación. Realizar estimaciones es esencial

en el modelo de regresión, donde se ha de comprobar la significancia de la

ecuación por medio del coeficiente de determinación .

Page 16: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

4

Los intervalos de confianza también son considerados en la regresión

como un elemento que ayuda a fortalecer los resultados con el coeficiente de

determinación como una forma de evaluar la ecuación de regresión por

medio de la proximidad del ajuste a los valores observados.

Este trabajo contempla tres capítulos con los siguientes contenidos:

En el primer capítulo se considera la ecuación de regresión, matrices

del modelo, algunas propiedades del modelo y de la matriz P, además de los

estimadores de las matrices B y E.

El segundo capítulo hace referencia a las pruebas de hipótesis según

las matrices, la distribución Wishart centrada con sus propiedades, se

definen algunos estadísticos, además de los intervalos de confianza, la

correlación múltiple y el coeficiente de determinación, con lo que termina la

parte teórica.

El capítulo tercero considera el análisis e interpretación de los

resultados, en el que se determina la ecuación de regresión, se hacen

estimaciones, además se realizan pruebas de hipótesis y se calcula el

coeficiente de correlación sobre una base de datos, referente a una encuesta

de niveles de vida en Panamá, en el año 1997 .

Page 17: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

CAPÍTULO I

EL MODELO DE REGRESIÓN LINEAL MULTIVARIADO

Page 18: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

6

La Ecuación de Regresión.

Consideramos el modelo definido por Y = XB + E , donde las

matrices Y, X, B y E son tales que Y (,,,,p) es una matriz observada, de p

variables respuestas en cada uno de los n vectores de variables aleatorios;

Xcn,,.q> una matriz de valores fijos, q variables independientes observadas en

cada uno de los n vectores filas ; donde estos vectores filas son mutuamente

independientes, cada una con matriz de media cero (0) y matriz de varianza

covarianza común E ; B(qxp) es una matriz de parámetros desconocidos,

afectados por las filas de X y E(mcp) es una matriz aleatoria de valores

desconocidos (matriz de error).

La ecuación lineal Y = XB + E (1) es llamada Modelo de Regresión

Lineal Multivariado. En el caso de que X sea una matriz aleatoria, entonces

la distribución de E se asume que no está relacionada con X.

En particular las variables X„ X 2 , . . ., Xq predicen cada una de las

Y's.

Las columnas de la matriz Y representan variables dependientes que

están explicadas en términos de las variables independientes o explicativas

dadas por las columnas de X .

Page 19: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

7

Matrices del Modelo.

Así, el modelo lineal Y = XB + E en su forma matricial es:

YII

-Y12 ••• Ylp

Y21

Y22 ••

Y2p

1

1

Y/{12 . . . RI P

_ 1

QI I

e 12

1P

e22

. . .

e2P

1

X11

X,2 . . . X 14

1

X 21

X 22 . . . X24

+

YnI

Yn2 . . . Yn P

[1

x ,a

x,a . . . x p_As

en,

e,2

. . .

enP

nxp = nx(q + 1) * [(q + 1)xp]+ nxp

Aquí, cada columna de la matriz X representa un vector de variables

unitarias; cada uno de los n vectores filas de Y contiene los valores de las p

variables medidas en un sujeto.

Cada una de las columnas de Y consiste de las observaciones en cada

una de las p variables que corresponden a un vector unitario Y(). Para cada

columna de Y tenemos una columna de parámetros de (3's . Las columnas

de (3's forman una matriz a la que llamamos B.

El modelo también puede ser expresado en términos de los vectores

columnas, en el caso de que los vectores de la matriz respuesta estén dados

en columna; para la i-ésima respuesta, el modelo se puede escribir como

Y( ; 1=XB O +epa ; 15- i5p .

Page 20: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

8

donde Y(), B (i) y F.o ) son vectores columnas.

En este caso el modelo así definido recibe el nombre de modelo de

Regresión Lineal Múltiple.

Por otro lado los n vectores de orden (pxl) de la matriz E, están

distribuidos normalmente con matriz de media (0) y matriz de covarianza

E.

Definición I.1

Diremos que la matriz de error E„~) _ (s, , E2 )' en donde para cada

1 < n el e; corresponde a un vector fila de orden lxp que representa el

i-ésimo vector aleatorio de error, tiene distribución normal con matriz de

media (0) y matriz de varianza covarianza E . Además E — N p(0, I0 E) ,

donde I es la matriz identidad de orden (nxn) y I®E denota el producto de

Kronecker de la matriz I y la matriz E.

Aquí las filas de E son normalmente independientes.

Definición 1.2

Diremos que el producto de Kronecker definido por I®E representa el

producto de los n vectores columnas de una matriz que son mutuamente

Page 21: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

9

independientes, cada uno con matriz de varianza covarianza E y el producto

de Kronecker dado por E®I, se refiere a la matriz de covarianza del vector

X" de orden [(nq)x 1] obtenido por la colocación de los vectores uno sobre

el otro.

Proposición 1.1

En el modelo Y se tiene que

Tr[(Y-XB)E-'(Y-XB)'] es igual a Tr[Y1(Y-XB)'(Y-XB)].

Demostración:

Sea Y la variable aleatoria del modelo dada por la ecuación (1) y .J(Y)

su función de densidad, consideremos a Y = [Y„

, donde las filas

son mutuamente independientes.

Por otro lado como E tiene una distribución normal con matriz de

media (0) y matriz de varianza covarianza I®E, entonces para cada 1 _< n,

los n vectores filas tienen una distribución igualmente normal con media

B'X1 y matriz de varianza covarianza E, por lo tanto como Y, = B "X, +s;

es una combinación lineal de e; que también tiene una distribución normal

con media (0) y matriz de varianza covarianza E, esto es Y 1 —Np (B'X ; ,E) .

Page 22: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

lo

Sabemos además que Y - XB = [Y, - B' X„ Y, - B' X,, . . . Y. - B. X. ]'.

Realizando el producto (Y-XB)' (Y-XB) tenemos que

(Y–XB)'(Y–XB)=E (Yi–B'Xi)(Y–B'Xi

por otro lado tenemos que E (Y; - B'Xi)'Z ' (Yi - B'Xi):=t

Luego:

Tr[E(Y,–B'X ;)':-'(Y;–B'X )J1(D

i

=

TrFY,–B'X,)'E' (Y,–B'X, )1i=i

(Yi—B'Xi)(Yi—B'Xi)']

por propiedad de traza

=Tr~ ' (Y–XB)'(Y–XB)J

por lo tanto la Tr [(Y - XB)E - '(Y - XB)' ]= Tr [E -' (Y - XB)'(Y - XB) ]

Richard y Wichern (1982) .

Page 23: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

11

La función de verosimilitud del Modelo.

Definición 1 .3

La función de verosimilitud de Y, está dada por

1

1

-2(Yi-B'XiYE"' (Yi-B'Xi)f(B ' E) =

(270'2

I/2- e

donde Y, es un vector fila con media B 'Xi y matriz de varianza covarianza E,

En el modelo lineal, tenemos que la función de densidad de Y es

1

1

_l(Y-)ffi)T,(Y-XB)f(Y) = ( e 2

y considerando las suposiciones de que.2

la matriz X tiene rango q y que la covarianza de (X' X) existe.

Definición 1.4

La función log de verosimilitud para Y en términos de los parámetros

B y E, está dado por

Lf(B,E)=-- nlogi27tE --Tr(Y–XB)E-'(Y–XB)'2

2

donde XB es la media de Y .

Page 24: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

12

Propiedades del Modelo.

Definición 1 .5

En el modelo de re g resión lineal Y. se cumplen las propiedades

a .

E(E)= O

h .E(Y,)= [3 X,

1 __s:1 n.

c. COV (Y)–`

b i = 1 .2 0

donde Y, es la i-esima tila de Y

d. COV(Y,.Y )=0

Vi 4 j

siendo YYJ tilas de la matriz Y.

Propiedades de la Matriz P.

Proposición 1 .2

La matriz P~ fl , fl , definida por P = [1 – X (X' X) - ' X' J es simétrica e

idemponente y de rango (n-q)_ donde las matrices 1 v X(X'X) -' X' son de

orden (nxn)_

Demostración:

Sea P una matriz de orden (nxn) tal que

P = [1 – X (X' X) -' X' J . consideramos primero si P es simétrica, esto es

P= P' .

Page 25: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

13

Si P = j I — X (X' X) ' X'1, luego su traspuesta P ' es:

P ' = [1—X(X'X)-'X]'

P= 1—[X(X'X)'X']

por definición de traspuesta

P=[I—X (X'X)" ' X']

dado que (X'X) -' es una matriz cuadrada de orden (q x q), que es

simétrica.

Luego como P = P', entonces la matriz P es simétrica.

Veamos ahora la idempotencia de P , esto es PP' P . Así este producto es

[1-X(X'X)y'X'][1 - X(X"X)"IX"]', puesto que PP'=P entonces

[1- x(x'xy'x'] [1- x(x'x)'x']

realizando los productos

1- IX(X'X)-'X' — X (X'XY ' X'I + X(X'X)"'(X'X)(X'XY'X'

I - X(X"X)X .—X(x .x)y'x" +XI(x"X)-'X'

P-- 1—X(X X) 'X ]

Page 26: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

14

por lo tanto P es una matriz simétrica y luego P es idempotente.

Calculemos ahora el rango de P

Ran [1 - X(X'X)-'X']= Tr[I - X(X'X)''X'] puesto que P es idempotente y

como I es de orden (nxn) y X(X'X)''X' es de orden (nxn) de rango q.

Se tiene que Tr[I - X(X'X)''X'] = Tr(I) - Tr[X(X'X)''X] por

propiedad de traza.

Luego Tr(I) = n y Tr[X(X'XY'X']= q

Por lo tanto la Tr[I - X(X'X)' IX']=(n-q).

Así, P[I - X(X'X)-1X] es una matriz simétrica indempotente y de

rango (n-q).

Estimadores de Máxima Verosimilitud de B y E.

Proposición 1 .3

En el modelo multivariado de rango completo q donde E—Np (O,1®E)

y Y— Np (XB; 1®E), los estimadores de máxima verosimilitud de 13 y E

son B = (X 'X)— 1 X 'Y y E = n-1 Y' PY , o bien E = n - ' EA ' EA

donde P = [1— X(X'X)"'X'] .

Page 27: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

15

Demostración:

Si en el modelo de rango completo, E-Np (O ; I®E) y de acuerdo al

modelo de regresión Y = [Y„ Y2 , Yn }', donde las filas de Y son

independientes con distribución Y i —Np (B'Xi, E), consideremos ahora

(Y-XB)= [Y, —B'X, ., Yz — B' X 2, . . ., Yn — B'Xn]

así, (Y-XB)'(Y-XB) = (Yi—B'X ; ) (Yi—B'X ;

y también se tiene que

(Yi—B'Xi)'E-` (yi—B'Xi) =1 Tr[E-'(Yi — B'Xi) (Yi — B'Xi)

Trt' (Yi — B'Xi)(Yi — B'Xi)']

=Tr l-' (Y — XB)'(Y — XB)]

Por Proposición I.1, obtenemos que

n

n

Sí E= Y— X B, entonces E+ X B= Y

E+ (X .B— XB I = Y — XB

Page 28: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

16

E+ XI B- B) = Y - XB

Si la función de verosimilitud de Y es

1f(B,E) = 11[ -- -~

(27) ,

1

-ZTr(Y1-B'Xi)t 1 (Yi-B'Xi)

/2

1

1

2Tr(Yi-B'Xi)'E-1 (Yi-B'Xi)

(2n)"PZ }z»

desarrollando el producto (Y-XB)' (Y-XB)

1l.

= [E+ X(B— B)] [1+ X(B— B)]

AA

AA

= [E+ (B- B)' X'] [ñ+ X(B- B)]

= [E' E+ E' X(B- B) + (B- B)' X'

(B- B)' X' X(B- B)]

A A

A

A

A

A

A

A

= E'E+(B- B)'X'X(B- B) + EX'(B- B)+(B- B)'X'E

Consideremos E' X(B- B) sí E = PY que es igual a E'= Y ' P

A

A

A

puesto que P es simétrica entonces E' X(B- B) = Y' PX(B- 13), pero PX

es la matriz cero (0) . Por lo tanto E' X(B- B) = 0

Page 29: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

17

A

A

De igual forma (B— B)' X' E = 0

-2Tr E—1(E'E+(B—B)'X'X'(B—B))1

1entonces f(B,E)_(2n~o,/

Eu, e

/2 11"

a través de la función log ., obtenemos que

Lf(B, E) = — 2 np log 2n —2

n logIE] —2

Tr[E' (E' E + (Él— B)' X' XO?I— B)]

A

esta función alcanza su valor máximo cuando B = B,

A

A

luego Lf(B,E) = - 2 nplog2n - 2 nloglEl - - TrE- ' E' E

donde FE = n E, entonces i= n -' E' E

Lf(B,E) = - 2-np log 2n -2

n(log El+TrE -' E)

(2) y

A

la expresión (2) alcanza su valor máximo cuando E = E

A A

A

A

2nEA A

1Así, Lf (B, E) = — 2 n log

-

A

= —nlogi2nE

A

Lf(B,E)=-2nlog2nE

1

A - 1 A

— 2 nTr E E

Page 30: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

18

Tendremos que el valor máximo de la función de verosimilitud, se

obtiene cuando E = E por lo tanto B , E son los estimadores de máxima

verosimilitud de B y E .

Como E tiene una distribución normal, entonces Y = XB + E ; como

combinación lineal de E, también tiene distribución normal, con matriz de

media XB y matriz de covarianza, I®E, esto es Y—Np(XB,1®E),

Propiedades de los Estimadores de B y E.

Proposición 1.4

Para el modelo Y = XB + E con una distribución normal multivariada,

donde la matriz de error E se distribuye Np —, (O, 101), se cumple que:

A

a) B es un estimador insesgado de B

b) no es un estimador Sesgado de E

c) E (E) =0

d) B y E son matrices con distribuciones normales y multivariado

e) La matriz B es estadísticamente independiente E y también de £ .

Page 31: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

19

Demostración:

Dado que B = (X' X)' X' Y y si Y = XB + E el modelo

A

multivariado, al reemplazar Y en B tenemos que:

B = (X' X)-' X' (XB + E)

B =(X'X)- ' X' XB+(X'X)-'x'E

B = B+(X'XY' X'E

El valor esperado de ambas expresiones

E(B)=E[B+(X'X)1X'E]

=E(B)+E(X'X)-'X'E)

= B+ (X' X)' X' E(E)

= B+O puesto que E(E) = 0

A

Tenemos que B es un estimador Sesgado de B y por la

Proposición I.3 . B es un estimador de máxima verosimilitud de B, con lo

que se demuestra (a) . El estimador de máxima verosimilitud de E es, t el

n ncual puede ser expresado como n-' E' PE o bien n-' E' E donde E es una

matriz de datos distribuidos N,—(O, 10 E) .

Page 32: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

20

Para E así definido, resulta no ser un estimador insesgado de E ; para

A

que este ocurra se debe hacer un. arreglo sobre t dado por n- E +) el(q

A

A

Ecual es el estimador insesgado de E, esto es E n–(q+1) =E

Con lo que se demuestra que E no es un estimador insesgado de E ,

demostrándose la parte (b).

En el siguiente caso:

A

A

A

Si E = Y — X B , consideramos E (E) entonces

A

E(E) = E(Y – X B)

A

= E(Y)—E(XB)

=XB—XB

=0

A

A

por lo tanto E (E) = 0, en consecuencia E(s, ) = 0, para cada E ; , i 5 n .

A

A

En la parte (d), mostramos que B y E sonnormales multivariados.

Si tenemos que E= Y — X B = PY , además PY = PE y

PE=[I–X(X'X)-'X']E.

En consecuencia ambos estimadores B y E son funciones lineales de

n

n

E . Luego tenemos que E tiene una distribución normal y como B y E son

Page 33: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

21

funciones lineales de E, entonces B y E tienen distribuciones normales

multivariadas.

Para la parte (c), tenemos que

A

A

A

B es estadísticamente independiente de E y por lo tanto de E.

Por la parte (e) obtenemos que E = PY y

A

B= B+(X'X)-'X'E.

Si X es otra matriz tal que tiene una distribución de N q (g,E) y si

Y = AXB y Z = CXD , entonces los elementos de Y son independientes

de los elementos de Z si y solamente si AC'= 0.

Así, B = (X' X )– X' YI , E = PYI, además Y es una matriz de

datos, donde Y - N,,(XB,I ®E), luego (X' X )-' X'= A , y P=C, donde

P=P'=C'.

Entonces

AC' = (X' X)-' X' [I — X(X'X)-' X']'

= (XtX)-' X' I — (X'X)-' X' (X'X)(X'X)-' X'= (X I X)-' X'—(X' )(Y' X'=o

A

P

así, B y E son estadísticamente independientes.

Consideremos ahora B y E , dado que B = (X' X)-' X' YI y

E = n -' Y'PY.

Page 34: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

22

A

También E = n-'(XB + E)'PYI

Ahora multiplicando AC' t2)

tenemos que AC' = (X' X) -' X' n-'P(XB + E)

= n-'(X'X)-'X'P(XB+E)

=n-'(X'X)''X'[I–X(X'X)'](XB+E)

= n -' [(X' X)-' I – (X' X)" ' X'X(X ' X)' X'](XB + E)

=n ' O(XB+E)

= 0A

En consecuencia, B es estadísticamente independiente de E lo que

demuestra la parte (d).

Proposición I.5 :

A

nEn la matriz de parámetros estimados de B, si (3( ;) es un vector

A

columna, entonces el valor esperado de (3 (0 es (3o) para cada i <_ p.

Demostración:

Sea B el estimador insesgado de 13, si,

= (X'X)' X' Yo) donde

Yo) = XI30) + s(h) , por cada i 5 p .

Luego R ( ;) = (X'X)' X' [X(3( ;) + col

(2) Martha et al (1979).

Page 35: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

23

= ()e X)-'(X'X)p(i) +(X'X)-'X's( )

=

+(X'X)-'X'E(;,

Así E(Ro ) ) = E[R 0 , +(X'X)-'X'st„]

= E[(iloj+E[(X'X)-'X'

+ (X'X)-'X'E(s( ;,)

=

(X' X) -' X' ('0)

=Ro,

Por lo tanto E(p ( ;) ) = p ( ; , para cada i < p demostrando que el vector

A

columna estimado p o , es un estimador insesgado del vector columna p ío

Proposición 1.6:

En el Modelo de Regresión Lineal Multivariado de rango completo, la

A

A

A

covarianza entre dos vectores columnas de B es cov

, pa,) =o;k G, para

V i = k, donde G= (X' X) -'i, k = 1, 2, 3,. . ., n y cov (O.,

= 0 para

todo i � k .

Demostración:

A

A

A

Sean (3(,, y p( k) dos vectores columnas de B, tales que

pk„=(X'X)-'X'Yo, donde E(t ) = R(„, para cada isp

Page 36: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

24

Si Y( ;) = X(3 o , + s H) entonces

A

= (X'X)-'X'[XR(,,+En,l

= ao, + (X' ))-'X ' Em

Sea A = (X' X)-' X' una matriz (qxn) así : P

R = A s, ; , .

A

A

Consideremos

la

cov (R ( ; ) , ( k ) ) = E [(L)–R(;>)&(k)– p(k) )' 1

por

definición de covarianza

E[(AE6;))(Ae(k))'1= E[(AE))(E'(k)A')]

= AE [(c(0E'(k))JA'

= S,k6 ,k lAA'

= ó;kak(X'X)-'

entonces, para cada l <_ i <_ p, 1 <_ k <_ p .

6,k(XIX)-', si i = k

0

, si i~k

(1

si i=kDonde 8,k =

jl0

si isk

Es conocido como el delta de Kronecker, por lo tanto la covarianza de R ( ; , y

Cov((3 t ;) , R (k,) =

(3 (k, es :

Page 37: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

25

COV(33(;), r(k))=óik (X' X) ' ,

si i=k,lSiSp,

1Sk5p y

cov(f3 1, 13 ( k ) ) = O,

si i ~ k

no correlacionado . Para 15

p, 1 k p .

Proposición 1.7:

La covarianza entre dos filas (3 ; , Rk de la matriz B está dada por

g ikE , donde g, k = (X' X)-' para i p, k p .

Demostración:

Sean P i , (3 k dos filas cualesquiera de la matriz de parámetros

estimadosB, sea además R ; = (X'X)-' X'Y , donde Y. = X(3 ; + e l

Así, 13, = (x' X)-' X' (x(3, + ci )

=pi + (XI X).4 X'

entonces

= (x ' X) X ' E; ,

sea A = (X' X) -' X' una matriz de orden (qxn) y (X' X) ' es simétrica

de orden (qxq),

luego (3 ; – (3 = As ;

Page 38: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

26

por otro lado E ((3 ;) = E [(3 ; + (X' X)-' X' e ; ]

=R ; +(X 'X) X- ' E(c,)

Consideremos ahora la cov

A

—R ;xFk — Rk) '

= E(E i lA£k )]

= E [(AE ; XE'k A')]

= AE (E E ' k )A '

= AEA'

= AA' E, pero AA'= (X'X) -' X' [X(X' X) ' ]

= (X'X)' (X' X)(X' X)-,

AA'= (X' X)-' que es una matriz simétrica

por lo que AA' 2, = g, k E, donde g;, _ (X' X);k .

.1

.1

En consecuencia, co v (R;,Rk) = g ,kE

= (X'X)k E

1<_i5q, l<k<q .

Page 39: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

27

Proposición 1.8.

La covarianza entre un elemento de [3 (i) y otro del J3 (k) , esto es

es 6 j,g ;k , donde g k es un elemento de la matriz G = (X'X) ;k' .coy

Demostración:

Si (3 j , p k, son dos elementos de B, si además R,, es insesgado, esto es

E ((3 j ) = (3

tendremos

entonces

que

su

covarianza

es

A A

Cov([i ;) ,(3k,)=E (Nij - Yij)(fl kl - Pkl) puesto que B— B = AE , donde

A=(X'X-' )X luego (3(3,;=a',EO)•

A A

Por lo tanto la cov([3j,{3k,)=E[{s,j)} {a' k so) }]'

= E[{a' ; is, j) } {C'„ ) a k }]

= a ; ' E [ s, ))s' ( , ) ] a k

= a ; 6 js ; Ia k

=a; ' 6 ;,Ia k

cr ,I(AA' ) ;k donde AA'= (X'X) '

Page 40: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

28

Si además g;, es el i-ésimo elemento correspondiente a la k-ésima

columna de G = (XX)4 ; por lo que g ik = (X' X);,' , esto demuestra que

COY ( ,F'u)=6 ;1gik

j <_ q,

1

p

Distribución de B.

Proposición 1.9:

En el modelo Y, si E – Np (0,1®E) y además Y = X B , se tiene

entonces que B Np [ B, (X' X)-' ®E ].

Demostración:

Sea Y el modelo, con la matriz de error E – Np (0,1 ®E), dado que

Y = X B entonces por la Proposición 1 .5; en su parte (a) tenemos que 13 es

un estimador insesgado de B, esto es E(B) = B .

A

Por otro lado veamos la cov( B ), por definición la

cov( ) = E[(1– B)( A– By].

A

Si B = ( X ' X ' X ' y entonces en términos de B y E está dada por

B = B+(X'X)"'X'E .

Page 41: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

29

Luego A — B = (X X) - ' X' E

Por lo tanto,

EL($—Bxl3—B)]

= E{ [(x' x )-' x' E} [(x' x )_' x'EJ }

= E { [(X' X )-' X' E] [E' X (X' X r] }= (X'X)-'X'E(EE')X(X'X)-'

= (x'x)-'x'(i ® E)x(x'x)-'

=

(x' x)(x' x)-' (I ® E)

=(x'x)-'(I®E),

= (ny ® E

Dado que (X' X)-' I = (X' X)-' , por propiedad de matriz identidad.

Por lo tanto la covarianza de B es (X' X) -' ® E .

Como E se distribuye normalmente, entonces B = B + (X' X) -' X' E ,

también se distribuye normalmente con matriz de media B y matriz de

covarianza (X' X) -` ® E .

Esto es B — N r [B,(X'X) -' 0 E] .

Page 42: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

30

Por el resultado anterior para cada uno de los vectores

13 ( o,

1

p , estos son independientes entre si, con

matriz de

covarianza E y con distribución normal, coincidiendo éste con los

resultados anteriores .

Page 43: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

CAPITULO II

PRUEBAS DE HIPÓTESIS

Page 44: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

32

Pruebas de Hipótesis.

El análisis de regresión lineal multivariado, contempla varios tipos de

pruebas de hipótesis con las que se pueden hacer inferencias de

investigaciones.

Estas hipótesis estarán compuestas por el producto de matriz de la

forma C,BM, = D, donde C,,, M,, y

son tales que C, y M I ,

tienen rango g y r respectivamente ; y C 1 , es una partición de C, esto es

y C'= (C1 ',C 2 ') . La hipótesis así planteada es llamada la

hipótesis lineal general, con varias alternativas para las matrices M, y D,

estas alternativas incorporan las posibles hipótesis de interés en el modelo

lineal multivariado para la realización de las inferencias estadísticas.

Tipos de Prueba según las Matrices

Los tipos de prueba, dependerán primeramente de lo que se tenga

interés de comprobar en la investigación, luego se hace la escogencia del

producto de matrices adecuadas que formarán dichas hipótesis.

De esta forma se presentan los siguientes casos.

a). Ho: C,B = 0

Contra Ha: C 1 B � 0

Page 45: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

33

donde M I = I,

y

D = 0.

Esta hipótesis nula es equivalente a probar la hipótesis Ho : 13 = 0.

En este caso se considera el hecho, que el efecto de la combinación

lineal no está afectada por la matriz M I y que la misma es una matriz

identidad, además que no hay influencia de las variables independientes en

el modelo.

b). Ho: C, B = D

Contra

Ha: C, B ~ D

Aquí M I = I, no hay influencia de esta matriz, pero si hay influencia

de las variables independientes en el modelo, indicando que existe por lo

menos una variable independiente que está influyendo en el modelo, y que la

matriz B es distinta de la matriz cero.

c) . Ho: C,BM, = D

Contra

Ha: C,BM, ~ D

En este caso M, ~ I, y la combinación lineal indica que si hay

influencia de las variables independientes en el modelo generando la matriz

D; que la matriz B no es matriz nula.

En estos casos las filas de la matriz C 1 , influyen sobre el efecto en las

combinaciones lineales de la regresión de las variables independientes, las

Page 46: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

34

columnas de MI , son focos de atención en particular de las combinaciones

lineales de las variables independientes.

Distribución Wishart Centrada.

Definición I1.1

Si E es una matriz de datos tal que E — Np(O, I ® E) y P es una matriz

idempotente, si M es una matriz que puede ser escrita como M = E' PE ,

diremos que M tiene un distribución Wishart centrada con matriz escalar E,

y (n-q) grados de libertad, esto es M Wq(E, n — q) .

Algunas Propiedades de la Distribución Wishart.

Proposición 11.1

Si (n-q) es el número de columnas independiente de la matriz

simétrica e independiente P, y E si es el estimador de máxima verosimilitud

A

de E, entonces n E — Wq(E, n — q) .

Demostración :

A

Sea P una matriz simétrica e idempotente y E el estimador de máxima

A A

verosimilitud de E, si E = PY , además PY = PE, donde E = n -' E' E por

Page 47: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

35

otro lado n E = E' E y como E' E = E' PE donde P = [1– X(X' X)-' XI y de

rango (n-q), por Proposición 1.2.

Por definición E — Np(0, I ® E), como P es matriz idempotente y E es

normal, multivariada, además como la TrP = rango P = n - q por la

Proposición I.2, entonces E' PE — Wp(E, n — q) , pero como n E = E' P E

A

entonces n E – Wp(E, n – q) lo que se quería demostrar.

Proposición 11.2

Si

E - Np(0, I ® E),

entonces

la

matriz

de

datos

Z = EM, – Np(0, I ® M,' EM, ), donde M j( ,), y además E y MI son matrices

independientes.

Demostración:

Sea E — Np(0, 1 ®), y M, una matriz de orden (pxr) de constantes.

Como E y M l son matrices independientes entonces

E(Z) = E(EM,) = E(E)E(M, ), pero E tiene matriz de media cero (0).

Luego E(E)E(M,) = O(E)(M,) = 0

Por lo tanto E(Z)=0 .

UNIVERSIDAD DE PANAMA

BIBLIOTECA

Page 48: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

36

Por otro lado podemos escribir

EM, = IEM,

Entonces cov (EM,) = cov(IEM, )

= E[(IEM, — OXIEM, — 0)' J= E[(IEM, — OXM,' E'—0)l

= E[(IEM,M, 'El)]

= I ®IM, EM, ('')

=I®IM,EM,

por lo tanto la matriz de covarianza de Z es I ®M,' EM, . Como E se

distribuye normal, entonces Z = EM„ también se distribuye normal con

matriz de media cero (0) y matriz de covarianza I ®M,' EM, , esto es

Z Np(O, I ®M,' EM,).

Lo cual se quería demostrar.

` 3) Marcha et al (1979) .

Page 49: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

37

Proposición II.3

Si

una

matriz

X(,,,,v

tiene

distribución

multivariante

Np(0, I 0 M,' EM,) y a es un n-vector fijo, entonces X'a — Nq[0, (a'a)E],

donde V = X'a.

Demostración:

Consideremos E(V) = E(X' a) .

= E(X')a

= [E(X)]'a

= 0.a

=0

por lo tanto E(V) = 0 .

n

Además si V= X' a entonces V= E X a ; , j=1,2, . . ., q

La cov(Z) = Eh' a — 0XX' a — o)]

= E[(X'aXX'a)]

= E[(X' aXa' X}]

EEXaJ(Ea' X1 j

_(

J"

i )J11

=E[La' .a.(XJX )]

= Ea' 1 a E(X 1; X 1 )

= E a' aE',i=I

= (a' a)E

Page 50: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

38

por lo tanto la matriz de covarianza de V es (a'a)E como X se distribuye

normal, entonces V = X' a también se distribuye normal con matriz de media

cero (0) y matriz de covarianza (a' a)E esto es V Np(O, (a' a)E).

Proposición II.4

Si M, es una matriz de orden (pxr) y P es idempotente de rango n-q,

entonces la forma M,' Y' PYM, Wp(M,' EM, , n — q), donde Y está dado

por la ecuación (1).

Demostración:

Si P es una matriz idempotente y de rango n-q y además

Y'PY=E'PE, donde E—Np(O,I®E), R=M,'Y'PYM, y por otro lado

tenemos que EM, — Np(0, I ®M,' EM,) por Proposición II.2.

Por lo tanto como P es idempotente y EM, tiene distribución normal

Np(O, I ® M,EM, ), entonces M,' E' PEM, Wp(M,' EM, , n — q) pero

M,' E' PEM = M,' Y' PYM, , luego R — Wp(M,' EM, , n — q) .

Proposición 11.5

En el modelo Y, = Y - XB o , donde B0 es una matriz de orden (qxp),

si

además,

C,B = D

y

C 1 B0, = D

se

cumple

que

Page 51: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

39

Y ' P2 ' Y, = E' P2 E Wp(E, g) donde P2 es simétrica idempotente y de rango

g •

Demostración:

Sea Y+ = Y - XB0 , el modelo dado, y

P2 = X(X' X )' C,' [C, (X' X)-' C,']-' C, (X' x)' X'

una

matriz

simétrica

idempotente y de rango g.

Por hipótesis C 1B = D y C,Bo = D consideramos ahora Y,' PZ Y ,

donde Y+ = Y — XBo.

Así: Y, =XB+E —XBo

=X(B—Bo)+E

Luego Y,'PZ Y4 =[X(B—Bo)+E]'P2 1X(BBo)+ E]

= [(B - Bo)' X'+E]P2 [X(B — BO)+ E]

= (B—Bo)'X'PZX(B—Bo)+(B—Bo)X'P2E+E'PZX(B—Bo)+E'PE

puesto que C 1 B = D

C, B = D entonces C, (B - Bo) = 4

(B-Bo)C,'=0

Page 52: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

40

Luego tendremos que:

Y+ ' P, Y+ _ (B Bo}' C,' [C, (X' X)-' C, 'r C, (B — Bo)

+ (B — Bo)'C,'CC,(X'X)-'C,'1'C,(X'X)-'X'E

+ E' X(X')}-`C,'IC,(X'X)-'C,C,(B—Bo)+E'P,E

=E'PI E.

Dado que los demás términos son cero, con lo que se demuestra que

Y,'P,Y+=E'P2E.

Por otro lado como E — Np(0, I 0 E) y también que P 2 es una matriz

idempotente de rango g.

Entonces

E'P2 E Wp(E,g)

lo que es equivalente a

Y, 'P2 Y+ Wp(E, g )

Distribución deM,'Y+ 'P2 Y+M,.

Proposición II.6

Si H = Y+ ' P2 Y+M, donde MI es una matriz de orden (pxr),

Y+ = Y — XBo, Bo una matriz de orden (qxp) y Y+ ' P2Y+ — Wp(E,g),

entonces M,' Y+ ' P2 Y+M, — Wp(M,' EM„ g) .

Page 53: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

41

Demostración:

Sea H = M,' Y,' P2 Y+ M, y M I es una matriz (pxr), además

Y,'P2 Y+ — Wp(E',g) por Proposición II.5, puesto que Y,'I,Y, = E'P2 E,

donde E — Np(0,1®E) entonces M,' Y,' P, Y, M, = M,' E' P,EM, también

EM, Np(0, I 0 M,' EM,) por Proposición 11.2 y como P2 es idempotente,

de rango g, se tiene entonces que M,' E' P,EM — Wp(M,' EM , g), por lo

tanto como M,' E' P2EM, = M,' Y, ' P2 Y.,M, entonces

M,' Y,' P2Y,M, e- Wp(M,EM,, g) lo que se requiere demostrar.

Proposición I1.7

En el modelo Y, = ZA + E , donde Y, = Y —XBo, Z = XC' y

A = (A,'A2 ')', probar la hipótesis C,Bo = D es equivalente a demostrar que

Demostración:

Sea Y, = ZA + E, donde Z = XC -' y A = (A,' A2 ')' por lo tanto

reemplazando estas expresiones en el modelo obtendremos que:

XB – XBo – E = XC -' (A,' A 2 ')'+E

X(B – Bo) = XC -' (A,' A 2 ')' puesto que X tiene inversa,

Page 54: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

42

entonces X -'X(B — Bo) = X -`XC -' (A,' A2 ')

(B Bo) = –C ' (A,' A2 ')'

C(B–Bo)= CC'(A,'A2')'

C(B – Bo) = I(A,' A,')'

C(B – Bo) = 4

luego para la hipótesis C 1B=D

dado que C ' _ (C;,Ci) y además C' = C,',Cz2 ') por otro lado tenemos que

c(B – Bo) ='C

SW

C 2\. (9-e) Xll

(B – Bo)

y también A = (A,' A 2 ')' = C(B – Bo) =

/ C(B – Bo)

C , (B – Bo))

para la hipótesis C )B0=D, entonces

0 — (A A ,C(B—Ba) = iC )(B—D)

\c2(13-Bo),,

c2( B–B0 ),

a = ~] =

C, (B-D)

\ °2/ \C2(B–Bo) l

(B – Bo)

Page 55: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

43

lo que equivale a:

A, =C,B — D y O Z =Cz(B—B.)

pero A l = 0 Luego, C 1 B = D

por lo tanto la hipótesis C1 B = D es equivalente a A l = 0 .

La Prueba de Razón de Verosimilitud.

Si se selecciona una muestra aleatoria de una distribución y L(o) es

tma función tanto de parámetros inconvenientes desconocidos como de O . Si

la hipótesis nueva He específica que H cae en un conjunto particular de

posibles valores de St o , esto es H . : 0 = O, y la hipótesis alternativa

especificada que 0 cae en otro conjunto de posibles valores de S2 n , tal como

1 l : 0 > 0 , donde O, no se traslapa con Q ( y 12 0 U n = S2 .

Sea L(0 0 ) la función de verosimilitud con todos los parámetros

desconocidos reemplazados por sus estimadores de máxima verosimilitud,

sujetos a la restricción de que 0 E 0,,.

De manera similar se tiene L(a) pero con la restricción de que

H E Qo . La prueba de razón de verosimilitud se basa entonces en la razón

L(S2)

Page 56: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

44

Esta prueba utiliza el estadístico k como estadístico de prueba y la

región de rechazo se determina poro, k, donde el valor de k se escoge de

tal forma que a queda a un nivel predeterminado.

Definición II.2

La prueba de razón de verosimilitud (P .R.V.) de tamaño a para probar

la hipótesis Ho contra Ha tiene como región de rechazo K = {w a(w) < c},

donde c es determinado por

SupP0 (wek)=a

ocf2o

Estadístico de Wilk's.

Definición I1 .3

Si M Wp(I, m) y N – Wp(I, n) son dos Wishart independientes,

m p, decimos que A = MM Ni

= I + M -' N{' – 0(p, m, n) , tiene una

distribución Lambda Wilk's con parámetro p, m y n.

Donde m representa los grados de libertad del error, n los grados de

libertad de la hipótesis ; por lo que m + n representan el total de los grados

de libertad .

Page 57: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

45

El Estadístico de Prueba dado por Ln A.

Corolario II.1

El estadístico de prueba, para la (P .R.V.) de la hipótesis nula

Ho : C 1B2 = O, bajo el modelo Y = XB + E , esta dado por,

nInA= -In

2, donde E y E, son los estimadores de máxima

verosimilitud de E, y E que tienen distribuciones Wishart.

Demostración:

La (P .R.V) de la hipótesis He: C 1B=O, es equivalente a probar la

hipótesis H0: B(2) = O, donde

B(1) (r+l)xp

B(2) (q—r)xp-

paraX= [X 1 ' X 2 ]nx(r+l) nx(q—r)

B =

El modelo general puede ser escrito como Y = X,B„ } + X2B(2 , + E,

para la hipótesis B (2) = 0 se tiene , Y = X,B („ + E .

Esta prueba de razón de verosimilitud de la hipótesis nula está basada

en la suma de cuadrados y productos cruzados, el cual es

n

,,(Y—X,Bo))'(Y—X,&I>)—(Y—XB)'(Y—XB)

Page 58: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

46

donde B ( I ) _ (X,' X, X,' Y ;

(Y—X B(o) ' ( Y—X, Eo))n

Y

(Y—XB)'(Y—XB)

n

que son los estimadores de máximo verosimilitud de E l y E, además

tenemos que

A1 p 1

L(B, E) = —

np log 2R - - log 1 E --np2 2

=— Z n1og I2irE

L B,E =log2n±

y también:

L(Bo), Ei) = log 2nt El1— ._ np2

por lo tanto

i/2

Page 59: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

47

la razón de verosimilitud A puede ser

(2n)

y L

expresada en términos de la varianza generalizada.

Así,

A

1max L B (D,E INi,ir.

max L( B, E)B,y.

/A

\

L Bo) ,E,

(L B, E

ii A r%' (210 /2

1

e i /.1 A i -"!?' 2np/

(2E) /2 iE1

donde A será el estadístico

Page 60: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

48

lo que se quería demostrar.

Proposición I1 .8

La (P.R.V) de la hipótesis nula Ho: C 1B = D para el modelo

= ZA + E tiene como estadística de prueba

El cual tiene distribución A(p, n — q, g) , bajo la hipótesis nula.

Demostración:

Sea Ho: C 1 B=D la hipótesis considerada, Y, = ZA + E el modelo.

Page 61: EL MODELO DE REGRESIÓN LINEAL ... - … · En el presente trabajo definimos el modelo de regresión lineal multivariado, en su forma matricial, demostrándose algunas de las propiedades

49

Si LB E = 2-1og

verosimilitud de B y E.

( A

\y LB2,E2 = logi 2

-n2– 2 np es el valor máximo de la función de

2ir E2'¡ – 1 np es el valor de máximo de la función

2cE

A

A

de verosimilitud; B 2 y E2 estimadores de máximo verosimilitud de B, y E2

respectivamente.

La razón de verosimilitud puede expresarse en términos de la va lanza

generalizada como:

A

maxl B2, E2u1 ns,

n n

'Y2e ,2 /k2 .Trj E2'

e z 42ir) /2

por lo tanto

max l B, EJ13 .E

E2