7
Universidad de Santiago de Chile Facultad de Ciencias Departamento de Matem´ aticas y C.C Ingenier´ ıa Matem´ atica - Laboratiorio de Inferencia Estad´ ıstica Laboratorio 1: Simulaci´ on de una Variable Normal Profesor: Eugenio Saavedra. Ayudante: H´ ector Gonz´ alez. Integrantes: Yorka Romero y Diego Carvajal. Santiago, 23 de Abril del 2015

Trabajo 1

Embed Size (px)

DESCRIPTION

Inferencia

Citation preview

Page 1: Trabajo 1

Universidad de Santiago de ChileFacultad de CienciasDepartamento de Matematicas y C.CIngenierıa Matematica - Laboratiorio de Inferencia Estadıstica

Laboratorio 1:Simulacion de una Variable Normal

Profesor: Eugenio Saavedra.Ayudante: Hector Gonzalez.

Integrantes: Yorka Romero y Diego Carvajal.

Santiago, 23 de Abril del 2015

Page 2: Trabajo 1

1. Introduccion

En este laboratorio, estudiaremos las variables aleatorias independientes con distribucion normal.Para esto, introduciremos que significa que una v.a sea normal.

En estadıstica y probabilidad se llama distribucion normal, distribucion de Gauss o distribucion Gaus-siana, a una de las distribuciones de probabilidad de variable continua que con mas frecuencia apareceaproximada en fenmenos reales. La grafica de su funcion de densidad tiene una forma acampanada yes simetrica respecto de un determinado parametro estadıstico. Esta curva se conoce como campanade Gauss y es el grafico de una funcion gaussiana. La importancia de esta distribucion radica en quepermite modelar numerosos fenomenos naturales, sociales y psicologicos. Esta distribucion dependede dos parametros los cuales resultan ser la media µ y la desviacion tıpica σ de la distribucion.

En probabilidades, existe la independencia de variables aleatorias, esto nos dice que las variablesaleatorias X1, X2, ..., Xn seran independientes si su distribucion acumulada conjunta se factorizacomo producto de sus distribuciones conjuntas marginales y para la distribucion normal, tenemosalgunas propiedades cuando existen v.a independientes.Si X1 y X2, son v.a iid con distribucion normal, entonces

a) X1 +X2 sera una nueva v.a con distribucion normal.b) aX1 sera una nueva v.a con distribucin normal, con a un valor fijo a ∈ R.

Es decir, la combinacion lineal de variables aleatorias independientes normales seguira siendo nor-mal.Estudiaremos tambien la funcion de distribucion normal multivariante, la cual es una generaliza-cion de la distribucin normal unidimensional a dimensiones superiores. Un vector aleatorio X =(X1, X2, ..., Xn) que toma valores en Rn se distribuye segun la ley normal multivariante, si su densi-dad es de la forma

f(X) =1√

(2π)n |∑|exp{−1

2(X − µ)t

−1∑(X − µ)}

Donde µ = (µ1, µ2, ..., µn) ∈ R,∑∈ M(R)n×n definida positiva. Con esto decimos que la varia-

ble aleatoria distribuye normal, osea X ∼ Nn(µ,∑

).

Para la distribucion normal multivariada, tenemos las mismas propiedades que para las variablesaleatorias independientes normales. Es decir, si X ∼ N(µ,

∑), entonces cualquier combinacion lineal

X · A, con A matriz, entonces X ∼ N(µ · A,At ·∑· A). Ademas X+d, donde d = d1×n es un vector

de constantes, tiene una distribucion X ∼ N(µ+ d,∑

).

2. Primer Problema

1. Simule dos variables aleatorias X e Y que satisfagan:

a) X ∼ N(0, σ2); Y ∼ N(0, σ6

3 )

Entonces, debemos simular dos variables aleatorias con distribucion normal una es X ∼ N(0, σ2)

y la otra es Y ∼ N(0, σ6

3 ). Primero que todo, debemos crear variables aleatorias iid N(0, 1) y luegohacer alguna combinacion lineal que este asociado a lo pedido. Ahora bien, para crear las variablesnormales, debemos ocupar el Metodo de Box muller.

1

Page 3: Trabajo 1

Para esto, se supone que U1 y U2 son variables aleatorias independientes que estan uniformemen-te distribuidas en el intervalo (0, 1]. Entonces

Z0 = Rcos(θ) =√−2 lnU1cos(2πU2)

Z1 = Rsin(θ) =√−2 lnU1cos(2πU2)

Entonces Z0 y Z1 son variables aleatorias independientes con una distribucion normal con desviaciontpica 1.

Notemos que antes debemos crear variables aleatorias independientes que tengan distribucin U(0, 1).Entonces con el algoritmo enseado en clases, las creamos.

Primero generamos dos vectores con 1000 numeros aleatorios, con distribucion uniforme, donde nues-tros vectores seran a y b. En cada parte veremos el grafico de la variable y de su densidad paraasegurarnos que nuestras variables esten bien definidas.

a ← numeric(1000)a[1] = 15for(i in 1 : 999){a[i+ 1] = (321 + a[i] ∗ 12) % % 834}a← a/833hist(a)plot(density(a))

Ahora creamos el vector b

b ← numeric(1000)b[1] = 15for(i in 2 : 999){b[i+ 1] = (321 + b[i] ∗ 1) % % 767}b ← /766hist(b)plot(density(b))

A continuacion utilizamos el Metodo Box Muller para generar numeros aleatorios con distribucionN(0, 1) a partir de nuestras variables uniformes (a y b).

Primera variable aleatoria U - N(0, 1):

2

Page 4: Trabajo 1

U ← numeric(1000)for(i in 1 : 1000) {U [i] = sqrt(−2 ∗ log(a[i])) ∗ sin(2 ∗ pi ∗ b[i])}hist(U)mean(U)var(U)plot(density(U))

Notamos que la esperanza de U nos da −0, 00019, pero en este caso el error es tan pequeo, que laesperanza puede considerarse como 0. En el caso de la varianza (1, 003) tambien existe un pequenoerror, pero este puede ser debido a la eleccion aleatoria de los puntos en las variables.

Segunda variable aleatoria V - N(0, 1):

V ← numeric(1000)for(iin1 : 1000) {V [i] = sqrt(−2 ∗ log(a[i])) ∗ cos(2 ∗ pi ∗ b[i])}hist(V )mean(V )var(V )plot(density(V ))

En este caso, la esperanza de V es 0, 006 lo cual tambien es muy cercano al cero absoluto. Y lavarianza de V es 1, 01 lo cual es casi 1.Ahora procederemos a definir las variables X e Y , tales que cumplan con lo pedido en el enunciado.Tomando σ = 5, la variable X se define como

X ← 5 ∗ U

Calculamos la esperanza y la varianza para asegurarnos que distribuya como queremos

mean(X) = −0, 0009var(X) = 25, 0984

Luego la variable Y , esta definida como:

Y ← 0,5 ∗ 125 ∗ (U + (1/(sqrt(3))) ∗ V )mean(Y ) = 0, 23var(Y ) = 5206

3

Page 5: Trabajo 1

En este caso, la esperanza de Y seguira siendo similar a 0, pero con un error un poco mayor y lavarianza de Y debera ser 5208, por lo cual 5206 esta dentro del margen de error.

b) Calcular cov(X,Y ) = σ4

2Ahora para la segunda parte de este problema, calculamos la cov(X,Y ), la cual nos da

cov(X,Y ) = 312, 4838

Esta teoricamente deberıa ser 312, 5, ası, la covarianza calculada por el programa se acerca mucho alvalor teorico.Ahora calculamos la covarianza entre U y V , como son variables iid, esta deberıa ser cercana a cero,y nos dio

cov(U, V ) = −0, 0066

.

3. Segundo Problema

a) Sea X1, X2 variables aleatorias iid N(0, 1), y (X,Y ) = (X1, X2)A+(1, 2) , A ∈ M2(R) invertible.Que distribucion tiene el vector (X,Y )?

En primer lugar, como las variables aleatorias X1 y X2 son iid N(0, 1), se tiene algo especial cuandodistribuyen normal independiente, ya que es equivalente a que las covarianzas de X1 y X2 sean cero,entonces X1 y X2 iid N(0, 1) si, y solamente si (X1, X2) ∼ N((0, 0), I2×2). Luego como (X,Y ) =(X1, X2)A+(1, 2), podemos notar que es una funcion afın en un espacio vectorial, por lo tanto es unacombinacion lineal de un vector normal bivariado (X1, X2). Por lo tanto se tendra que

(X,Y )×N((µ1, µ2), At · I ·A)

Es la distribuciıon del vector (X,Y ).

Por otro lado, pasemos esto a codigo R y veamos como se comporta. Entonces generaremos las mismasvariables aleatorias N(0, 1) que hicimos en el problema anterior (Pagina 2-3). Luego definimos unamatriz A y definimos u = (2, 3), entonces

A ← matrix(c(1, 0, 3, 2), nrow = 2, ncol = 2, byrow = T )u ← c(2, 3)

Ahora podremos generar nuestra normal bivariada, con los datos de las variables aleatorias N(0, 1)

M ← matrix(c(X1, X2), nrow = 1000, ncol = 2)Normal ← M % ∗ %ABiv ← t(Normal) + uBivtras ← t(Biv)

Calculamos la varianza y la esperanza para comparar con lo que realmente nos deberia dar

4

Page 6: Trabajo 1

var(Bivtras)mean(Bivtras[, 1])mean(Bivtras[, 2])V AR ← var(Bivtras)u1 ← mean(Bivtras[, 1])u2 ← mean(Bivtras[, 2])

Ahora generamos la normal bivariada, con los datos de las v.a. N(0, 1)

M ← matrix(c(X1, X2), nrow = 1000, ncol = 2)Normal ← M % ∗ %ABiv ← t(Normal) + uBivtras ← t(Biv)

Calculamos la varianza y la esperanza para comparar con lo que realmente nos deberia dar

var(Bivtras)mean(Bivtras[, 1])mean(Bivtras[, 2])V AR ← var(Bivtras)u1 ← mean(Bivtras[, 1])u2 ← mean(Bivtras[, 2])

b) Simule un vector aleatorio (X,Y ) tal que (X,Y ) ∼ N((1, 2),

[5 −2−2 37/4

].

En esta segunda parte generamos nuevamente los mismos codigos para poder ocupar el Metodo deBox Muller, los cuales los podemos apreciar en la Pagina 2-3. Ahora bien, a continuacion de esoscodigos, generaremos la matriz que se nos pide, para ası poder simular nuestro vector aleatorio(X,Y ). Entonces

A ← matrix(c(sqrt(5),−2/sqrt(5), 0, sqrt(169/20)), nrow = 2, ncol = 2, byrow = T )u ← c(1, 2)

Ahora generamos la normal bivariada, con los datos de las la variable aleatoria N(0, 1)

M ← matrix(c(X1, X2), nrow = 1000, ncol = 2)Normal ← MBiv← t(Normal) + uBivtras ← t(Biv)

5

Page 7: Trabajo 1

Por otro lado, calcularemos la varianza y la esperanza para comparar con lo que realmente nosdeberıa dar

var(Bivtras)mean(Bivtras[, 1])mean(Bivtras[, 2])

4. Conclusion

Despues de todo lo que se trabajo en este informe, podemos concluir que trabajar en Codigo R esuna experiencia muy acogedora para problemas de Probabilidades e Inferencia Estadıstica, ademasdel Metodo de Box Muller que nos permitio obtener buenas simulaciones de Variables Aleatorias condistribucion Normal.

6