11
Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA) DE VECTORES ALEATORIOS CONTINUOS DISTRIBUCIONES MARGINALES DISTRIBUCIONES CONDICIONADAS INDEPENDENCIA ESTOCÁSTICA ENTRE VARIABLES ALEATORIAS ESPERANZA Y OPERADOR ESPERANZA EN DISTRIBUCIONES MULTIDIMENSIONALES INDICADORES :ESPERANZA, VARIANZA,COVARIANZA Y CORRELACIÓN, VECTOR DE MEDIAS, MATRIZ DE VARIANZAS,REGRESIÓN NOTACION MATRICIAL.TRANSFORMACIONES LINEALES. OPERADOR ESPERANZA OPERADOR VARIANZA OTROS RESULTADOS FUNCIÓN DE DISTRIBUCIÓN CONJUNTA DE UN VECTOR ALEATORIO * En vectores aleatorios discretos y continuos: F(x,y) = P (X x , Y y ) = P [ (X,Y) ]-,x] × ]-,y] ] F(x 1 , x 2 ,...,x n ) = P (X 1 x 1 , X 2x 2 ,..., X n x n ) = = P [ (X 1 ,X 2 ,...,X n ) ]-, x 1 ] × ]-, x 2 ] × ...× ]-, x n ]] propiedades 1.- 0 F(x,y) 1 0 F(x 1 , x 2 ,...,x n ) 1 2.- F(,)= 1 F(,,...,)=1 3.- F(-,y)= 0 ; F(x,-)=0

DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

  • Upload
    vokhanh

  • View
    213

  • Download
    0

Embed Size (px)

Citation preview

Page 1: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA) DE VECTORES ALEATORIOS CONTINUOS DISTRIBUCIONES MARGINALES DISTRIBUCIONES CONDICIONADAS INDEPENDENCIA ESTOCÁSTICA ENTRE VARIABLES ALEATORIAS ESPERANZA Y OPERADOR ESPERANZA EN DISTRIBUCIONES MULTIDIMENSIONALES INDICADORES :ESPERANZA, VARIANZA,COVARIANZA Y CORRELACIÓN, VECTOR DE MEDIAS, MATRIZ DE VARIANZAS,REGRESIÓN NOTACION MATRICIAL.TRANSFORMACIONES LINEALES. OPERADOR ESPERANZA OPERADOR VARIANZA OTROS RESULTADOS

FUNCIÓN DE DISTRIBUCIÓN CONJUNTA DE UN VECTOR ALEATORIO

* En vectores aleatorios discretos y continuos:

F(x,y) = P (X ≤ x , Y ≤ y ) = P [ (X,Y) ∈ ]-∞ ,x] × ]-∞ ,y] ]

F(x1, x2 ,...,xn ) = P (X1 ≤ x1, X2≤ x2,..., Xn ≤ xn) =

= P [ (X1 ,X2 ,...,Xn) ∈ ]-∞ , x1] × ]-∞ , x2] × ...× ]-∞ , xn]]

propiedades

1.- 0 ≤ F(x,y) ≤ 1

0 ≤ F(x1, x2 ,...,xn ) ≤ 1

2.- F(∞ ,∞ )= 1

F(∞ ,∞ ,...,∞ )=1

3.- F(-∞ ,y)= 0 ; F(x,-∞ )=0

Page 2: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

F( -∞ , x2 ,...,xn) = 0 ;; F(x1, -∞ ,...,xn )= 0 ;; F(x1, x2 ,..., -∞ )= 0

4.- Es siempre No decreciente para todas y cada una de las componentes

5.- Es siempre continua por la derecha: gráficamente

FUNCIÓN DE CUANTÍA CONJUNTA de vectores aletorios discretos

P( x,y) = P(X=x ,Y= y)

P (x1, x2 ,...,xn ) = P (X1 = x1, X2= x2,..., Xn = xn)

Propiedades

1.-

2.- P(x,y) ≥ 0

P (x1, x2 ,...,xn ) ≥ 0

Page 3: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

3. -

Así su representación sería:

FUNCIÓN DE DENSIDAD CONJUNTA de vectores aleatorios continuos

propiedades

1.- f(x,y) ≥ 0

f(x1, x2,..., xn) ≥ 0

Page 4: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

2.-

3.-

su representación sería

DISTRIBUCIONES MARGINALES DE PROBABILIDAD

CASO DISCRETO:

BIDIMENSIONAL MULTIDIMENSIONAL

Page 5: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

CASO CONTINUO:

BIDIMENSIONAL MULTIDIMENSIONAL

DISTRIBUCIONES CONDICIONADAS

CASO DISCRETO: BIDIMENSIONAL

CASO CONTINUO: BIDIMENSIONAL

Page 6: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

INDEPENDENCIA ESTOCÁSTICA

Dos variables aleatorias X e Y se dice que son estocásticamente independientes cuando las distribuciones condicionadas y las marginales coinciden:

La independencia estocástica puede caracterizarse de una forma más operativa como:

X e Y son independientes ⇔ P(x,y)= P(x) P(y), en el caso discreto,

o bien, X e Y son independientes ⇔ f(x,y)= f(x) f(y) , en el caso continuo

ESPERANZA MATEMÁTICA EN DISTRIBUCIONES n-DIMENSIONALES.

Dado un vector aleatorio n-dimensional (v.a. n-dimensional), X1,X2,...,Xn, y dada una función cualquiera g(X1,X2,...,Xn) llamaremos esperanza matemática de g(X1,X2,...,Xn) a la expresión:

E[g(x1,x2,...,xn)]=

= para caso continuo

-----------------------------------------------------

=Σ Σ ... Σ g(x1,x2,...,xn).P(x1,x2,...,xn)

para caso discreto

Si la función g( ) no es completa ( no afecta a todas las variables ) la expresión del operador sólo dependerá de las variables afectadas. Así por ejemplo:

E[x1]quedaría tan sólo como la esperanza tomada sobre la distribución marginal:

Page 7: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

caso continuo ------------------------------------------------------------------------------------------

caso discreto

INDICADORES FUNDAMENTALES DE UNA DISTRIBUCIÓN

n-DIMENSIONAL

Al igual que ocurría en el caso de distribuciones de frecuencias los indicadores fundamentales de la distribución son únicamente los que se pueden obtener a partir de las distribuciones marginales unidimensionales (media, varianza, etc.) y de cada par de variables (covarianza y coeficiente de correlación)

COVARIANZA Y CORRELACIÓN ENTRE VARIABLES ALEATORIAS

La covarianza entre dos v.a. X e Y se define como:

σ xy= E[(x-µ x)(y-µ y)] = E[x.y] - µ xµ y

siendo E[x.y] el momento ordinario mixto de orden 1,1 ( α1,1):

caso continuo ---------------------------------------------------------------------------------

caso discreto

La covarianza nos informa de la covariación conjunta de las dos variables, análogamente a como ocurría en el caso de distribuciones de frecuencias. Sólo hay que considerar aquí que la covariación hay que entenderla en términos de probabilidad y no de frecuencia: una covariación positiva sería el que a valores altos de una de la variables le corresponden "con mayor probabilidad" valores altos de la otra y a valores bajos valores bajos.(Una covariación negativa , inversamente).

Al igual también que en el caso de las distribuciones de frecuencias puede obtenerse un indicador de la correlación ( covariación estandarizada, relativizada y que permite la comparación al estar acotada):

[ ] ( )1 1 1 1 1E x x f x dx∞

−∞

= ∫

[ ]1 1 1 1· ( )i

E x x P x∀

= ∑

[ ], ( )E x y xyf xy dxdy∞ ∞

−∞ −∞

= ∫ ∫

[ ] ( ), i i i ji j

E x y x y P x y∀ ∀

= ∑∑

Page 8: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Se define, entonces el coeficiente de correlación como:

Indicador que viene a tener al mismo sentido que en las distribuciones de frecuencias y que igualmente está acotado entre -1 y 1.

Si dos variables aleatorias son estocásticamente independientes su coeficiente de correlación (y su covarianza es cero).

Sin embargo el resultado recíproco no es necesariamente cierto (dos variables incorrelacionadas no tienen porqué ser independientes, por lo general)

VECTOR DE MEDIAS (centro de gravedad) de una distribución de probabilidad

vector de medias: Es el vector columna formado por las medias de las distribuciones marginales univariantes:

MATRIZ DE VARIANZA ( DE VARIANZAS Y COVARIANZAS; DE COVARIANZAS O DE MOMENTOS) Y DE CORRELACIÓN

matriz de varianzas:Es la matriz n× n formada por las varianzas y covarianzas:

matriz de correlación: Es la matriz n× n formada por los coeficientes de correlación:

·xy

xyx y

σρ ρ

σ σ= =

Page 9: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

REGRESION DE VARIABLES ALEATORIAS

Al igual que en estadística descriptiva se puede concebir la regresión como un procedimiento de expresar una variable como función de otra u otras.

Análogamente a como ocurría allí:

La regresión Y/X en sentido estricto se define como: E[Y/X]

La regresión X/Y en sentido estricto se define como: E[X/Y]

y la regresión en sentido estricto puede ajustarse a alguna función analítica. En el caso lineal ( y por el método de mínimos cuadrados ) resulta que:

regresión lineal Y/X: Y*=µy+ (ρ/σ2x(x-µx))

regresión lineal X/Y : X*=µx+ (ρ/σ2y(y-µy))

ESPERANZA DE UN VECTOR .Linealidad

El operador esperanza puede extenderse para que actúe sobre un vector aleatorio, sin más que considerar que la esperanza de un vector es el vector formado por las esperanzas.

De esta manera: dado el vector aleatorio

la esperanza del vector vendrá dada por:

Page 10: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

PROPIEDADES:

Si se realiza una transformación lineal del vector X de manera que el nuevo vector aleatorio k-dimensional Z sea:

Z = AX + b Donde

Entonces E[Z]= A E[X]+b :

LA ESPERANZA DE UNA TRANSFORMACIÓN LINEAL DE UN VECTOR ALEATORIO ES LA TRANSFORMACIÓN LINEAL DE LA ESPERANZA DEL VECTOR

VARIANZA DE UN VECTOR. OPERADOR VARIANZA

El operador varianza puede generalizarse para aplicarse sobre un vector aleatorio de forma que se podrá definir como:

V(X) = E[(X-E(X)) (X-E(X)) ']

El resultado de aplicar el operador a un vector aleatorio es, obviamente la matriz de varianzas-covarianzas.

PROPIEDADES:

Si se realiza una transformación lineal del vector X de manera que el nuevo vector aleatorio k-dimensional Z sea:

Z = AX + b

donde:

Page 11: DISTRIBUCIONES MULTIDIMENSIONALES DE …ocw.uv.es/ciencias-sociales-y-juridicas/estadistica/2t11.pdf · Estadística Curso 2010-2011 Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

Estadística Curso 2010-2011

Juan Mtnez. de Lejarza Ignacio Mtnez. de Lejarza

RESULTADOS COMPLEMENTARIOS IMPORTANTES:

1) Dada dos o más variables aleatorias independientes si las sumamos obtendremos una nueva variable aleatoria cuya F.G.M.(F.C.) será el producto de las F.G.M. (F.C) de las variables originales.

2) Distribuciones reproductivas por adición.

Un modelo de probabilidad (distribución-tipo de probabilidad) univariante se dice que es reproductivo por adición o que verifica el teorema de adición cuando se cumple la propiedad siguiente:

Dadas dos o más variables aleatorias que tengan por distribución ese modelo de probabilidad y que sean (todas) independientes, la suma de ellas es una nueva variable aleatoria que tiene ese mismo modelo de probabilidad y cuyos parámetros son la suma de los parámetros

Modelos que cumplen la reproductividad aditiva (Teorema de adición):

BINOMIAL (para el parámetro n): la suma de dos o más variables binomiales independientes es una binomial de parámetro n la suma de los parámetros n.

POISSON (para el parámetro λ): la suma de dos o más variables de poisson independientes es una variable de poisson con parámetro λ , la suma de los parámetros λ .

NORMAL (para la media y la VARIANZA): la suma de dos o más variables normales independientes es una variable normal con media la suma de las medias y con varianza la suma de las varianzas (con D.Típica la raíz cuadrada de la suma de los cuadrados de las desviaciones típicas).

Todas estas reproductividades pueden probarse fácilmente utilizando el resultado 1) y teniendo en cuenta el efecto caracterizador de la F.G.M (o de la F.C.)

3) PROPIEDAD FUNDAMENTAL (TEOREMA FUNDAMENTAL) DE LAS DISTRIBUCIONES NORMALES."Una combinación lineal cualquiera de variables normales independientes es también normal y tendrá por media la misma combinación lineal de las medias y por varianza la combinación, con los coeficientes al cuadrado, de las varianzas.