View
976
Download
0
Category
Preview:
DESCRIPTION
Este trabajo es un complemento, de las variables aleatorias, la aplicación de las técnicas de transformaciones para encontrar la función de distribución de una variable a partir de otra ya conocida y en especial las estadísticas de orden donde estas estadísticas juegan un papel importante en la inferencia estadística particularmente porque algunas de sus propiedades no dependen de la distribución de la cual fue obtenida la muestra aleatoria.
Citation preview
6
LAS ESTADÍSTICAS DE ORDEN COMO UNA APLICACIÓN
DE TRANSFORMACIÓN DE FUNCIONES VARIABLES
OLGA ARDILA SANCHEZ
oardilas@gmail.com
Trabajo de Grado para Optar el Titulo de Matemático
Director
Benigno Lozano Rojas
FUNDACION UNIVERSITARIA KONRAD LORENZ
FACULTAD DE MATEMATICAS
BOGOTA D.C.
2007
7
RESUMEN
Este trabajo es un complemento, de las variables aleatorias, la aplicación de las técnicas de transformaciones para encontrar la función de distribución de una variable a partir de otra ya conocida y en especial las estadísticas de orden donde estas estadísticas juegan un papel importante en la inferencia estadística particularmente porque algunas de sus propiedades no dependen de la distribución de la cual fue obtenida la muestra aleatoria.
ABSTRACT
This work is a complement, of the random variables, the application of the technique of transformations to find the distribution function of a variable from other one already known, and special the statistics of order where statistical these play an important paper (role) in the statistical inference particularly because some of properties do not depend on the distribution on which was obtained the random sample.
8
AGRADECIMIENTOS
Agradezco al profesor Benigno Lozano Rojas, quien me acompaño y apoyo con los valiosos aportes en la ejecución de este trabajo, agradezco también al doctor Antonio Velasco Muños decano de la facultad de matemáticas y a cada uno de los docentes y compañeros que tuvieron un aporte importante para mí formación a lo largo de la carrera.
Y agradecer a mis padres y hermanos por el apoyo y consejos durante todo este tiempo de formación.
9
INTRODUCCION
El presente trabajo se encuentra dividido en dos partes, la primera parte
consta de tres capítulos de conceptos básicos que se utilizan en las
estadísticas de orden y la segunda parte es el desarrollo del tema.
Se hará una introducción: sobre las variables aleatorias discretas y
continuas; donde las variables aleatorias se conocen porque todos los
resultados posibles de un espacio muestral, se pueden transformar en
cantidades numéricas. También se tratara sobre las distribuciones
discretas que surgen al contar y las distribuciones continuas que
aparecen cuando se mide, y por ultimo se abordara sobre las técnicas de
transformaciones que es usada tanto en distribuciones de probabilidad
variables aleatorias discretas como en distribuciones de probabilidad de
variables aleatorias continuas. Esta técnica se utiliza para encontrar la
función de distribución de una variable aleatoria a partir de una variable
aleatoria ya conocida.
La segunda parte comprende de las estadísticas de orden. Estas
estadísticas juegan un papel importante en la inferencia estadística
particularmente porque algunas de sus propiedades no depende de la
distribución de la cual fue obtenida la muestra aleatoria. Estas
estadísticas se ordenan ascendentemente a partir de las muestras
obtenidas anteriormente, esto quiere decir que a menudo necesitamos
ordenar las variables aleatorias observadas de acuerdo a su magnitud
para identificar modelos probabilisticos tales como el máximo, el mínimo,
el rango, la mediana y entre otros. Ya que en estos modelos se aplican
métodos matemáticos específicos.
10
CAPITULO UNO
1. VARIABLE ALEATORIA
Definición 1.1: “ Sea S un espacio muestral sobre el cual se encuentra
definida una función de probabilidad. Sea X una función de valor real
definida sobre S, de manera que transforme los resultados de S en puntos
sobre la recta de los reales, se dice entonces que X es una variable
aleatoria.” 1
El conjunto de valores que una variable aleatoria puede tomar se
denomina el rango de la variable aleatoria.
Se dice que X es una variable aleatoria si todos los resultados posibles de
un espacio muestral, se pueden transformar en cantidades numéricas.
Ejemplo 1.1:
Sea: X= número de caras que se obtiene en lanzamientos independientes
de una moneda de diez y una de cinco centavos.
En este caso S consta de los cuatro puntos (resultados)
(H, H) (H, T) (T, H) (T, T)
Entonces S= HH, HT, TH, TT
1 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág.52
11
(H= cara, T= cruz; la primera letra se refiere al diez y la segunda al
cinco).
Los valores correspondientes de X son:
2 1 1 0, respectivamente.
S X
HH 2
HT 1
TH 1
TT 0
Tabla 1
Definición 1.2: “ Se dice que una variable aleatoria X es discreta si su rango es un conjunto finito o infinito numerable de valores.” 2
Ejemplo 1.2:
En el ejemplo 1.1 los valores posibles de X son 0, 1 y 2. Luego X es una
variable aleatoria discreta.
Definición 1.3: Se dice que una variable aleatoria X es continua si su rango es un conjunto infinito no numerable de valores. Este conjunto
puede definirse en un intervalo o en un conjunto finito de intervalos.
Ejemplo 1.3:
Sea una variable aleatoria X cuyos valores sean los pesos en kilogramos
de todas las persona mayores de 30 años, lógicamente hay infinitos
valores asociados a estos pesos. Si estos pesos se asignaran a la recta
2 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 53
12
real, puede definirse un número finito de intervalos para describir todos
los posibles valores de peso.
1.1 DISTRIBUCIONES DE PROBABILIDAD
Definición 1.4: Una distribución de probabilidad es un listado de las probabilidades de todos los posibles resultados que podrían obtenerse si
el experimento se lleva a cabo.
Las distribuciones de probabilidad se clasifican como discretas y
continuas.
1.1.2 Distribuciones de probabilidad de variables discretas
Una variable aleatoria asume cada uno de sus resultados con cierta
probabilidad.
Definición 1.5: “ Sea X una variable aleatoria discreta. Se llamará
) ( ) ( x X P x f = = función de probabilidad de la variable aleatoria X , si
satisface las siguientes propiedades.” 3
1. ) (x P ≥ 0;
2. ∑ x x P ) ( = 1;
Ejemplo 1.4
Se arrojan dos dados legales hallar:
3 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 54
13
a. La función de probabilidad ) (x f donde X es la suma de los dos
números que se obtienen al arrojar dos dados legales.
b. La probabilidad de que la suma de los dos dados sea 6.
Solución:
a. La función de probabilidades ) (x f , correspondiente, tiene los
siguientes valores:
Resultado N° de
ocurrencias
Probabilidad
2 1 1/36
3 2 2/36
4 3 3/36
5 4 4/36
6 5 5/36
7 6 6/36
8 5 5/36
9 4 4/36
10 3 3/36
11 2 2/36
12 1 1/36
Tabla 2
Note que los valores posibles de X conforman los posibles conteos sobre
el espacio muestral y en consecuencia las probabilidades suman 1.
A continuación se muestran las graficas de f (x)
14
0 0,02 0,04 0,06 0,08 0,1 0,12 0,14 0,16 0,18
0 5 10 15
Serie1
Gráfica 1
b. La función probabilidad donde x= 6 será:
( f 6 ) = = X P( 6 ) = 6/36
Definición 1.6: “ La distribución acumulativa de la variable aleatoria X es
la probabilidad de que X sea menor o igual a un punto específico de X y esta dada por” 4 :
) (X F = ) ( x X P ≤ = ∑ i x i x P ) (
Con ciertas propiedades:
1. 0 ≤ ≤ ) (x F 1.
2. ) ( ) ( j i x F x F ≤ si j i x x ≤ .
3. ) ( x X P > = 1 ) (x F .
4. ) ( x X P = = − − x F x F ( ) ( 1 ) .
5. ) ( j i x X x P ≤ ≤ = ) ( j x X P ≤ ) ( j x X P < = ) ( ) ( 1 − − i j x F x F .
Cabe anotar que ) ( x X P ≤ ≠ ) ( x X P < si X es una variable discreta.
4 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.. Pág. 53
Función de densidad
15
) ( x X P ≤ =…+ = X P( 0 ) + = X P( 1 ) +…+ = X P( x 1 ) + = X P( x )
) ( x X P < =…+ = X P( 0 ) + = X P( 1 ) +…+ = X P( x 1 )
Ejemplo 1.5:
• Encuentre la distribución acumulada de la variable aleatoria X del ejemplo 1.3
Solución:
( F 2 ) = ≤ X P( 2 ) = = X P( 2 ) = 1/36;
( F 3 ) = ≤ X P( 3 ) = = X P( 2 ) + = X P( 3 )
= 1/36 + 2/36
= 3/36;
( F 4 ) = ≤ X P( 4 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 )
= 1/36 + 2/36 + 3/36
= 6/36;
( F 5 ) = ≤ X P( 5 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 )
= 1/36 + 2/36 + 3/36+ 4/36
= 10/16;
( F 6 ) = ≤ X P( 6 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5)+ = X P( 6)
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36
= 15/36;
( F 7 ) = ≤ X P( 7 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 ) + = X P( 7) = 1/36 + 2/36 + 3 /36+ 4/36 + 5/36 + 6/36
= 21/36;
( F 8 ) = ≤ X P( 8 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 ) + = X P( 7) + = X P( 8)
16
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36
= 26/36;
( F 9 ) = ≤ X P( 9 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 ) + = X P( 7) + = X P( 8) + = X P( 9)
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36
=30/36;
( F 10 ) = ≤ X P( 10 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 )
+ = X P( 7) + = X P( 8) + = X P( 9) + = X P( 10)
=1/36 + 2/36 + 3/36+4/36+5/36+6/36+5/36 + 4/36+3/36
=33/36;
( F 11 ) = ≤ X P( 11 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 )
+ = X P( 7) + = X P( 8) + = X P( 9) + = X P( 10) + = X P( 11)
= 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36
+ 4/36+3/36+2/36
= 35/36;
( F 12 ) = ≤ X P( 12 ) = = X P( 2 ) + = X P( 3 ) + = X P( 4 ) + = X P( 5 ) + = X P( 6 )
+ = X P( 7)+ = X P( 8)+ = X P( 9)+ = X P( 10)+ = X P( 11)+ = X P( 12)
=1/36+2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36+ 3/36+ 2/36 +1/36 = 1
Luego la distribución acumulada es:
17
= ) (X F
≥ < ≤ < ≤ < ≤ < ≤ < ≤ < ≤ < ≤ < ≤ < ≤ < ≤
<
12 12 11 11 10 10 9 9 8 8 7 7 6 6 5 5 4 4 3 3 2
2
1 36 / 35 36 / 33 36 / 30 36 / 26 36 / 21 36 / 15 36 / 10 36 / 6 36 / 3 36 / 1 0
x x x x x x x x x x x
x
1.1.3 Distribuciones de probabilidad de variables continúas
En el caso de las distribuciones continúas ) ( x X P = = 0.
Ejemplo 1.6:
La variable aleatoria continua W se define como la altura de todas las
personas mayores de 20 años en un intervalo de 170 hasta 180
centímetros. Suponga que se quiere encontrar = X p( 175 ) ,
aparentemente parece que se pudiera calcular fácilmente, pero si
entendiéramos que en el intervalo (170, 180) hay infinidades de números,
evidentemente hay infinidad de estaturas por lo cual = X p( 175 ) tiende a
ser nulo, para este caso es mejor utilizar intervalos. En nuestro caso seria
( p 174.9 ≤ ≤ X 175.1 ) .
La distribución de probabilidad de una variable continua X esta caracterizada por una función ) (x f , la cual recibe el nombre de función
18
de densidad de probabilidad y proporciona un medio para calcular
( p a ≤ ≤ X b ) con b > a.
De manera formal se define de la siguiente manera:
Definición 1.7: “ Si existe una función ) (x f tal que” 5 :
• ) (x f ≥ 0 ∞< 0 < ∞
• ∫ ∞
∞ − dx x f ) ( = 1
• ( P a ≤ ≤ X b ) = ∫ b
a dx x f ) ( a,b ∈ ℜ
Entonces se dice que ) (x f es la función de densidad de probabilidad de
la variable aleatoria continua X .
De esta definición se derivan algunas otras propiedades.
Sea X una variable aleatoria continúa con función de densidad ) (x f
probar:
1. ( P = X a ) = 0
2. ( P a ≤ ≤ X b ) = ( P a < < X b )
Solución:
1. ( P a X = ) = ( P a ≤ ≤ X a ) = ∫ a
a dx x f ) ( = 0
2. ( P a ≤ ≤ X b ) = ( P = X a ) + ( P a < < X b ) + ( P = X b ) = ( P a < < X b )
Ejemplo 1.7:
Sea X una variable aleatoria continua con la siguiente distribución:
5 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 58
19
∞ ≤ <
=
−
caso otro en
x i s e x f
x
0
0 2 1
) (
2 1
a. Encontrar ) 2 1 ( ≤ ≤ X P
Solución:
Primero se verifica si el modelo es legítimo:
dx e x 2 / 1
0 2 1 − ∞
∫
Integrando por sustitución tenemos que
1 ] 1 [ 0 0
2 / 1 = − − = − ∞ − x e Por lo tanto el modelo es legítimo.
Ahora se encontrará la ) 2 1 ( ≤ ≤ X P
) 2 1 ( ≤ ≤ X P = dx e x 2 / 1 2
1 2 1 − ∫
Integrando por sustitución tenemos que:
2 / 1 1 2
1 2 / 1 − − − + − = − e e e x
Entones se tiene que:
) 2 1 ( ≤ ≤ X P = 2 / 1 1 − − + − e e
20
1.2 Valor esperado
Los grandes jugadores de pòker dicen que los jugadores no
experimentados pueden ganar dinero a corto plazo pero que perderán
dinero a largo plazo. Lo contrario vale para profesionales y muy buenos
jugadores, lo cuales ganarán generalmente a largo plazo.
“¿Por qué esto es así? Esto se debe a un concepto conocido como “valor
esperado”. Valor esperado es el beneficio que se espera. Por ejemplo,
supongamos que he realizado una apuesta para tirar una moneda. Si sale
cara, perderé $1, si sale cruz, ganare $100. ¿Debo aceptar teóricamente
esta apuesta (asumiendo que la moneda es verdadera y existe un
cincuentacincuenta de posibilidad de que salga cara o cruz)?
Se debería aceptar la apuesta. Existe una probabilidad de 1/2 de que
caiga en cara y gane $100. Por lo tanto, la ganancia esperada es
0.5*$100=50. Si saliera cruz, pierdo $1. Por lo que, la perdida esperada
0.5*$1=0.50 Y el beneficio esperado es la ganancia esperada menos la
pérdida esperada. Es decir, que mi beneficio esperado es de $49,5.
Entonces, no ganaré $49,50. Ganaré $100 o perderé $1. Sin embargo,
deberíamos ver la apuesta como "ganar" $49,50. Los resultados en los
juegos de azar están influenciados por la suerte a corto plazo. Sin
embargo, a los resultados se verán cercanos a semejarse al valor
esperado. Si lanzamos la moneda un millón de veces, mi beneficio final
será muy cercano a 49,50 millones.” 6
Entonces resumiendo:
Sea X una variable discreta donde solo podrá tomar dos valores,
$100(ganancia), $1 (la perdida ósea = X 1, 100 ahora la probabilidad
6 www.pokertips.com.es/strategy/expectedvalue.php
21
de ganancia es 0.5 y la ganancia de perdida es 0.5. por tanto su valor
esperado es:
= µ (1) (0.5)+ (100) (0.5)=49.5
Luego se observa que el valor esperado esta dado por:
= ) (X E ∑ =
1
0
) ( . i
i i x P x = (1) (0.5)+ (100) (0.5)=49.5
Así se llega a la definición de valor esperado o esperanza matemática de
una variable aleatoria
Definición 1.8:
La media de una variable aleatoria se considera como una cantidad
numérica alrededor de la cual los valores de la variable aleatoria tienden a
agruparse por lo tanto la media es una medida de tendencia central y se
define por:
= µ = ) (X E ∑ x
x xp ) ( Si X es una variable discreta
= µ = ) (X E ∫ ∞
∞ −
dx x xf ) ( Si X es una variable continua
En general define el valor esperado de una función de X , ) (x h , por la
igualdad
[ ] = ) (X h E ∑ x
x p x h ) ( ) ( Si X es una variable discreta.
[ ] = ) (X h E ∫ ∞
∞ −
dx x f x h ) ( ) ( Si X es una variable continua.
22
Análogamente para mas de dos variables k x x x x ,..., , , 3 2 1 el valor esperado
de cualquier función h de las variantes, se define por
[ ]= ) ,..., , , ( 3 2 1 k x x x x h E ∑∑∑ ∑ 1 2 3
) ,..., , , ( ) ,..., , , ( ... 3 2 1 3 2 1 x
k x x x
k x x x x p x x x x h k
Si k x x x x ,..., , , 3 2 1 variables discretas.
[ ]= ) ,..., , , ( 3 2 1 k x x x x h E ∫ ∞
∞ − k k k dx dx dx dx x x x x f x x x x h ... ) ,..., , , ( ) ,..., , , ( 3 2 1 3 2 1 3 2 1
Si k x x x x ,..., , , 3 2 1 variables continuas.
El valor esperado o media posee algunas propiedades:
1. k k E = ) ( para k una constante
2. k x cE k cx E + = + ) ( ) ( para k , c constantes
3. )] ( [( )] ( [( )] ( ) ( [ x h E x g E x h x g E + = + donde g y h funciones de
distribución
NOTA: El valor esperado, puede no existir dependiendo si la
correspondiente suma o integral diverge a un valor infinito.
Ejemplo:
Halle la media de cada una de las siguientes distribuciones:
a.
x 5 4 1 2
) (x f 1/4 1/8 1/2 1/8
b.
x 1 3 5 7
) (x f 1/6 1/9 1/2 1/3
23
Solución:
a. 1 8 1 2
2 1 1
8 1 4
4 1 5 ) ( ) ( − =
+
+
−
− = = = ∑ x xf X E µ
b. 9 50
3 1 7
2 1 5
9 1 2
3 1 3 ) ( ) ( =
+
+
+
= = = ∑ x xf X E µ
24
CAPITULO DOS
2. DISTRIBUCIONES ESPECIALES
2.1. DISTRIBUCIONES ESPECIALES DISCRETAS
2.1.1 DISTRIBUCION UNIFORME
“La distribución uniforme es la que corresponde a una variable que toma
todos sus valores, x1, 7 x2,...,xn, con igual probabilidad; el espacio muestral
debe ser finito. Donde n es el parámetro de la distribución”.
Si la variable tiene n posibles valores, su función de probabilidad sería:
f(x)= n 1 para n= 1, 2,3,….
La media y la varianza de la distribución uniforme se calculan por las
expresiones:
Media: = µ 2 1 + n
Varianza: = 2 σ 12
1 2 − n
La función generadora de momentos esta dada por:
7 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20uniforme
25
∑ =
= n
i
it x e
n t
1
1 ) ( µ
2.1.2. DISTRIBUCION BERNOULLI
“Consiste en realizar un experimento aleatorio una sola vez y observar si
cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1p la probabilidad de que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, Podríamos por tanto definir este
experimento mediante una variable aleatoria discreta X que toma los valores X = 0 si el suceso no ocurre, y X = 1 en caso de que el suceso ocurra” 8 .
La función de probabilidad de la variable bernoulli es:
( ) x x q p x f − = 1 para 1 , 0 . 1 0
= ≤ ≤
x p
La media y la varianza de la distribución bernoulli se calculan:
Media: = µ p
Varianza: = 2 σ p q
La función generadora de momentos esta dada por:
( ) = t x µ t pe q +
8 www.bioestadistica.uma.es/libro/node69.htm
26
2.1.3. DISTRIBUCION BINOMIAL
La distribución binomial posee las siguientes características:
1. “El modelo está compuesto de n ensayos independientes iguales,
siendo n un número natural fijo.
2. Cada ensayo resulta en un suceso que cumple las propiedades de
la variable binómico o de Bernouilli, es decir, sólo existen dos
posibles resultados, mutuamente excluyentes, que se denominan
generalmente como éxito y fracaso.
3. La probabilidad del ‚éxito (o del fracaso) es constante en todos los
ensayos. P (éxito) = p; P (fracaso) = 1 p = q
4. Los ensayos son estadísticamente independientes.
La función de probabilidad de la variable binomial se representa como
b(x,n,p) donde n y p son los parámetros de la distribución e indica la
probabilidad de que ocurran exactamente x éxitos en una muestra de n
observaciones de Bernoulli independientes” 9 .
n el número de pruebas
p la probabilidad de éxito.
( ) x n x q p x n
x f −
= para
... 3 , 2 , 1 1 0 ,..., 2 , 1 , 0
= ≤ ≤
=
n p
n x
La media y la varianza de la distribución binomial se calculan:
9 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20binomial
27
Media: = µ np
Varianza: = 2 σ npq
La función generadora de momentos esta dada por:
( ) = t x µ ( ) n t pe q +
2.1.4. DISTRIBUCION HIPERGEOMÉTRICA
Una variable tiene distribución hipergeométrica si posee un modelo que
cumple las siguientes condiciones:
1. “Se toma una muestra de tamaño n, sin reemplazo, de un conjunto
finito de M objetos.
2. K de los M objetos se pueden clasificar como ‚éxitos y M K como
fracasos.
3. X cuenta el número de éxitos obtenidos en la muestra.
En este caso, la probabilidad de éxito en pruebas sucesivas no es
constante pues depende del resultado de las pruebas anteriores. Por
tanto, las pruebas no son independientes entre sí” 10 .
La función de probabilidad de la variable hipergeométrica es:
( )
− −
=
n M
x n K M
x K
x f para
M n M K
M n x
,..., 3 , 2 , 1 ,..., 2 , 1 , 0 ,... 3 , 2 , 1 ,..., 3 , 2 , 1
=
= =
=
10 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20hipergeomé trica
28
La media y la varianza de la distribución hipergeométrica se calculan:
Media: = µ M K n
Varianza: = 2 σ
− −
−
1 M n M
M K M
M K n
2.1.5. DISTRIBUCION POISSON
Una variable de tipo poisson cuenta ‚éxitos que ocurren en una región del
espacio o del tiempo.
El modelo que la genera debe cumplir las siguientes condiciones:
1. “El número de éxitos que ocurren en cada región del tiempo o del
espacio es independiente de lo que ocurra en cualquier otro tiempo
o espacio disyunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra
fuera de él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio” 11 .
La función de probabilidad de una variable Poisson es:
11
www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20de%20poisso n
29
( ) ! x
e x f x λ λ −
= si ∞ = ,.., 3 , 2 , 1 , 0 x y λ >0
La media y la varianza de la distribución poisson se calculan:
Media: = µ λ
Varianza: = 2 σ λ
La función generadora de momentos esta dada por:
( ) = t x µ ( ) [ ] 1 exp − t e λ
2.1.6. DISTRIBUCION GEOMETRICA
“La distribución geométrica comparte algunas características del modelo
Binomial pero la diferencia entre los dos modelo es que en la distribución
geométrica la variable x es el número de ensayos que son necesarios realizar para que ocurra por primera vez un éxito” 12 .
La función de probabilidad de una variable geométrica es:
x pq x f = ) ( ∞ = ,.., 3 , 2 , 1 , 0 x
0<p<1 y (q=1p)
La media y la varianza de la distribución geométrica se calculan:
12 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con
aplicaciones. Thomson.Pág.110
30
Media: = µ p q
Varianza: = 2 σ 2 p q
La función generadora de momentos esta dada por:
( ) = t x µ t qe
p − 1
2.1.7. DISTRIBUCION BINOMIAL NEGATIVA
“La distribución binomial negativa surge de un contexto semejante al que
conduce a la distribución geométrica, donde cada ensayo idéntico e
independiente da origen a uno de los dos resultados de éxito o fracaso” 13 .
Este modelo nos permite encontrar la probabilidad del número de ensayos
que son necesarios realizar en el que ocurre el nésimo éxito.
La función de probabilidad de una variable binomial negativa es:
x r q p x x r
x f
− + =
1 ) ( para 0< 1 ≤ p y r > 0
∞ = ,.., 3 , 2 , 1 , 0 x
La media y la varianza de la distribución binomial negativa se calculan:
Media: = µ p rq
13 13 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con
aplicaciones. Thomson.Pág.116
31
Varianza: = 2 σ 2 p rq
La función generadora de momentos esta dada por:
( ) = t x µ r
t qe p
− 1
2.2. DISTRIBUCIONES ESPECIALES CONTINUAS
2.2.1. DISTRIBUCION UNIFORME
La función de distribución uniforme es constante en el intervalo (a, b).
Por esto, tal distribución también se conoce como distribución rectangular
La función de densidad de la distribución uniforme es:
f(x)= a b −
1 para ∞ < < < ∞ −
< < b a b x a
La media y la varianza de la distribución uniforme se calculan por las
expresiones:
Media: = µ 2 b a +
Varianza: = 2 σ 12
) ( 2 a b −
La función generadora de momentos esta dada por:
( ) = t x µ t a b
e e at bt
) ( − −
32
2.2.2. DISTRIBUCION NORMAL
“Una variable es normal cuando se ajusta a la ley de los grandes
números, es decir, cuando sus valores son el resultado de medir
reiteradamente una magnitud sobre la que influyen infinitas causas de
efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de
campana a la que se llama campana de Gauss” 14 .
La función de densidad de una variable normal es:
( )
− − = 2
2
2 exp
2 1 ) (
σ µ
πσ x x f para
0 > ∞ < < ∞
σ µ
La media y la varianza de la distribución normal se calculan:
Media: ) (X E = µ
Varianza: = 2 σ 2 ) ( µ − X E
La función generadora de momentos esta dada por:
( ) = t x µ
+ 2 2
2 1 exp t t σ µ
2.2.3. DISTRIBUCION BETA
“La distribución beta permite generar una gran variedad de perfiles, se ha
utilizado para representar variables físicas cuyos valores se encuentran
restringidos a un intervalo de longitud finita” 15 .
14 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20normal%20 o%20de%20Gauss
33
La función de densidad de una variable beta es:
1 1 ) 1 ( ) , (
1 ) ( − − − = b a x x b a B
x f para 0 0
1 0
> >
< <
b a
x
La media y la varianza de la distribución beta se calculan:
Media: b a
a +
= µ
Varianza: = 2 σ 2 ) )( 1 ( b a b a ab
+ + +
2.2.4. DISTRIBUCION WEIBULL
“En los últimos 25 años esta distribución se empleó como modelo para
situaciones del tiempofalla y con el objetivo de lograr una amplia variedad
de componentes mecánicos y eléctricos. La distribución de Weibull
depende de dos parámetros θ α , ” 16 .
La función de densidad de una variable Weibull es:
] ) / ( exp[ ) ( 1 α α α θ
θ α x x x f − = −
0 0
> >
∞ < <
θ α
x o
La media y la varianza de la distribución Weibull se calculan:
Media:
+ Γ =
α θ µ 1 1
15 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 147
16 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.159
34
Varianza: = 2 σ
+ Γ −
+ Γ
α α θ 1 1 2 1 2 2
La función generadora de momentos esta dada por:
( ) = t x µ
+ Γ
−
b t a b
t 1
2.2.5. DISTRIBUCIÓN CHICUADRADO
Sea v un entero positivo. Se dice que una variable aleatoria X tiene una distribución Chicuadrado con v grados de liberta si y sólo si X es una
variable aleatoria con una distribución gamma y parámetros 2 v = α y
2 = β .
La función de densidad de una variable Chicuadrado es:
( ) ( )x v
v
e x v x f 2 1
1 2 2
2 1
2
1 ) ( − −
Γ =
La media y la varianza de la distribución Chicuadrado se calculan:
Media: v = µ
Varianza: = 2 σ v 2
La función generadora de momentos esta dada por:
( ) = t x µ 2
2 1 1
v
t
−
35
2.2.6. DISTRIBUCION T STUDENT
“Supongamos dos variables aleatorias independientes, una normal
tipificada, Z, y otra con distribución χ2 con ν grados de libertad, la variable
definida según la ecuación” 17 :
ν
2 x Z T =
tiene distribución t con ν grados de libertad.
La función de densidad de una variable t student es:
( ) [ ] [ ] 2 / ) 1 ( / 2 ) ( 1 ) 2 / ( 2 / 1 ) ( + −
+ Γ + Γ
= v v
v v v x f
π para 1 0
> >
∞ < < ∞ −
v v
x
La media y la varianza de la distribución t student se definen:
Media: 0 = µ
Varianza: = 2 σ 2 − v
v para v>2
2.2.7. DISTRIBUCION F
“La distribución F aparece frecuentemente como la estadística de prueba
de la hipótesis nula (distribución nula) de una prueba estadística,
17 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htmDistribuciónT%20de%20Stud ent
36
especialmente en el análisis de varianza, para mas de dos poblaciones” 18 .
La función de densidad de una variable distribución F es:
( ) [ ] ( ) ( )
( )
( ) [ ] ( ) 2 /
2 / 2 2
1 2 / 2 / 2 / ) ( n m
m m
x n m x
n m
n m n m x f
+
−
+
Γ Γ + Γ
=
para ,... 2 , 1 , =
∞ < < n m x o
La media y la varianza de la distribución F se calculan:
Media: 2 −
= n n µ para n>2
Varianza: = 2 σ ) 4 ( ) 2 ( ) 2 ( 2
2
2
− − − + n n m n m n para n>4
2.2.8. DISTRIBUCION GAMMA
“La distribución gamma es una distribución de probabilidad continua con
dos parámetros β α y .
El parámetro α recibe el nombre de parámetro de forma, ya que la forma de la densidad gamma difiere por los distintos valores de α .
El parámetro β recibe el nombre de parámetro de escala debido a la
multiplicación de una variable aleatoria con distribución gamma por una
constante positiva” 19 .
18 es.wikipedia.org/wiki/Distribuci%C3%B3n_F 19 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.177
37
La función de densidad de una variable gamma es:
x e x x f β α α
α β − −
Γ = 1
) ( ) ( para
0 0
> >
∞ < <
α β
x o
La media y la varianza de la distribución gamma se calculan:
Media: β
µ r =
Varianza: = 2 σ 2 β r
La función generadora de momentos esta dada por:
( ) = t x µ t − β
β
Como casos especiales de la distribución gamma encontramos:
2.2.9. DISTRIBUCION EXPONENCIAL
“La función gamma en la que α = 1 se llama función de densidad
exponencial. La función de densidad exponencial se utiliza con frecuencia
para describir la duración de los componentes electrónicos” 20 .
La función de densidad de una variable exponencial es:
x e x f β β − = ) ( para 0
0
>
∞ ≤ ≤ β
x
La media y la varianza de la distribución exponencial se calculan:
20 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.178
38
Media: β
µ 1 =
Varianza: = 2 σ 2
1 β
La función generadora de momentos esta dada por:
( ) = t x µ t − β
β
39
CAPITULO TRES
3. TECNICA DE TRANSFORMACIONES
Esta técnica es usada tanto en distribuciones de probabilidad variables
aleatorias discretas como en distribuciones de probabilidad de variables
aleatorias continuas
3.1 TECNICA DE TRANSFORMACIONES PARA VARIABLES
ALEATORIAS DISCRETAS
Teorema 3.1: “ Supóngase que X es una variable aleatoria discreta con distribución de probabilidad P(x). Si la función Y=g(X) define una
transformación uno a uno entre los valores X y Y , de tal forma que la
ecuación ) (x g y = tenga su inversa ) ( 1 y g x − = , entonces la distribución de
Y es” 21 :
( ) ) ( ) ( 1 y g f y f X Y − =
Demostración:
( ) ) ( )) ( ( ) ) ( ( ) ( ) ( 1 1 y g f y g x P y x g P y Y P y F X Y − − = = = = = = =
21 probabilidad y estadística. Warpole. Meyer. Pag184
40
Ejemplo 3.1:
Sea X es una variable aleatoria discreta donde su distribución se encuentra dada por
) (x f X = ) ( x X P = =
0 3 2x
caso otro en
x 4 , 3 , 2 , 1 =
Encontrar la distribución de 1 2 − = X Y
Solución:
Si x varia entre 1 y 4 remplazando en y tenemos que = y 1, 3, 5,7
1 2 ) ( − = = x x g y ⇒ 2 1 ) ( 1 +
= = − y y g x
Ahora
+
=
+
= = = − = = = 2 1
2 1 ) 1 2 ( ) ( ) ( y f y X P y X P y Y P y f X Y
+
= 3
) 1 ( ) ( y y f Y
Luego la distribución de yse encuentra dada por:
) (y f Y = ) ( y Y P = =
+
0 3 1 y
caso otro en
y 7 , 5 , 3 , 1 =
Suponga ahora el problema en el que , ,..., , 2 1 n X X X son variables
aleatorias discretas con función conjunta ), ,..., , ( 2 1 ,..., , 2 1 n X X X x x x f n
y se desea
encontrar la probabilidad conjunta ) ,..., , ( 2 1 ,..., , 2 1 n Y Y Y y y y f n
de las nuevas
variables aleatorias
41
), ,..., , ( ..., ), ,..., , ( ), ,..., , ( 2 1 2 1 2 2 2 1 1 1 n n n n n x x x g y x x x g y x x x g y = = =
las cuales definen una transformación uno a uno entre los conjuntos de
puntos ) ,..., , ( 2 1 n x x x y ) ,..., , ( 2 1 n y y y .Si se resuelven las ecuaciones
simultáneamente se encontrara la solución inversa única
), ,..., , ( ..., ), ,..., , ( ), ,..., , ( 2 1 1
2 1 1
2 2 2 1 1
1 1 n n n n n y y y g x y y y g x y y y g x − − − = = =
Teorema 3.2: Sean que , ,..., , 2 1 n X X X son variables aleatorias discretas
con distribución de probabilidad conjunta ) ,..., , ( 2 1 ,..., , 2 1 n X X X x x x f n
. Si las
funciones ), ,..., , ( ..., ), ,..., , ( ), ,..., , ( 2 1 2 1 2 2 2 1 1 1 n n n n n x x x g y x x x g y x x x g y = = =
definen una transformación uno a uno entre los valores ) ,..., , ( 2 1 n x x x y
) ,..., , ( 2 1 n y y y de tal forma que las ecuaciones:
), ,..., , ( ),..., ,..., , ( ), ,..., , ( 2 1 2 1 2 2 2 1 1 1 n n n n n x x x g y x x x g y x x x g y = = =
tengan inversa
), ,..., , ( ),..., ,..., , ( ), ,..., , ( 2 1 1
2 1 1
2 2 2 1 1
1 1 n n n n n y y y g x y y y g x y y y g x − − − = = = ,
respectivamente entonces la distribución conjunta de , ,..., , 2 1 n Y Y Y es:
) ,..., , ( 2 1 , ,..., , 2 1 n Y Y Y y y y f n
)] ,..., , ( ),... ,..., , ( ), ,..., , ( [ 2 1 1
2 1 1
2 2 1 1
1 ,..., , 2 1 n n n n X X X x x x g x x x g x x x g f n
− − − =
Demostración:
) ,..., , ( 2 1 , ,..., , 2 1 n Y Y Y y y y f n
) , ... , , ( 2 2 1 1 n n y Y y Y y Y P = = = =
) ) ,... , ( , ... , ) ,... , ( , ) ,... , ( ( 2 1 2 2 1 2 1 2 1 1 n n n n n y x x x g y x x x g y x x x g P = = = =
)) ,... , ( ..., ), ,... , ( ), ,... , ( ( 2 1 1
2 1 1
2 2 1 1
1 2 1 n n n n n y y y g X y y y g X y y y g X P − − − = = = =
)] ,..., , ( ),... ,..., , ( ), ,..., , ( [ 2 1 1
2 1 1
2 2 1 1
1 ,..., , 2 1 n n n n X X X x x x g x x x g x x x g f n
− − − =
42
Ejemplo 3.2:
Sean 2 1 , X X variables discretas con distribución de probabilidad conjunta
( )
=
=
= caso otro en
X
X X X
x x f 0
3 , 2 , 1
2 , 1 18
, 2
1 2 1
2 1
Encontrar la distribución de probabilidad de la variable aleatoria
2 1 1 X X Y =
Solución:
Sea ) , ( 2 1 1 1 x x g y = ) , ( 2 1 2 2 x x g y =
) , ( ) , ( 2 2 1 1 2 1 , 2 1 y Y y Y P y y f Y Y = = =
= ( ) 2 2 1 2 1 2 1 1 ) , ( , ) , ( y x x g y x x g P = =
= ) , ( , ) , ( ( 2 1 1
2 2 2 1 1
1 1 x x g x y y g x P − − = =
= ) , ( , ) , ( ( 2 1 1
2 2 1 1
1 x x g y y g f X − −
2 1 1 X X Y = ⇒ ? ) ( 1 1 = y f Y
Se usa una variable auxiliar 2 2 X Y =
Ahora procedemos a encontrar las inversas:
2
1 1 2 1 1 2 1 1 Y
y x y X y X X y = ⇒ = ⇒ = = ) ( 2 , 1 1
1 y y g −
) ( 2 , 1 1
2 2 2 y y g y x − = =
Los Intervalos de 1 y y 2 y son:
1 x 2 x 1 2 3
1 1 2 3 2 2 4 6
43
Por lo tanto
1 y = 1, 2, 3, 4, 6 2 y = 1, 2, 3
Tenemos:
= 2
2
1 2 1 , , ) , (
2 1 y
y y f y y f x Y Y
= 18 1 y
1 Y 1 2 3 4 5 ) ( 1 1
y f Y 18 1
9 2
6 1
9 2
3 1
3.2. TECNICA DE TRANSFORMACIONES PARA VARIABLES CONTINUAS
En este caso se enuncia el siguiente teorema:
Teorema 3.3: Sean X es una variable aleatoria continua con distribución
de probabilidad ) (x f X . Si la función Y= g(X) define una correspondencia
uno a uno entre los valores X y Y , de tal forma que la ecuación ) (x g y =
tenga su inversa ) ( 1 y g x − = , entonces la distribución de Y es:
( ) ) ( ) ( 1 y g f y f X Y − = J
donde ) ( 1 y g dy d J − = y recibe el nombre de jacobiano de la
transformación.
44
Demostración:
La demostración puede abrirse en dos casos, en el caso en el que
) (x g y = es creciente y en el caso en el que ) (x g y = es decreciente.
• Supóngase que ) (x g y = es creciente.
0
4
0 1,5
b
g1(a)
a
Gráfica 2
Se escoge dos puntos arbitrarios de y , por ejemplo a y b entonces:
) ( b Y a P ≤ ≤ = ) ( ) ( a Y P b Y P ≤ − ≤
= ) ) ( ( ) ) ( ( a X g P b X g P ≤ − ≤
= )) ( ( )) ( ( 1 1 a g X P b g X P − − ≤ − ≤
= )] ( ) ( [ 1 1 b g X a g P − − ≤ ≤
= ∫ −
−
) (
) (
1
1
) ( b g
a g X dx x f
45
Ahora se cambia las variable de integración de x a y por la relación ) ( 1 y g x − = se tendría que:
dy y g dx ' 1 )] ( [ − =
luego
) ( b Y a P ≤ ≤ = ∫ − − b
a X dy y g y g f ' 1 1 )] ( ))[ ( (
como a y b recorren todos los valores permisibles de y siempre que b a < se tiene que
) ( y f Y = ' 1 1 )] ( ))[ ( ( y g y g f X − −
= ( ) J y g f X . ) ( 1 −
Se conoce a ' 1 )] ( [ y g J − = como el reciproco de la pendiente de la línea tangente a la curva de la función creciente ) (x g y = es evidente que
J J = .
Luego ( ) ) ( ) ( 1 y g f y f X Y
− = J
• Suponga que ) (x g y = es decreciente.
0 0 5
b
g1(a)
a
Gráfica 3
46
Se escoge otra vez puntos arbitrarios de y , a y b entonces:
) ( b Y a P ≤ ≤ = ) ( ) ( a Y P b Y P ≤ − ≤
= ) ) ( ( ) ) ( ( a X g P b X g P ≤ − ≤
= )) ( ( )) ( ( 1 1 a g X P b g X P − − ≤ − ≤
= )] ( ) ( [ 1 1 a g X b g P − − ≤ ≤
= ∫ −
−
) (
) (
1
1
) ( a g
b g X dx x f
otra vez cambiando la variable de integración de x a y se tiene que:
) ( b Y a P ≤ ≤ = ∫ − − a
b X dy y g y g f ' 1 1 )] ( ))[ ( (
= ∫ − − − b
a X dy y g y g f ' 1 1 )] ( ))[ ( (
Como a y b recorren todos los valores permisibles de ysiempre que b a < se tiene que
) ( b Y a P ≤ ≤ = ( ) J y g f X . ) ( 1 − −
en este caso la pendiente de la curva es negativa, por tanto J J − = .
( ) ) ( ) ( 1 y g f y f X Y − = J
con lo cual se concluye el teorema.
Ejemplo 3.3:
Sea X una variable aleatoria continua donde su distribución se encuentra dada por:
≤ ≤ = = =
caso otro en
x x x X P x f X
0
1 0 2 ) ( ) (
47
Encontrar a Y= 3Y1
Solución:
Se encuentra el intervalo de y
2 1 2 1 3 1 ≤ ≤ − < − = < − y x y
Ahora
] 1 3 [ ) ( ) ( y x P y Y P y F Y ≤ − = = =
= ] 1 3 [ + ≤ y x P
=
+
≤ 3 1 y x P
3 1 +
= y F X
+
+
= dy
y
d y F y f X Y 3 1
3 1 ) (
= 3 1 .
3 1
+ y f X
) (y f Y = 9 1 2 + y
Teorema 3.4: Sean n X X X ,..., , 2 1 son variables aleatorias continuas con
distribución de probabilidad conjunta ) ,..., , ( 2 1 , ,..., , 2 1 n X X X x x x f n
. Si
), ,..., , ( 2 1 1 1 n x x x g y = ), ,..., , ( ..., ), ,..., , ( 2 1 2 1 2 2 n n n n x x x g y x x x g y = = definen
una transformación uno a uno entre los valores ) ,..., , ( 2 1 n x x x y
48
) ,..., , ( 2 1 n y y y de tal forma que las ecuaciones:
), ,..., , ( ),..., ,..., , ( ), ,..., , ( 2 1 2 1 2 2 2 1 1 1 n n n n n x x x g y x x x g y x x x g y = = =
Tengan inversa
), ,..., , ( ),..., ,..., , ( ), ,..., , ( 2 1 1
2 1 1
2 2 2 1 1
1 1 n n n n n y y y g x y y y g x y y y g x − − − = = = ,
respectivamente entonces la distribución conjunta de , ,..., , 2 1 n Y Y Y es:
) ,..., , ( 2 1 , ,..., , 2 1 n Y Y Y y y y f n
)] ,..., , ( ),... ,..., , ( ), ,..., , ( [ 2 1 1
2 1 1
2 2 1 1
1 ,..., , 2 1 n n n n X X X x x x g x x x g x x x g f n
− − − = J
donde el jacobiano es el determinante de n x n.
n
n n n
n
n
y x
y x
y x
y x
y x
y x
y x
y x
y x
∂ ∂ ∂
∂ ∂ ∂
∂ ∂ ∂
...
...
...
2 1
2 2
2
1
2
1
2
1
1
1
M M M
Ejemplo 3.4:
Sean 1 X y 2 X variables aleatorias independientes exponenciales de
parámetros 1 = θ , halle la distribución de la suma
Solución:
1 ) ( 1 1 x e x f X − = = ≈ ∞ ≤ ≤ 1 0 x
2 ) ( 2 2 x e x f X − = = ≈ ∞ ≤ ≤ 2 0 x
= ) , ( 2 1 , 2 1 x x f X X
) ( 2 1 x x e + − ∞ ≤ ≤ 1 0 x
∞ ≤ ≤ 2 0 x
49
1. ) , ( 2 1 1 2 1 1 x x g x x y = + =
2. ) , ( 2 1 2 2 1
1 2 x x g
x x x y = +
=
Sea encuentran las inversas de: ) , ( 2 1 1
1 y y g − y ) , ( 2 1 1
2 y y g −
de 2. tenemos ) , ( ) ( 2 1 1
1 2 1 1 2 2 1 y y g y y x y x x − = = = +
de 1. tenemos 1 1 2 x y x − =
2 1 1 2 y y y x − =
) 1 ( 2 1 2 y y x − = ) , ( 2 1 1
2 y y g − =
Los intervalos son:
∞ ≤ ≤ ≤ ≤ ∞ ≤ − ≤
∞ ≤ ≤
1 2
2 1
2
0 1 0 ) 1 ( 0
0
y y y y
x
Aplicando el teorema encontramos la distribución conjunta de 1 Y y 2 Y es:
( )J y y g y y g y y f ) , ( ), , ( ) , ( 2 1 1
2 2 1 1
1 2 1 − − =
) 1 ( ) 1 (
2 1 1 2
1 2
1 2
y y y y y y
y y − − − =
− −
( ) ) 1 ( , )
2 2 2 1 ) , (
1 2 1 1 1 2
2 1 y y y y f
y y y y y y
y y −
= + − − =
( )
( )
1
2 1 2 1
2 1 2 1
1
) 1 ( 1
1 ) 1 (
y
y y y y
y y y y
e y e y
y e
−
− + −
− + −
=
=
=
50
Y para encontrar la distribución de ) ( 1 1 y f Y se integra la distribución
conjunta con respecto a 2 y , entonces:
1
1
1
1
2 1
1
0 1 ) ( y
y y
e y
dy e y y f −
−
=
= = ∫
Con lo que se tiene una variable Gamma (2,1)
51
CAPITULO CUATRO
4. ESTADISTICAS DE ORDEN
DEFINICION
Sean n X X X ,..., , 2 1 una muestra aleatoria de tamaño n de una distribución
de tipo continuo que tiene función de densidad f(x) positiva para a < x <b.
Entonces , ,... 2 1 n Y Y Y ≤ ≤ ≤ donde las i Y son las i X arregladas en orden
creciente de magnitudes son definidas como las estadísticas de orden
correspondientes a la muestra aleatoria n X X X ,..., , 2 1 .
Estas estadísticas juegan un papel importante en la inferencia estadística
particularmente porque algunas de sus propiedades no dependen de la
distribución de la cual fue obtenida la muestra aleatoria.
Se puede analizar la función de densidad conjunta de la muestra
(Distribución muestral) en una muestra A ordenada así:
Sea n X X X ,..., , 2 1 una muestra aleatoria de una distribución de tipo
continuo que tiene densidad ) (x f X que es positiva, siempre que a<x<b.
52
Sea 1 Y la más pequeña de estas i X , 2 Y la siguiente i X en orden de
magnitudes, y n Y la mas grande de las i X esto es n Y Y Y < < < ... 2 1
representan a n X X X ,..., , 2 1 donde estas ultimas se ordenan
ascendentemente en orden de las i de la muestra aleatoria de magnitud.
TEOREMA 4.1: Sean n Y Y Y ,..., , 2 1 una muestra ordenada de las variables
aleatorias n X X X ,..., , 2 1 , entonces la función de densidad conjunta de
n Y Y Y ,..., , 2 1 está dada por
g( n y y y ,..., , 2 1 ) =
< < < <
caso otro en
y y y a y f y f y f n n
0
... ) ( )... ( ) ( ! 2 1 2 1
Demostración: Se probará para el caso n = 3.
Si n = 3, entonces, la función de densidad conjunta de 1 X , 2 X , 3 X es
) ( ) ( ) ( 3 2 1 x f x f x f .
Considere la probabilidad de un evento tal como:
P (a< 1 X = 2 X <b, a< 3 X <b) = 3 2 1 3 2 1 2
2
) ( ) ( ) ( dx dx dx x f x f x f b
a
b
a
x
x ∫ ∫ ∫
Porque ∫ 1 1 ) ( dx x f = 0
Como se anotó, se puede definir la función de densidad conjunta
) ( ) ( ) ( 3 2 1 x f x f x f sin alterar la distribución de 1 X , 2 X , 3 X como cero en
todos los puntos ( 1 X , 2 X , 3 X ) que tienen al menos dos de sus
coordenadas iguales. Entonces el espacio, donde ) ( ) ( ) ( 3 2 1 x f x f x f es la
unión de los 6 conjuntos disyuntos siguientes:
53
A1= ( 1 x , 2 x , 3 x ); a < 1 x < 2 x < 3 x < b
A2= ( 1 x , 2 x , 3 x ); a < 2 x < 1 x < 3 x < b
A3= ( 1 x , 2 x , 3 x ); a < 1 x < 3 x < 2 x < b
A4= ( 1 x , 2 x , 3 x ); a < 2 x < 3 x < 1 x < b
A5= ( 1 x , 2 x , 3 x ); a < 3 x < 1 x < 2 x < b
A6= ( 1 x , 2 x , 3 x ); a < 3 x < 2 x < 1 x < b
Hay 6 de estos conjuntos porque podemos ordenar 1 x , 2 x , 3 x
precisamente de 6 formas.
Considere las funciones:
y1 = mín 1 x , 2 x , 3 x
y2 = el valor de magnitud mediana de 1 x , 2 x , 3 x , y
y3 = máx 1 x , 2 x , 3 x .
Estas funciones definen una transformación uno a uno que mapea cada
uno de los conjuntos A1, A2, A3, A4, A5, A6 anteriores sobre uno de los
conjuntos
Β = (y1, y2, y3); a < 3 2 1 y y y < < < b. Las funciones inversas son para los
puntos en A i , i=1, 2, 3, 4, 5, 6, así:
3 3 2 2 1 1 1 y x y x y x A = = = =
3 3 1 2 2 1 2 y x y x y x A = = = =
2 3 3 2 1 1 3 y x y x y x A = = = =
2 3 1 2 3 1 4 y x y x y x A = = = =
1 3 3 2 2 1 5 y x y x y x A = = = =
1 3 2 2 3 1 6 y x y x y x A = = = =
Entonces el jacobiano de cada Ai, es:
54
∂ ∂
∂ ∂
∂ ∂
∂ ∂
∂ ∂
∂ ∂
∂ ∂
∂ ∂
∂ ∂
=
3
3
2
3
1
3
3
2
2
2
1
2
3
1
2
1
1
1
y x
y x
y x
y x
y x
y x
y x
y x
y x
J
=
1 0 0 0 1 0 0 0 1
1 J
=
1 0 0 0 0 1 0 1 0
2 J
=
0 1 0 1 0 0 0 0 1
3 J
=
0 0 1 1 0 0 0 1 0
4 J
=
0 1 0 0 0 1 1 0 0
5 J
=
0 0 1 0 1 0 1 0 0
6 J
El valor absoluto de cada un de los 6 jacobianos es +1. De este modo la
función de densidad conjunta de las estadísticas de orden:
y1 = mín 1 x , 2 x , 3 x
y2 = el valor de magnitud mediana de 1 x , 2 x , 3 x , y
y3 = máx 1 x , 2 x , 3 x .
g ( 3 2 1 , , y y y ) = 1 J ) ( ) ( ) ( 3 2 1 x f x f x f + 2 J ) ( ) ( ) ( 3 2 1 x f x f x f + . . . +
6 J ) ( ) ( ) ( 3 2 1 x f x f x f a< y1< y2< y3< b
0 en otro caso
es decir.
g ( 3 2 1 , , y y y ) = b y y y a caso otro en
y f y f y f n
< < < <
3 2 1
2 1
0
) ( )... ( ) ( ! 3
55
Ejemplo 4.1: Sea X una variable aleatoria de tipo continuo con función de densidad ) (x f que es positiva y continua, para a<x<b, y cero en otra
parte. La función de distribución ) (x F de X se puede escribir:
) (x F X = b x si dw w f a x si
x
a
≥
≤
∫ 1
) ( 0
si a < x < b
De esta manera hay una única mediana m de la distribución con ) (m F X =
2 1 . Considere la muestra aleatoria 1 X , 2 X , 3 X de esta distribución y sea
3 2 1 y y y < < las estadísticas de orden de la muestra.
Calcular la probabilidad de que m y ≤ 2
Solución:
g ( 3 2 1 , , y y y ) = caso otro en
b y y y a y f y f y f n
0
) ( )... ( ) ( 6 3 2 1 2 1 < < < <
La función de densidad de 2 Y es entonces:
( ) = 2 y h 3 1 3 1 2 2
2 ) ( ) ( ) ( 6 dy dy y f y f y f b
y
y
a ∫ ∫
= [ ] ∫ b
y
y
a dy y f y F y f 2
2
3 3 1 2 ) ( ) ( ) ( 6
= ∫ b
y dy y f y F y f
2 3 3 2 2 ) ( ) ( ) ( 6
= [ ] b
y y F y F y f 2
) ( ) ( ) ( 6 3 2 2
( ) = 2 y h caso otro en b y a y F y F y f
0 )] ( 1 )[ ( ) ( 6 2 2 2 2 < < −
56
Por consiguiente
P ( m y ≤ 2 ) = [ ] ) ( ) ( ) ( ) ( ) ( 6 2 2 2
2 2 2 y d y f y F y f y F m
a ∫
P ( m y ≤ 2 ) = ( ) ( )
2 1
3 ) F(y
2 ) F(y
6 3
2 2
2 =
− m
a
El resultado anterior puede usarse para obtener expresiones de las
demás estadísticas de orden.
Sea X una variable aleatoria de tipo continuo que tiene función de
densidad ) (x f que es positiva y continua, en a<x<b, y cero en otro caso.
Entonces la función distribución ) (x F se puede escribir
) (x F = 0 si a x ≤
= ∫ < < x
a b x a si dw w f ) (
= 1 si b x ≥
Por consiguiente
) (x F ′ = ) (x f b x a < <
Además si b x a < <
1 ) (x F = ) ( ) ( x F b F −
= ∫ ∫ − b
a
x
a dw w f dw w f ) ( ) (
= ∫ b
x dw w f ) (
Sea n X X X ,..., , 2 1 una muestra aleatoria de tamaño n de estas
distribuciones, y sea n Y Y Y ,..., , 2 1 las estadísticas de orden de la muestra
aleatoria. Entonces la función de densidad conjunta de n Y Y Y ,..., , 2 1 es:
57
γ ( caso otro en y f y f y f n
y y y n n 0
) ( )... ( ) ( ! ,..., , 2 1
2 1 = a < b y y y n < < < < ... 2 1
4.1. DISTRIBUCIÓN DEL MAXIMO ( n Y )
La función de densidad del máximo (densidad marginal de n y ) puede
expresarse en términos de la función de distribución ) (X F y de la función
de densidad ) (x f de la variable aleatoria X. Si a < n y < b, la función de
densidad marginal de n Y esta dada por:
) ( n n y g = 1 3 2 1 3 2 1 ... ) ( )... ( ) ( ) ( ! ... 4 3 2
− ∫ ∫ ∫ ∫ n n
y
a
y
a
y
a
y
a dy dy dy dy y f y f y f y f n n
1 3 2 3 2 1 1 ... ) ( )... ( ) ( ) ( ! ... 4 3 2
− ∫ ∫ ∫ ∫
n n
y
a
y
a
y
a
y
a dy dy dy y f y f y f dy y f n n
1 3 2 3 2 2 ... ) ( )... ( ) ( ) ( ! ... 4 3
− ∫ ∫ ∫ n n
y
a
y
a
y
a dy dy dy y f y f y f y F n n
1 3 3 2 2 2 ... ) ( )... ( ) ( ) ( ! ... 4 3
− ∫ ∫ ∫
n n
y
a
y
a
y
a dy dy y f y f dy y f y F n n
1 3 3
2 2 ... ) ( )... ( 2 ) (
! ... 4 3
− ∫ ∫
n n
y
a
y
a
y
a
dy dy y f y f y F n n
[ ] 1 4 3 4 3
2 3 ... ) ( )... ( ) ( 2 ) (
! ... 4
− ∫ ∫ n n
y
a
y
a dy dy dy y f y f y f y F n n
[ ] 1 5 4 4 3 3
2 3 ... ) ( )... ( ) ( 2 ) (
! ... 4 5
− ∫ ∫ ∫
n n
y
a
y
a
y
a dy dy dy y f y f dy y f y F n n
58
[ ] 1 4 4
3 4 ... ) ( )... ( 3 . 2 ) (
! ... 5
− ∫ ∫ n n
y
a
y
a dy dy y f y f y F n n
[ ] 1 5 5 4 4
3 4 ... ) ( )... ( ) ( 3 . 2 ) (
! ... 5 6
− ∫ ∫ ∫
n n
y
a
y
a
y
a dy dy y f y f dy y f y F n n
[ ] 1 5 5
4 5 ... ) ( )... ( 4 . 3 . 2 ) (
! ... 5
− ∫ ∫ n n
y
a
y
a dy dy y f y f y F n n
⋅
⋅ ⋅
[ ] ) ( ) 1 ...( 4 . 3 . 2
) ( !
1
n
n n y f n
y F n −
−
b y a n < <
Entonces
) ( n n y g = [ ]
) ( ) 1 ( ) ( ! 1
n
n n y f
n y F n
−
−
b y a n < <
) ( n n y g [ ]
−
caso otro en
y f y F n n n
n
0
) ( ) ( 1
b y a n < <
De esta manera, la función de distribución de n Y ) (y F n y es:
) ( y F n y = [ ] [ ] y X y X y X P y Y P n n ≤ ≤ ≤ = ≤ ; ... ; ; 2 1
Porque el más grande de los i X es menor o igual a y si solamente todas
las i X son menores o iguales a y . Ahora si los i X se asumen
independientemente, entonces:
[ ] y X y X y X P n ≤ ≤ ≤ ; ... ; ; 2 1 = ∏ ∏ = =
= ≤ n
i
n
i X i y F y X P
1 1
) ( ) ( 1
59
Así, la distribución de ( ) n n X X Y ,..., max 1 = se puede expresar en términos
de las distribuciones marginales de n X X ,..., 1 . Si en total se asume que
todas las n X X ,..., 1 tienen la misma distribución acumulativa, X F (.),
entonces:
∏=
n
i X y F
1
) ( 1
= [ ] n X y F ) (
Lo anterior produce el siguiente teorema.
TEOREMA 4.2: Si n X X ,..., 1 son variables aleatorias independientes y si
( ) n n X X Y ,..., max 1 = , entonces:
∏=
= n
i X Y y F y F
n 1
) ( ) ( 1
Si n X X ,..., 1 son variables aleatorias independientes e idénticamente
distribuidas, con función de distribución X F (.), entonces:
) (y F n Y = [ ] n X y F ) (
COLORARIO: Si n X X ,..., 1 son variables aleatorias independientes, e
idénticamente distribuidas, y continuas con función de densidad
probabilística X f (.) y función de distribución acumulativa F (.), entonces:
) ( y f n Y = [ ] ) ( ) ( 1 y f y F n X
n X
−
Demostración:
) ( y f n Y = [ ] ) ( ) ( ) ( 1 y f y F n y F
dy d
X n
X Y n
− =
4.2. DISTRIBUCIÓN DEL MINIMO ( 1 Y )
[ ] [ ] y Y P y Y P y F Y > − = ≤ = 1 1 1 ) ( 1
= [ ] y X y X y X P n > > > − ; ... ; ; 1 2 1
60
Porque 1 Y es mayor que y si cada y X i > . Por otra parte, si
n X X X ,..., , 2 1 son independientes, entonces:
= ) ( 1 y F Y [ ] y X y X y X P n > > > − ; ... ; ; 1 2 1
= ∏ =
> − n
i i y X P
1
) ( 1
= ( ) ∏ =
− − n
i X y F i
1
) ( 1 1
Si además se asume que n X X X ,..., , 2 1 son idénticamente distribuidas con
función de distribución acumulativa X F (.) común, entonces:
= ) ( 1 y F Y ( ) ∏
=
− − n
i x y F i
1
) ( 1 1
= [ ] n x y F ) ( 1 1 − −
Lo anterior produce el siguiente teorema:
TEOREMA 4.3: Si n X X X ,..., , 2 1 son variables aleatorias independientes y
n X X Y ,..., min 1 1 = , entonces
= ) ( 1 y F Y ( ) ∏
=
− − n
i X y F i
1
) ( 1 1
Y si n X X X ,..., , 2 1 son independientes e idénticamente distribuidas con
función de distribución acumulativa X F (.) entonces:
= ) ( 1 y F Y [ ] n X y F ) ( 1 1 − −
COLORARIO: Si n X X X ,..., , 2 1 son variables aleatorias continuas
independientemente idénticamente distribuidas con función de densidad
probabilística común X F (.), entonces,
= ) ( 1 y f Y [ ] ) ( ) ( 1 1 1 y f y F X
n X
− − −
61
Demostración:
) ( 1 y f Y = [ ] n
X Y y F dy d y F
dy d ) ( 1 1 ) (
1 − − =
= [ ] )) ( ( ) ( 1 1 y f y F n X n
X − − − −
= [ ] ) ( ) ( 1 1 y f y F n X n
X − − si b y a < < 1
4.3 FUNCIÓN DE DISTRIBUCIÓN DE CUALQUIER ESTADISTICA DE
ORDEN
La función de distribución de cualquier estadística α Y de orden, se da a
continuación:
TEOREMA 4.4: Sea n Y Y Y ≤ ≤ ≤ ... 2 1 que representan las estadísticas de
orden de una muestra aleatoria de tamaño n cada una con función de
densidad f(x) y función de distribución acumulativa X F (.). La función de
distribución acumulativa de α Y , = α 1, 2,…, n, está dada por:
[ ] [ ] j n n
j
j Y y F y F
j n
y F −
=
−
= ∑ ) ( 1 ) ( ) (
α α
Demostración:
Para un y fijo sea
( ) ); ( , i y i X Z ∞ − Ι =
= ∑ =
n
i i Z
1 y X i ≤
Note que ∑ =
n
i i Z
1
tiene una distribución binomial con parámetros n y ). (y F
62
Ahora
[ ] [ ] [ ] [ ] j n j n
j i Y y F y F
j n
Z P y Y P y F −
=
−
= ≥ = ≤ = ∑ ∑ ∞
) ( 1 ) ( ) ( α
α α
El paso clave en esta prueba es la equivalencia de los dos eventos
y Y ≤ α y ∑ ≥ α i Z . Si la α ésima estadística de orden es menor o
igual a y , entonces, seguramente el numero de las i X menores o iguales
a y es mayor o igual a α , e inversamente.
COLORARIO: [ ] [ ] [ ] n j n j n
n j Y y f y F y F
j n
y F ) ( ) ( 1 ) ( ) ( = −
= −
= ∑ α
y
[ ] [ ] j n j n
j Y y F y F
j n
y F −
=
−
= ∑ ) ( 1 ) ( ) (
1 1
[ ] [ ] j n j
j y F y F
j n −
=
−
− = ∑ ) ( 1 ) ( 1
0
0
[ ] [ ] n y F y F n
) ( 1 ) ( 0
1 0 −
− =
[ ] n y F ) ( 1 1 − − =
Asume que la muestra aleatoria n X X X ,..., , 2 1 viene de una función de
densidad probabilística f (.); esto es, que las variables aleatorias i X son
continuas buscamos la densidad de α Y , la cual, desde luego, se puede
obtener derivando a ) ( y F Y α . Note que:
63
[ ] y
y y Y y P
y y F y y F
dy dF
y f Y Y y Y
∆ ∆ + ≤ <
=
∆
− ∆ + =
→ ∆
→ ∆
α
α α α
α
0
0
lim
) ( ) ( lim ) (
( ) [ ] y
y y X los de n y y y en X un y X los de P i i i
∆ ∆ + > − ∆ + ≤ −
= → ∆
) ( ); ; ( ; 1 lim
0
α α
= [ ] [ ] [ ]
∆ ∆ + − − ∆ +
− −
− −
→ ∆ y y y F y F y y F y F
n n n α α
α α ) ( 1 ) ( ) ( ) (
)! ( )! 1 ( ! lim
1 1
0
= ) ( y f Y α [ ] [ ] ) ( ) ( 1 ) (
)! ( )! 1 ( ! 1 y f y F y F n
n x
n X
α α
α α − − −
− −
Utilizando el mínimo criterio de la distribución multinomial, se puede hallar
la función de densidad conjunta entre α Y y β Y para n ≤ < ≤ β α 1
[ ] y y Y y x x Y x P y x y x f Y Y ∆ + ≤ < ∆ + ≤ < ≈ ∆ ∆ β α β α ; ) , ( ,
( )
∆ + > − ∆ + ∆ +
− − ∆ + ≤ − ≈
y y X los de n y y y en X un y x x en X los de x x x en X un x X los de
P i i i
i i
) ( ) ; ( ); ; ( ) 1 ( ); ; ( ; 1
β α β α
[ ] [ ] [ ] y y xf x f y y F n
x x F y F x F n n
∆ ∆ ∆ + − − − − −
∆ − − ≈
− − − −
) ( ) ( ) ( 1 )! ( ! 1 )! 1 ( ! 1 )! 1 (
) ( ) ( ) ( ! 1 1 β
β α β α
α β α
Por lo tanto:
64
) , ( , y x f Y Y β α =
[ ] [ ] [ ]
≥
− − − − − −
− − − −
y x si
y x f y F x F y F x F n
n n
0
) )( ( ) ( 1 ) ( ) ( ) ( )! ( )! 1 ( )! 1 (
! 1 1 β α β α
β α β α
En general se da el siguiente teorema:
TEOREMA 4.5: Sean n X X X ,..., , 2 1 una muestra aleatoria de la población cuya
función de densidad probabilística es f (.) y con función de distribución
acumulativa F (.). Sean n Y Y Y ≤ ≤ ≤ ... 2 1 las correspondientes estadísticas de
orden entonces:
[ ] [ ] ) ( ) ( 1 ) ( ) ( )! 1 (
! ) ( 1 y f y F y F n
n y f X n
X X Y α α
β α α
− − − − −
=
) , ( , y x f Y Y β α =
[ ] [ ] [ ]
∞ < < < ∞ −
− − − − − −
− − − −
y x
y f x f y F x F y F x F n
n X X
n X X X X ) ( ) ( ) ( 1 ) ( ) ( ) (
)! ( )! 1 ( )! 1 ( ! 1 1 α α β α
β α β α
< < < =
caso otro en
y y y si y f y f y f n y y y f
n n
n Y Y Y n
0
... ) ( )... ( ) ( ! ) ,..., , ( ,...,
2 1 2 1
2 1 2 ,1
4.4 DISTRIBUCIÓN DE FUNCIONES DE ESTADISTICAS DE ORDEN
En la sección anterior se hallaron distribuciones marginales y distribuciones
conjuntas de las estadísticas de orden. En esta sección se hallará la
distribución de probabilidades de ciertas funciones de estadísticas de orden.
65
DEFINICION 4.1: Sea n Y Y Y ≤ ≤ ≤ ... 2 1 que denota las estadísticas de
orden de una muestra aleatoria n X X X ,..., , 2 1 de una población con
función densidad f (.). La mediana muestral es definida como la
estadística de orden mitad si n es impar, y el promedio de las dos estadísticas mitad si n es par.
El rango muestral Se define como 1 Y Y n − , y el semisuma muestral
como 2
n i Y Y + .
Si la muestra es de tamaño impar, entonces la distribución de la mediana
se puede expresar coma la distribución de la estadística de orden α Y . Por
ejemplo si n = 2k+1 (n impar), entonces la estadística de orden 1 + K Y es la
mediana muestral cuya distribución esta dada por ) (y f Y α expresada antes.
Si la muestra es par, es decir, n=2k, entonces la media de orden K Y y
1 + K Y , y la distribución desde la cual puede obtenerse la distribución de la
mediana es ) , ( , y x f Y Y β α haciendo α = k y β = k+1, iniciando la
transformación con la densidad conjunta ) , ( 1 , y x f
k k Y Y + .
EJEMPLO 4.2:
Hallar la función de densidad conjunta del rango y del semisuma, y a
partir de allí, halle las distribuciones marginales respectivas, k f donde R =
1 Y Y n − y T f en donde T= 2 1 n Y Y + .
Solución:
66
En primer lugar se halla ) , ( ,1 y x f
n Y Y es decir
) , ( ,1 y x f
n Y Y =
[ ] [ ] [ ]
∞ < < < ∞ −
− − − − − −
− − − −
caso otro en Y Y
y f x f y F x F y F y F n n n
n
n
X X n n
X n
X X X
0
) ( ) ( ) ( 1 ) ( ) ( ) ( )! ( )! 1 1 ( )! 1 1 (
!
1
1 1 1 1
) , ( , 1 y x f
n Y Y
[ ]
∞ < < < ∞ − − − −
caso otro en
Y Y y f x f x F y F n n n X X n
X X
0
) ( ) ( ) ( ) ( ) 1 ( =
1 2
Se hace la transformación R = 1 Y Y n − y T= 2
1 n Y Y + .
Entonces
r = ) , ( 1 1 n y y g = 1 y y n − t = ) , ( 1 2 n y y g = ) (2 1
1 n y y +
r = 1 y y n − t = 2
1 n Y Y + .
1 y y n − = r
1 y y n + = 2t
2 n y = r + 2t
n y = 2 t r 2 +
1 y y n − = r
1 y y n − − = 2t
2 1 y = r 2t
1 y = 2 t r 2 +
67
∞ < < ∞ − > + < −
<
t r r t r t
y y n
0 2 2
1
) , ( 1 1 t r g − = 1 y = 2
t r 2 + ) , ( 1 2 t r g − = n y = 2
t r 2 +
1 2 1
2 1
1 2 1
1 2 1
1 2
1 2
1 1
1 1
− = − − =
−
=
∂ ∂
∂ ∂
∂ ∂
∂ ∂
= − −
− −
t g
r g
t g
r g
J
J t r g t r g f t r g n Y Y T R )) , ( ), , ( ( ) , ( 1
2 1
1 , , 1
− − =
=
+
+ −
+ −
−
+
− −
2 2
2 2
2 2
2 2 ) 1 (
2 t r f t r f t r F t r F n n X X
n
X X
=
+
−
− −
+ −
−
2 2 2 2 ) 1 (
2 r t f r t f r t F r t F n n X X
n
X X ∞ < < ∞ − > t r 0
Entonces las distribuciones marginales ) ( r f R y ) (t f T están dada por:
∫ ∫ ∞
∞ −
∞ = = dr t r g t g dt t r g r g T R T T R R ) , ( ) ( ) , ( ) ( , 0 ,
68
Ejemplo 4.3:
Sea 5 4 3 2 1 Y Y Y Y Y < < < < las estadísticas de orden de una muestra
aleatoria de tamaño S de una población con densidad
0 ) ( > = − x e x f x X .
a. Halle la función de densidad de la mediana.
b. Halle la función de densidad del rango
c. Halle la función de densidad del semirango.
Solución:
a. En este caso n =5 puede escribirse n = 2k+1 donde k = 2.
Entonces, la mediana es 1 3 + = k Y Y ; entonces la densidad de la
mediana es un caso particular de α Y . Por otra parte,
0 1 ) ( > − = − x e x F x X entonces:
[ ] [ ] 0 ) ( ) ( 1 ) ( )! 3 5 ( )! 1 3 (
! 5 ) ( 3 3 2
3 2
3 3 3 > −
− − = y y f y F y F y f X X X Y
[ ] [ ] 0 1 30 3 2 2
3 3 3 > − = − − − y e e e y y y
( ) 3 3 3 3 2 2 1 30 y y y e e e − − − + − =
) ( 3 3 y f Y ( ) 3 3 3 5 4 3 2 30 y y y e e e − − − + − = 0 3 > y
b. La función del rango 1 5 Y Y R − = . Primero se halla la distribución
conjunta de , , 5 1 Y Y así:
[ ] [ ] [ ]
∞ < < <
− − −
=
5 1
5 1 0
5 3
1 5 0
1 5 1 ,
0
) ( ) ( ) ( 1 ) ( ) ( ) ( )! 2 5 (
! 5 ) , ( 5 1
y y
y f y f y F y F y F y F y y f X X X X X X Y Y
69
[ ]
∞ < < < + − − − − − −
caso otro en
Y Y e e e e f
y y y y
Y Y
0
0 1 1 20 = ) y , (y
5 1 3
5 1 ,
5 1 1 5
5 1
( ) ∞ < < < − − − − − 5 1
3 5 1 , 0 20 = ) y , (y 5 1 5 1
5 1 y y e e e e f y y y y
Y Y
La transformación 1 5 Y Y R − = 5 Y T = entonces:
1 5 y y r − = 5 y t =
r t y − = 1 t y = 5 t r t
< < ∞ < <
0 0
1 1 0
1 1
5 5
1 1
− = −
=
∂ ∂
∂ ∂
∂ ∂
∂ ∂
=
t y
r y
t y
r y
J
J t r t f t r g Y Y T R ) , ( ) , ( 5 1 , , − =
( ) 0 20 ) ( 3 > − = ∫
∞ − + − − + − r dt e e e e r g r
t r t t r t R
[ ] 0 ) 1 ( 20 2 3 > − = ∫
∞ − − r dt e e e e r
r t r t
dt e e e r
t r r ∫ ∞ − − = 5 3 ) 1 ( 20
− − =
∞ −
r
t r r e e e
5 ) 1 ( 20
5 3
5 ) 1 ( 20
5 3
r r r e e e
−
− =
5 ) 1 ( 20
4 3
r r e e
−
− =
r r r r e e e e 4 2 3 ) 1 3 3 ( 4 − − + − =
70
0 ) 3 3 ( 4 4 3 2 > − + − = − − − r e e e e r r r r
c. Halle la función de densidad del semirango.
La función de densidad de , , 5 1 Y Y es
( ) [ ] ∞ < < < − − = − 5 1 5 1
2 5 1 5 3 , 0 ) ( ) ( ) ( ) ( ) 1 ( ) (
5 1 y y y f y f y F y F n n y f X X X X Y Y
Se hace la transformación:
( ) ∞ < < < − − − − − 5 1
3 5 1 , 0 20 = ) y , (y 5 1 5 1
5 1 y y e e e e f y y y y
Y Y
2 ) ( 1 5 Y Y R
+ = 5 Y T =
Entonces:
2 ) (
) , ( 5 1 5 1 1
y y y y g r + = = 5 5 1 2 ) , ( y y y g t = =
t r y y g y − = = − 2 ) , ( 5 1 1
1 1 t y y g y = = − ) , ( 5 1 1
2 5
nueva región:
5 1 0 y y < <
t t r < − < 2 0
t r t 2 2 < <
a) r t 2 <
r t t r b
> < 2 2 )
2 1 0
1 2
1 2
1 2
1 1
1 1
= −
=
∂ ∂
∂ ∂
∂ ∂
∂ ∂
= − −
− −
t g
r g
t g
r g
J
71
entonces
J t r g t r g f t r g Y Y T R )) ( ))( ( ( ) , ( 1 2
1 1 , , 5 1
− − = − −
( )2 , 2 5 1 , t t r f Y Y − =
( )
r t r t
t r t t r t e e e e t t r t t r
> <
< <
< < − − − − − − − −
2 2
2 2 20 = ) 2 ( 3 ) 2 (
( ) 0 40 ) ( 2 3 2 > − = ∫ ∞ − − − − + − r dt e e e e r g r
t t r t t r R
72
CONCLUSIONES
Las estadísticas de orden se calculan a través de la técnica de
transformaciones de variables.
Las estadísticas de orden sirven para identificar modelos de
probabilidades, de observaciones ubicadas de las muestras en cualquier
posición especifica.
Una vez conocido el modelo de probabilidad de una estadística de orden
es posible hacer un análisis completo a dicho orden (valor esperado,
grafico..., etc.).
El tema abre un camino por lo menos entorno a la facultad para estudiar
aplicaciones en áreas del conocimiento que incluyan este tipo de
variables de estadísticas ordenadas.
73
BIBLIOGRAFIA
WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.
WALPOLE Ronald, MEYERS Raymond.2005. Probabilidad y estadística. Mc Graw Hill.
CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.
HOGG Robert. Introduction to mathemátical. Collier Macmillan publishers.
www.pokertips.com.es/strategy/expectedvalue.php.
www.personal.us.es/olmedo/El%20concepto%20de%20Valor%20Esperad o.pdf.
www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm.
www.ucm.es/info/genetica/Estadistica/estadistica_basica.
www.bioestadistica.uma.es/libro/node69.htm.
Recommended