U N I V E R S I D A D N A C I O N A L D E
I N G E N I E R I A
F I E C S
E P I E S
2 0 1 0 I I
Quispe Ortiz Luisa E. 20074529J
Jiménez Palomino Grace 20071356G
La inferencia estadística, es una de las más usadas herramientas,
y como parte de esta se estudiara el contraste de hipótesis. En
el trabajo, se presenta la prueba respectiva desde la perspectiva
bayesiana.
PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
2 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
3 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
INTRODUCCION
En el presente trabajo, presentaremos la definición, metodología y desarrollo del
contraste de hipótesis para una media desde un enfoque bayesiano. Previamente, a modo
de comparación, presentaremos en la primera sección un breve resumen del contraste de
hipótesis desde un enfoque frecuentista. Además, se hará una explicación del uso de la
función de pérdida (consideraremos en el presente documento, para efectos prácticos, las
funciones de pérdida cuadrática y de pérdida absoluta).
Luego, en la segunda sección se explicará el desarrollo de una prueba de hipótesis
bayesiana general, tratando en este punto la definición de los ratios de probabilidades a
priori y a posteriori, el factor de Bayes y cómo proceder ante una prueba unilateral y
bilateral.
En la tercera sección, presentaremos la prueba de hipótesis bayesiana para una
media en el caso binomial considerando un contraste de tipo unilateral y bilateral. Luego,
en la cuarta sección, se detallará la prueba de hipótesis bayesiana para una media, esta
vez en el caso normal. En este caso, debemos considerar si la varianza es conocida o no.
De manera similar, en esta sección separaremos los casos de contrastes unilateral y
bilateral.
En la quinta sección, a modo de comparación, se presentarán las similitudes y
diferencias del contraste de pruebas de hipótesis desde los enfoques mencionados líneas
arriba: enfoque bayesiano y frecuentista. En la sexta sección, se detallarán las
conclusiones a las cuales hemos llegado, luego de una extensiva revisión de bibliografías
del presente tema.
Para finalizar, en la sétima y última sección enumeraremos cada uno de los libros y
sus respectivos autores que hemos considerado los más pertinentes y coherentes para la
exposición del presente tema.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
4 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
INDICE
1. DEFINICIONES PREVIAS ........................................................................................................................ 6
1.1. ESTADÍSTICA PARAMÉTRICA FRECUENTISTA ................................................................................................ 6
1.1.1. Teorema: Test Optimo ............................................................................................................. 7
1.1.2. Lema de Neyman- Pearson ...................................................................................................... 8
1.2. FUNCIÓN DE PERDIDA ........................................................................................................................... 10
1.2.1. Función de perdida Cuadrática ( o error cuadrático) ............................................................ 10
1.2.2. Función de pérdida absoluta ................................................................................................. 10
2. PRUEBA DE HIPOTESIS BAYESIANA GENERAL .................................................................................... 12
2.1. HIPÓTESIS GENERAL ............................................................................................................................. 12
2.1.1. Definición Ratio de probabilidades a priori y posteriori ..................................................... 12
2.1.2. Factor de Bayes ...................................................................................................................... 13
2.2. REGLA PRACTICA PARA PRUEBA DE UNA COLA .......................................................................................... 14
2.3. ¿QUÉ HACER CUANDO SE TIENE PRUEBAS DE DOS COLAS? ........................................................................... 15
2.4. HIPÓTESIS ALTERNATIVAS CONJUNTAS O SIMULTANEAS .............................................................................. 17
3. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA: CASO BINOMIAL ........................................... 19
3.1. PRUEBA DE HIPÓTESIS DE UNA COLA ....................................................................................................... 19
3.2. PRUEBA DE HIPÓTESIS DE DOS COLAS ...................................................................................................... 20
4. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA : CASO NORMAL ............................................ 20
4.1. NORMAL CON VARIANZA CONOCIDA ....................................................................................................... 20
4.1.1. Prueba de Hipótesis Bayesiana Bilateral para la media ................................................... 20
4.1.2. Prueba de Hipótesis de una cola o unilateral ....................................................................... 21
4.2. NORMAL CON VARIANZA DESCONOCIDA ............................................................................................. 27
4.2.1. Regla ...................................................................................................................................... 28
5. SIMILITUDES Y DIFERENCIAS .............................................................................................................. 30
5.1. SIMILITUDES ....................................................................................................................................... 30
5.2. DIFERENCIAS ....................................................................................................................................... 30
6. CONCLUSIONES ................................................................................................................................. 31
7. BIBLIOGRAFIA .................................................................................................................................... 32
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
5 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PARTE I:
DEFINICIONES PREVIAS
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
6 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PRUEBA DE HIPOTESIS BAYESIANA PARA LA MEDIA
1. DEFINICIONES PREVIAS
1.1. Estadística paramétrica frecuentista
Sabemos que la estadística bayesiana, trabaja considerando una información previa ,
contrastada con la estadística clásica o frecuentista donde las decisiones se toman
considerando meramente la información muestral tomada.
Así pues, consideramos necesario recordar un poco de la inferencia estadística clásica,
específicamente de la prueba de hipótesis clásica, con el fin de poder realizar
comparaciones posteriormente, así como de usar algo de la teoría frecuentista en el
desarrollo explicativo a darse en el contraste de hipótesis bayesiano.
Sabemos que la prueba de hipótesis clásica viene del trabajo pionero de Neyman y
Pearson hacia el año 1928.
Supongamos que queremos decidir que hipótesis aceptar, entonces tomaremos una
muestra aleatoria de tamaño n , tal que son tomados de una población
cuyo parámetro desconocido es .
En el caso que consideramos, el espacio parametral ( se divide en dos , según las
hipótesis a contrastar. Asi, considerando las siguientes hipótesis y sus respectivos espacios
relacionados, se tendría matemáticamente:
El problema radica en determinar en qué región se halla , considerando las regiones
y disjuntas.
Definimos además, el poder de prueba como como la probabilidad de rechazar la
hipótesis nula siendo esta falsa. Sea aparte, C la región critica, es decir la región donde se
rechaza la hipótesis nula. Esto es:
Y veremos que el nivel de significancia de la prueba a realizar esta dado por la expresión
matemática:
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
7 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Donde se nota claramente que con el objeto de minimizar el nivel de significancia se
utiliza por practicidad la igualdad.
Si denotamos al test por el operador, , pueden cometerse dos clases de errores: el error
tipo I conocido por el operador , asi como el error tipo II identificado con .
El error tipo I, se comete cuando se rechaza la hipótesis nula, a pesar de que esta es
cierta. Similarmente el error tipo II se comete cuando se acepta la hipótesis nula, dado que
esta es falsa. Esto implica a su vez una relación con el poder de prueba, es decir:
.
Definidos estos conceptos pasaremos a la teoría en si misma de la estadística clásica.
Como vemos, es ideal minimizar los dos tipos de errores simultáneamente, pero en la
práctica esto es muy difícil de realizar. Se ve, entonces, como alternativa minimizar
combinaciones lineales de y .
1.1.1. Teorema: Test Optimo
Sea una muestra aleatoria de , con las hipótesis ya
planteadas. Sea también la prueba de contra , tal que es aceptada si
, y rechazada si es menor a 1 (En caso de igualdad no se puede tomar
decisión). Donde . Luego, cualquier otro test cumplirá:
Donde y son las probabilidades de cometer error tipo I y tipo II en la
prueba , respectivamente, para cualquier valor de .
Prueba
Como se dijo anteriormente, sea C la región de rechazo o critica, de cualquier test
arbitrario , y .
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
8 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Minimizar la combinación lineal planteada, equivale a que se escojan puntos tal que
. Esto quiere decir que la minimización de la combinación lineal, se
lograra si la región critica C, tiene solo puntos que cumplan la ya mencionada
relación.
El ratio
, es llamado ratio de verosimilitud, y será usado para ver el rechazo o no de las
hipótesis planteadas, específicamente de la nula. Como se nota, es usual que el nivel de
significancia sea el que más se minimiza, por ello es que se usa este valor en los contrastes,
pero se busca minimizar también el error II, esto se plasma en el lema siguiente.
1.1.2. Lema de Neyman- Pearson
Sea una muestra aleatoria de , con las hipótesis ya
planteadas. Sea también la prueba de contra , tal que es no rechazada
si
, y rechazada si es menor a 1 (En caso de igualdad no se puede tomar
decisión). Donde , luego cualquier otro test tal que
También, , la primera desigualdad
implica la segunda.
Prueba
Siguiendo la definición del Test optimo,
Si , entonces necesariamente se cumplirá que .
Similarmente en la otra afirmación.
Vemos que se toma en consideración solo el no rechazo o rechazo de la hipótesis nula.
Asimismo, se nota que la maximización del poder de prueba implica la minimización del
error II, por lo que se prueba mediante el lema, que un test dado un nivel de significancia
basado en el ratio de verosimilitud , tiene un buen poder de prueba.
EJEMPLO DE APLICACIÓN
En la distribución con varianza conocida, considere la hipótesis
contra la hipótesis con , aplicando el enfoque frecuentista
SOLUCION
Planteando el ratio de verosimilitudes:
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
9 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Sabemos que el test Optimo conjuntamente con el lema, no rechazan la hipótesis nula si el
ratio es mayor a un valor determinado k. Vemos:
Considerando la restricción dada inicialmente, así, uno espera no rechazar la hipótesis nula
para valores pequeños de la media muestral. Ahora determinemos el valor de la constante
.
Este test, prueba la regla practica ya conocida por nosotros en el caso de prueba de
hipótesis, pues dice que sin importar el valor que tome , se rechazara la hipótesis nula si
su media es menor al valor a hallado.
Hay que tener en cuenta, sin embargo, que este test ha sido realizado con dos pruebas de
hipótesis no complementarias, por lo que si bien la regla general frecuentista conocida es
similar a la hallada, no implica necesariamente lo mismo (ver la hipótesis alterna). Así que
será importante también hallar el valor de potencia de prueba, con el fin de ver relación
con el segundo valor contrastado.
Este procedimiento, no se realizara, pues no es del tema en sí.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
10 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
1.2. Función de perdida
Un tema ya anteriormente explicado, y necesario para la explicación de la prueba de
hipótesis bayesiana consiste en la definición y uso de estimadores puntuales bayesianos,
principalmente dentro de ellos a la función de perdida.
Así, vemos que la función de perdida se usa para calcular la calidad de los estimadores a
encontrarse mediante el enfoque bayesiano , donde el “parámetro” a estimar es ,
y el estimador es . El “mejor” estimador , es escojido tal que se minimiza el
esperado de la función de pérdida , respecto a la distribución a posteriori
,
Se encuentran principalmente dos funciones de perdida:
1.2.1. Función de perdida Cuadrática ( o error cuadrático)
Es de la forma , en el caso:
Derivando respecto a , e igualando a 0. Se tendrá que la función de pérdida
cuadrática será minima cuando se use como estimador a la media a posteriori.
1.2.2. Función de pérdida absoluta
Similar al anterior, es de la forma , en el caso:
Acá se nota que, el estimador que minimiza la función de pérdida absoluta es la
mediana.
Se notan que dependiendo de la función de perdida escogida, se tendrá una estimación del
parámetro en estudio.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
11 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PARTE II:
PRUEBA DE HIPOTESIS
GENERAL
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
12 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
2. PRUEBA DE HIPOTESIS BAYESIANA GENERAL
Si bien las reglas prácticas en la prueba de hipótesis son directas y fáciles de aprender, el
proceso para realizar tales reglas es algo analítico.
De hecho, es preciso mencionar que se deben considerar las pruebas dados dos casos, uno
que contrasta regiones en si misma (pruebas de una cola) y otra que contrasta valores
puntuales (pruebas de igualdad a cierto valor). Esta teoría se dará en las subsiguientes
secciones.
Asimismo, estaremos considerando solo pares de hipótesis, contrarias es decir que si la nula
tiene un subconjunto definido de posibles valores del “parámetro” , la hipótesis alternante
tendrá a otro subconjunto de valores , que son complemento de los de la nula.
Se puede dar el caso , empero , de que la hipótesis alternante sea un conjunto variado de
valores no necesariamente complementarios de la hipótesis nula. Este tema se verá más
adelante.
2.1. Hipótesis general
Nuevamente consideremos una muestra aleatoria de tamaño n, , de una
pobalcion con función de densidad y las hipótesis a contrastar:
Usando el Teorema de Bayes, podremos obtener las probabilidades a posteriori de cada
hipótesis. Así queda:
Considerando a la a priori como y .
2.1.1. Definición Ratio de probabilidades a priori y posteriori
Ratio de
odds a
posteriori
Ratio de
odds a
priori
Factor de
Bayes
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
13 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
El ratio de probabilidades a priori, es el ratio odds a priori; similarmente con las
probabilidades a posteriori.
Dando algunas pautas, en caso la distribución a posteriori no esté disponible, se
podría realizar, la marginal de la a priori saliendo la marginal de x:
…… (1)
2.1.2. Factor de Bayes
Siguiendo con la teoría, , podemos mencionar la introducción del concepto de Factor
de Bayes, introducido por Jeffreys hacia el año de 1961 aproximadamente.
Aquí se ve cierta similitud entre el ratio odds a posteriori y el ratio de verosimilitud
ya mencionado en la teoría clásica. Gracias a este factor, es que la influencia de la
muestra es tomada en consideración, y elimina parcialmente la influencia de la
distribución a priori escogida ( no la elimina por completo).
Además de ello , es objetiva. Así, en el caso que el factor de Bayes coincida con el
ratio de verosimilitudes del enfoque frecuentista, entonces la distribución a priori no
influye en el mismo.
Si aun no se ha calculado la distribución a posteriori, debemos realizar lo siguiente,
para el cálculo del factor de Bayes.
Por lo que el factor de Bayes resultaría:
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
14 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Este factor hallado es el más método con mas dominio es la prueba de hipótesis
bayesiana. La manera en que se escribió, es una de las muchas que pueden darse,
teniendo la esencia a pesar de ello. Así pues, el Factor de Bayes, reúne información a
priori y posteriori en un ratio que da evidencia a favor ( a aquel que se halla en el
numerador) de una especificación de modelo contra otra.
Como se nota, los factores de Bayes, permiten una comparación múltiple, en caso
sea necesario (este tema será tocado más adelante), permitiendo comparaciones de
múltiples hipótesis.
Un claro detalle, resultado de la similitud entre el Factor de Bayes y el ratio de
verosimilitud, si hacemos el cálculo del Factor de Bayes mediante un ratio de odds a
posteriori entre odds a priori, veremos que si se toma a las a priori iguales ( cada una
0.5), el resultado será un ratio de verosimilitud.
En función al factor de Bayes, podemos ver algunas reglas de cuan fuerte es la
evidencia que se tiene acerca dl no rechazo de la hipótesis nula (como numerador)
la hipótesis nula es respaldada
existe minima evidencia contrala hopotesis nula
existe evidencia substancial contra el Ho.
Existe fuerte evidencia contra Ho.
existe evidencia decisiva contra la hipótesis nula
2.2. Regla practica para prueba de una cola
El procedimiento ya mostrado se llamado Criterio de Jeffrey. Como se nota, dice
básicamente que si el ratio de odds a posteriori es mayor a 1 , aceptamos la hipótesis
nula.
Esta regla practica, se aplicara cuando ya se tenga la distribución a posteriori, caso
contrario se debería realizar el cálculo de cada uno de los radios, con las maneras
reducidas ya indicadas.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
15 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PASO 1: Considerar a como variable aleatoria con distribución a priori .
PASO 2: Mediante el teorema de Bayes, hallar la distribución a posteriori
PASO 3 : Hallar las probabilidades a posteriori, mediante el cálculo del ratio odds
respectivo.
PASO 4: Rechazar la hipótesis nula si el ratio odds a posteriori es menor a 1 . De lo
contrario no rechazar.
2.3. ¿Qué hacer cuando se tiene pruebas de dos colas?
Como ya se menciono, la regla practica, se da solo para prueba de una cola, en caso se
tenga prueba de dos colas, es preferible realizar un intervalo de confianza bayesiano y ver
si el valor , se halla dentro del mismo. Si esto ocurre, concluiremos que con (1-α)100%
de credibilidad que es un posible valor. Caso contrario la credibilidad no es cierta
ni efectiva.
Este procedimiento se realiza, porque si uno evalúa las integrales para calcular las
probabilidades, notara que el valor de la integral a priori en un punto específico es cero,
por lo que su probabilidad seria cero. Por ende, no sería comparable ningún ratio. Aquí es
donde surgen complicaciones, por ello es recomendable usar los intervalos de
credibilidad.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
16 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Sin embargo, se detallara un poco de la teoría matemática usada para probar que el uso
de intervalos de credibilidad es apropiado para contrastes d hipótesis de dos colas.
Dado el problema de probabilidad 0, o imposible, se deberá asignar cierto valor a priori
a la probabilidad de , y el resto , con la densidad . La idea
consiste en tomar la densidad, como un punto “de masa” , es decir como un punto de
acumulación en , en la probabilidad a priori.
Si la prueba de hipótesis simple, se aproxima a una prueba de hipótesis asignada a un
intervalo tendremos:
Las notaciones a usar son las mismas, y seguiremos considerando una a priori continua.
La complicación radica ahora en que la a priori denotada por , es de la forma:
De este modo, vemos que esta a priori, tiene parte tanto discreta como continua, siendo
entonces, la a priori a usar , estaría dado por la marginal dado x, descrita en la ecuación
1 de la pagina nueve, teniendo en cuenta , sin embargo, que en el este caso tendrá dos
partes, una continua y otra discreta.
Entonces , la a posteriori, seria:
Donde el factor de Bayes, estaría dado por :
De aquí que la probabilidad a posteriori estaría resumida en ;
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
17 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Como vemos, el criterio principal, radica en la construcción de un intervalo de
credibilidad, por ende la regla práctica mencionada en el principio tiene validez, y será la
usada.
2.4. Hipótesis alternativas conjuntas o simultaneas
Para realizar esta prueba , será necesario utilizar distribuciones multivalentes , este tópico
se puede encontrar en el libro Bayesian Evaluation of Informative Hypothesis, de autor
Herbert Hoijtink, de editorial Springer.
Mencionaremos que se evalúa cada hipótesis alterna, con la nula, mediante una
distribución t – multivariada, de donde se podrá obtener el factor de Bayes, para luego ya
seguir las reglas ya mencionadas. Todo esto, considerando una a priori informativa.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
18 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PARTE III:
PRUEBA DE HIPOTESIS
PARA UNA MEDIA:
CASOS ESPECIALES
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
19 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
3. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA: CASO BINOMIAL
Sabemos que la distribución binomial a las que nos referimos, se refiere a la distribución
“muestral” que tiene cada uno de los valores muestrales .
Cada una de las siguientes explicaciones, serán dependiendo la distribución a priori a
considera que será beta, gamma o uniforme.
Consideremos una población , donde es la proporción de éxito de cierta característica en
estudio. Es decir, de una muestra de tamaño , se encontraran exitos, con probabilidad ,
donde su distribución a seguir es de una binomial con parámetros , esta dada por:
En la estadística bayesiana, el valor de éxito , será consdierado una variable aleatoria cn
distribución a priori, es decir variable , con una dsitribucion a priori será posible
usar el teorema de bayes, y por ende de calcular una prueba de hipótesis para el valor de .
Usando una a priori Uniforme
En caso no se tenga alguna idea siquiera de que distribución y/o valor puede tomar el ,
lo idela es usar una distribución uniforme como a priori, pues asi todos los valores
tendrían en mismo valor
Donde la a posteriori seria claramente:
Usando una a priori Beta
Suponiendo en este caso una a priori beta, se tendrá:
Y su a posteriori será también una distribución .
Consideraremos ahora dos casos
3.1. Prueba de Hipótesis de una cola
Desearemos probar las hipótesis :
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
20 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Con un nivel de significancia , será necesario saber su distribución a posteriori, y según
ello , calcularemos siguiendo los pasos ya establecidos en la sección anterior.
Así,
Rechazaríamos la hipótesis nula, nuevamente basándonos en el ratio de odds a
posteriori.
3.2. Prueba de Hipótesis de dos colas
Una alternativa clara para el contrastar hipótesis de dos colas, es la construcción del
intervalo de credibilidad y ver si el valor con el que se contrasta la hipótesis se halla
dentro del intervalo , en cuyo caso se aceptaría que es posible que el parámetro real ,
tome el valor contrastado . Caso contrario se rechaza.
4. PRUEBA DE HIPOTESIS BAYESIANA PARA UNA MEDIA : CASO NORMAL
4.1. Normal con varianza conocida
La distribución a posteriori resume todo nuestro conocimiento acerca del
parámetro, después de ver los datos. A veces queremos responder a una pregunta
específica acerca del parámetro. Por ejemplo, teniendo en cuenta los datos, ¿podemos
concluir que el parámetro es mayor que ?
El valor normalmente proviene de la experiencia previa. Si
el parámetro sigue siendo igual a ese valor, entonces la experiencia no ha demostrado
nada nuevo que requiera una explicación. Perderíamos nuestra credibilidad científica si
andaríamos inventando explicaciones para los efectos que pueden no existir.
4.1.1. Prueba de Hipótesis Bayesiana Bilateral para la media
Si desea probar la hipótesis bilateral
de una manera bayesiana, y tenemos una distribución a priori continua, no
podemos calcular la probabilidad a posteriori de la hipótesis nula como lo hicimos
para la hipótesis unilateral. Como tenemos una a priori continua, tendremos una a
posteriori continua. Sabemos que la probabilidad de cualquier valor específico de
una variable aleatoria continua siempre es igual a 0. La probabilidad a posteriori
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
21 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
de la hipótesis nula será igual a cero. Esto significa que no podremos
probar esta hipótesis nula mediante el cálculo de la probabilidad a posteriori de la
hipótesis nula y compararlo con .
En su lugar, calculamos un (1 - a) x 100% intervalo creíble para p utilizando nuestra
distribución a posteriori. Si po se encuentra dentro del intervalo de credibilidad,
llegamos a la conclusión de que aún tiene credibilidad como un posible valor.
En ese caso no vamos a rechazar la hipótesis nula, por lo que consideramos que es
creíble que no hay ningún efecto. (Sin embargo, nos damos cuenta de que tiene
cero probabilidad de ser del todo cierto si nos fijamos en suficientes lugares
decimales). No hay necesidad de buscar una explicación de un efecto no existe.
4.1.2. Prueba de Hipótesis de una cola o unilateral
La manera de estas pruebas son:
Este es un ejemplo de una prueba de hipótesis unilateral. Nosotros decidimos a un
nivel de significación que queramos utilizar. Este es la probabilidad por debajo del
cual vamos a rechazar la hipótesis nula.
Nos ceñiremos a seguir el procedimiento ya descrito en los pasos anteriores, donde
veremos que la estadística a tomar en cuenta será una normal.
Por lo general, es pequeño, por ejemplo 0.10,0.05,0.01,0.005, 0 0.001. Probar una
hipótesis unilateral en la estadística Bayesiana se realiza mediante el cálculo de la
probabilidad a posteriori de la hipótesis nula:
Cuando la distribución a posteriori es normal , esto
puede ser fácilmente encontrado en las tablas de la distribución normal estándar.
Donde z es una variable aleatoria normal estándar. Si la probabilidad es menor que
nuestro establecido, rechazamos la hipótesis nula y concluimos que .
Sólo entonces podemos buscar una explicación de por qué es ahora más grande
que .
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
22 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Para los cálculos aquí,, con la a priori ya mencionada, presentaremos la
distribución a posteriori y sus respectivos parámetros, puesto que el cálculo ya ha
sido realizado en sesiones de clase anteriores.
EJEMPLO
Un estudiante que toma una prueba estandarizada es clasificado como
superdotado si él o ella obtiene por lo menos 100 puntos sobre un puntaje
máximo de 150. De lo contrario el estudiante no es clasificado como superdotado.
Supongamos la distribución a priori de las puntuaciones de los estudiantes es una
normal con media 100 y una desviación estándar de 15. Se cree que los resultados
pueden variar cada vez que el estudiante tome la prueba y los resultados pueden
ser modelados como una distribución normal con media y varianza 100.
Supongamos que el estudiante toma la prueba yobtiene 115 puntos. Probar la
hipótesis de qe el estudiante puede ser clasificado como un estudiante
superdotado.
Solución:
El problema de prueba de hipótesis puede ser enunciado como
En relación con el ejemplo 11.2.8, sabemos que la distribución a posteriori es una
normal con media110.4 y varianza 69.2. Debidoa que la a priori es una ,
tenemos
Y
.
Podemos calcular
xb
n
ba
n
b
baNx
N
Nx
2
2
02
2
0
2
0
22
2
2
00
2
/1
/
/1
/1
11
),(|
),(
),(|
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
23 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Y
Por lo tanto, , y rechazamos .
Contrastes
Consideramos las hipótesis vs donde y
Teóricamente es fácil distinguir entre las dos hipótesis; dados los datos, sólo se
deben usar las probabilidades a posteriori. Dada una función de pérdida, se elige
aceptar o rechazar .
EJEMPLO:
Supongamos que . Queremos hacer el contraste: frente
. Si usamos una distribución inicial no informativa para ,
,
Tenemos
. Entonces,
donde es la función de distribución normal.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
24 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
4.1.2.1. La paradoja de Lindley/Jeffreys
Consideramos el contraste frente la alternativa . En
situaciones así, los resultados bayesianos pueden ser muy diferentes de los resultados
clásicos.
Ejemplo . Hacemos el contraste frente . Se definen las probabilidades a priori
y se supone que . Suponiendo que se observa la media de una muestra de tamaño n, se quiere calcular las probabilidades a posteriori. En primer lugar
para una constante . También
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
25 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Donde K es la misma constante. Entonces, se tiene
Recordando que , se tiene
Entonces
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
26 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Consideramos el caso . Sabemos que si hubiéramos hecho
un contraste clásico con un nivel de significación de 95%, el resultado habría sido
significativo, y habríamos rechazado la hipótesis .
Pero
.
Una muestra que nos lleva a rechazar con un contraste clásico nos
proporciona una probabilidad a posteriori de que se acerca a 1 cuando el
tamaño de la muestra es grande.
Esta paradoja se llama la paradoja de Lindley y Jefefreys.
EJEMPLO:
Un estadístico compra 10 bolas usadas que han sido recuperadas del agua. Las
deja caer a una altura de un metro y mide la altura en centímetros en las de
regresan al primer rebote. Los valores son :
79.9 80 78.9 75.6 80.5 82.5 80.1 81.6 76.7 78.5
Asuma que y es la altura, y es normal
Si la a priori es normal ) . ¿Podrá ser la altura menor a 80 m.?
SOLUCION:
Contrastaremos:
Se realizara :
La varianza a posteriori
y la desviación estándar a posteriori
es . La media a posteriori es dada por
80:
80:
1
0
H
H
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
27 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
La distribución a posteriori es normal(79,4124,0.631119^2)
Probando la hipótesis ya planteada:
Como el ratio es menor que uno , rechazamos la hipótesis nula . Concluiríamos con
una probabilidad de 0.05, que existe suficiente evidencia estadística para afirma que la
media poblacional ( altura de rebote de las pelotas) es menor a 80.
4.2. Normal con varianza desconocida
Supongamos que los datos consisten de observaciones independientes e idénticamente
distribuidas
Ahora asumamos la misma situación pero con una varianza observacional desconocida
y tomemos . Una a priori para , es razonable tomar la misma a priori marginal
para también debe ser especificada. Como las hipótesis no involucran , es razonable
tomar la misma a priori marginal para bajo ambas hipótesis. Adoptamos una a priori
conjugada bajo las hipótesis dadas
Donde todas las funciones de densidad son conocidas. Sustituyendo esas expresiones
tenemos
Donde ahora
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
28 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
Esto es interesante para estudiar el comportamiento del factor de Bayes en situaciones
extremas tales como cuando tenemos una a priori no informativa. Tomamos y
asumimos como antes que , tenemos
donde
y
El Factor de Bayes es una función simétrica de los valores muestrales a través del
estadístico t. Varía desde el más alto valor de apoyo a cuando a un
mínimo valor cuando , como se esperaba.
En el caso general , las hipótesis pueden ser incorporadas en la distribución a priori
y el problema de probar las hipótesis puede pensarse como una comparación de
posibles distribuciones de .
4.2.1. Regla
Vemos, que lo que cambia aquí, es el cálculo del factor de Bayes, por lo que el
procedimiento a seguir, sea la prueba de una cola o unilateral el ya mencionado.
Tenemos que tener en cuenta que se esta considerando una a priori única para el
caso presentado, y ella es la normal.
No podemos dejar de mencionar, por ende, que el cálculo y la dificultad radica
justamente según la distribución a tomar, y mas aun si se consideraran dos hipótesis
a priori distintas. Este cálculo, se podrá obtener de la bibliografía, el libro cuyo autor
es Gosh.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
29 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
PARTE IV:
SIMILITUDES,
DIFERENCIAS,
CONCLUSIONES Y
BIBLIOGRAFIA
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
30 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
5. SIMILITUDES Y DIFERENCIAS
5.1. Similitudes
Las estimaciones de máxima verosimilitud mediante el enfoque frecuentista, son
equivalentes cuando se cuenta con a prioris categóricas.
En el límite asintótico, los datos abrumaran la elección del a priori , así que al
tener conjunto de datos infinitos, el hallar una a priori seria irrelevante, y tanto
enfoques bayesianos como frecuentistas convergerían.
La prueba de hipótesis frecuentista de una cola, resulta similar a lo que el
enfoque bayesiano obtendría mediante un intervalo de credibilidad.
5.2. Diferencias
Se nota una clara diferencia en la prueba de dos colas, pues los métodos
bayesianos son , muy pobres aunque si calculables.
En la prueba de hipótesis frecuentista, el espacio parametral , solo es divisible en
dos , es decir cada una de las hipótesis tomadas es con dos valores . En cambio,
en la prueba bayesiana, si bien la hipótesis nula es simple, la hipótesis alterna
puede contener mas de una aseveración, es decir más de un valor.
Otra diferencia encontrada entre ambos enfoques, es el uso de la función de
perdida, la cual debe ser nuevamente minimizada para evitar perder información
del “parámetro” en estudio. A falta de función de perdida, las probabilidades de
cometer error tipo I y II son de poco interés.
De igual manera, en la estadística bayesiana, no se busca tanto el control de los
errores. Así en la prueba frecuentista, el error uno es delimitado a un valor alfa, y
el error tipo II se controla mediante el tamaño de muestra (todo mediante el uso
del Lema de Neyman Pearson) . En la bayesiana veremos que es más directo ,
pues se comparan simplemente las probabilidades a posteriori, mediante una
metodología ya explicada.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
31 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
6. CONCLUSIONES
Existen muchas diferencias entre el enfoque frecuentista y el enfoque
bayesiano, a pesar de ello, existen casos (los de la distribución normal) donde
los resultados hallados son muy similares a los de la frecuentista.
La estadística bayesiana, se basa en el factor de Bayes como principal
herramienta para probar si se rechaza o no la hipótesis nula.
La prueba estadística bayesiana de dos colas, es un poco complicada de
realizar, por lo que se recurrirá a la teoría de intervalos de credibilidad como
principal herramienta.
Para la construcción y verificación de las pruebas de hipótesis de una cola,
existen reglas prácticas, que facilitan el cálculo, teniendo en cuenta siempre a
prioris no impropias.
PR
UE
BA
DE
HI
PO
TE
IS
IS
B
AY
ES
IA
NA
PA
RA
LA
ME
DI
A
32 UNIVERSIDAD NACIONAL DE INGENIERIA FIECS
7. BIBLIOGRAFIA
Introduction to Bayesian Statistics - Koch (2007)
Introduction to Bayesian Statistics- William M. Bolstad
An Introduction to Bayesian Analysis- Ghosh, Springer 2006
Mathematical Statistics with Application - Kandethody M.Ramachandran