Upload
others
View
8
Download
0
Embed Size (px)
Citation preview
UNIVERSIDAD NACIONAL DE SANAGUSTIN
FACULTAD DE CIENCIAS NATURALES Y FORMALES
ESCUELA PROFESIONAL DE MATEMATICAS
ANALISIS DE VARIANZA PARA DATOS DECONTEO CON EXTRA-DISPERSION
UTILIZANDO LA DISTRIBUCION BINOMIALNEGATIVA
Tesis presentada por:Bach. Dina Rubi Ramos EugenioPara optar el tıtulo profesional de Licenciadaen Matematicas
AREQUIPA - PERU
2019
DEDICATORIA
El presente trabajo de investigacion lo dedico principalmente a Dios, por ser el
inspirador y darme fuerza para continuar en este proceso de obtener uno de mis anhelos
mas deseados.
A mis padres, por su amor, trabajo y sacrificio en todos estos anos, gracias a ustedes
he logrado llegar hasta aquı y convertirme en lo que soy. Es un orgullo y privilegio de
ser su hija, son los mejores padres.
A mis hermanos por estar siempre presentes, acompanandome y por el apoyo moral
que me brindaron a lo largo de esta etapa de mi vida.
A todas las personas que me han apoyado y han hecho que el trabajo se realice
con exito en especial a aquellos que me abrieron las puertas y compartieron sus
conocimientos.
AGRADECIMIENTO
Agradezco a Dios por bendecirme la vida, por guiarme a lo largo de mi existencia,
ser el apoyo y fortaleza en aquellos momentos de dificultad y de debilidad.
Gracias a mis padres: Nicolas Lucio Ramos Caceres y Marcelina Eugenio Mamani,
por ser los principales promotores de mis suenos, por confiar y creer en mi, por los
consejos, valores y principios que me han inculcado.
Agradezco a los docentes de la Escuela Profesional de Matematicas de la Universidad
Nacional de San Agustın, por haber compartido sus conocimientos a lo largo de la
preparacion de mi profesion, de manera especial, al doctor Jhon Franky Bernedo
Gonzales asesor de mi proyecto de investigacion quien me ha guiado con su paciencia y
su rectitud como docente.
1
Indice general
Simbologıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Indice de figuras 5
Indice de tablas 6
Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1. Conceptos Preliminares 11
1.1. Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2. Funcion de Distribucion Acumulada . . . . . . . . . . . . . . . . . . . . 12
1.3. Funcion Generadora de Probabilidad . . . . . . . . . . . . . . . . . . . 13
1.4. Funcion de Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5. Momento k-esimo alrededor del origen . . . . . . . . . . . . . . . . . . 14
1.6. Metodos de estimacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.1. Metodo de los Momentos . . . . . . . . . . . . . . . . . . . . . . 15
1.6.2. Metodo de Maxima Verosimilitud . . . . . . . . . . . . . . . . . 16
1.7. Prueba de razon de verosimilitud . . . . . . . . . . . . . . . . . . . . . 16
1.8. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.9. Prueba estadıstica C(α) . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.10. Metodo de Newton - Raphson . . . . . . . . . . . . . . . . . . . . . . . 19
2. Distribucion Binomial Negativa 21
2.1. Definicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Diferentes parametrizaciones para la distribucion binomial negativa . . 22
2.3. Observaciones historicas y genesis de la distribucion binomial negativa . 24
2
2.4. Estimacion de los parametros por el metodo de los momentos . . . . . 25
2.5. Estimacion de los parametros por el metodo de maxima verosimilitud . 26
2.6. Ejemplo (Fisher, 1941) . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3. Prueba de igualdad de medias en presencia de dispersion comun 30
3.1. Formulacion del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2. Estimacion de los parametros por el metodo de los momentos . . . . . 31
3.3. Estimacion por el metodo de maxima verosimilitud . . . . . . . . . . . 32
3.4. La prueba estadıstica C(α) basada en la funcion de verosimilitud . . . 34
3.5. La prueba estadıstica C(α) basada en el metodo de los momentos . . . 40
3.6. La prueba de la razon de verosimilitud . . . . . . . . . . . . . . . . . . 40
3.7. Pruebas aproximadas basadas en datos transformados . . . . . . . . . . 41
4. Aplicacion 42
4.1. Aplicacion a datos reales . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.1. Datos de Biologıa . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.2. Datos de toxicologia . . . . . . . . . . . . . . . . . . . . . . . . 50
5. Conclusiones y Propuestas futuras 57
5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2. Propuestas futuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Bibliografıa 59
Anexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3
Simbologıa
µ Media poblacional
x Media aritmetica muestral
σ2 Varianza poblacional
s2 Varianza muestral
Sx Desviacion estandar muestral
H0 Hipotesis nula
H1 Hipotesis alterna
χ2 Distribucion Chi-cuadrado
X2c(m) Prueba C(α) basada en la funcion de verosimilitud
X2c(mm) Prueba C(α) basada en el metodo de los momentos
X2rv Prueba de la razon de verosimilitud
4
Indice de figuras
2.1. Grafica de la funcion g(k) para obtener su raız. . . . . . . . . . . . . . 29
4.1. Barrenadores de maız . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2. Diagrama de cajas de los datos biologicos . . . . . . . . . . . . . . . . . 44
4.3. Grafica de probabilidad normal para los residuos . . . . . . . . . . . . . 46
4.4. Diagrama de cajas de los datos transformados con √y . . . . . . . . . . 47
4.5. Grafica de probabilidad normal para los residuos de los datos transfor-
mados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.6. Diagrama de cajas de los datos toxicologicos . . . . . . . . . . . . . . . 51
4.7. Grafica de probabilidad normal para los residuos de los datos toxicologicos 53
4.8. Diagrama de cajas de los datos transformados con √y . . . . . . . . . . 53
4.9. Grafica de probabilidad normal para los residuos de los datos transfor-
mados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5
Indice de tablas
2.1. Distribucion de frecuencias de garrapatas encontradas en 82 ovejas. . . 28
2.2. Iteraciones para encontrar el estimador de c . . . . . . . . . . . . . . . 29
4.1. Distribuciones de los insectos barrenadores del maız. . . . . . . . . . . 43
4.2. Estadısticas descriptivas de los datos biologicos . . . . . . . . . . . . . 44
4.3. Analisis de varianza de los datos biologicos . . . . . . . . . . . . . . . . 45
4.4. Prueba Levene para los datos biologicos . . . . . . . . . . . . . . . . . 45
4.5. Estadısticas descriptivas de los datos transformados biologicos . . . . . 47
4.6. Analisis de varianza de los datos transformados con √y . . . . . . . . . 48
4.7. Prueba de Levene de los datos transformados con √y . . . . . . . . . . 48
4.8. Las estimaciones de maxima verosimilitud de los parametros m y c y la
estadıstica X2c(m) para los datos biologicos de la Tabla 4.1 . . . . . . . . 49
4.9. Estadıstica X2rv para los datos biologicos de la Tabla 4.1 . . . . . . . . 49
4.10. Estadıstica X2c(mm) para los datos biologicos de la Tabla 4.1 . . . . . . 50
4.11. Distribuciones de conteos de muertes embrionarias en ratones en un
grupo de control y dos grupos de tratamiento de Barnwal y Paul (1988). 50
4.12. Estadısticas descriptivas de los datos toxicologicos . . . . . . . . . . . . 51
4.13. Analisis de varianza de los datos toxicologicos . . . . . . . . . . . . . . 52
4.14. Prueba Levene para los datos biologicos . . . . . . . . . . . . . . . . . 52
4.15. Analisis de varianza de los datos transformados con √y . . . . . . . . . 54
4.16. Prueba de Levene de los datos transformados con √y . . . . . . . . . . 54
4.17. Las estimaciones de maxima verosimilitud de los parametros m y c y la
estadıstica X2c(m) para los datos toxicologicos de la Tabla 4.11 . . . . . 55
4.18. La estadıstica X2rv para los datos toxicologicos de la Tabla 4.11 . . . . . 56
4.19. La estadıstica X2c(mm) para los datos toxicologicos de la Tabla 4.11 . . . 56
6
Resumen
La extra-dispersion es un fenomeno comun en la practica, cuando la varianza de
los datos de conteo difiere de la de un modelo de Poisson. Este trabajo, desarrolla un
procedimiento para probar la homogeneidad de medias de varios grupos de tratamiento
para datos de conteo, cuando la extra-dispersion es comun entre los grupos de tratamien-
tos. Se obtienen pruebas estadısticas C(α) usando la distribucion binomial negativa,
basadas en la funcion de verosimilitud y en el metodo de momentos. Ademas, en este
trabajo se considera la prueba de la razon de verosimilitud y las pruebas aproximadas
basadas en datos transformados. Finalmente, se dan aplicaciones a datos biologicos y
toxicologicos.
Palabras Clave: Analisis de varianza; Datos de conteo con extra-dispersion comun;
Distribucion Binomial Negativa; Pruebas C(α).
7
Abstract
Extra-dispersion is a common phenomenon in the practice, when the variance of the
count data differs from that of a Poisson model. This paper develops a procedure to
test the homogeneity of means of several treatment groups for data of counts, when
extra-dispersion is common among treatment groups. The test statistics C(α) are
obtained using the negative binomial distribution, based on the likelihood function
and the moments method. Also, this paper considers the likelihood ratio test and
the approximate tests based on transformed data. Finally, applications are given to
biological and toxicological data.
Keywords: Analysis of variance; Count data with common extra-dispersion; Nega-
tive Binomial Distribution; C(α) tests.
8
Introduccion
En general, en disenos de experimentos se asume que la variable respuesta, y, es
continua. Sin embargo, si la variable es discreta como el de los datos de conteo se
asume en general que y es modelada por la distribucion de Poisson. En este contexto,
se considera usualmente la transformacion √y con la finalidad de usar la prueba F y de
esta manera proceder como un ANOVA usual. Sin embargo, existe el fenomeno de extra-
dispersion (la varianza es mayor que la media) presente en los datos de conteo, ası en
este trabajo se considera el procedimiento de ANOVA de un factor para datos de conteo
en la presencia de extra-dispersion. Para tal fin se considera la distribucion binomial
negativa para modelar la variable respuesta, y, como se puede ver en [21, 10, 13, 20, 22].
Diferentes autores han utilizado parametrizaciones distintas para la distribucion
binomial negativa (ver, por ejemplo, [30, 6, 31, 29]). En este trabajo, se utiliza la
parametrizacion adaptada por Anscombe (1950) y Bliss & Owen (1958), en funcion de
la media y del parametro de dispersion como se puede ver en [4, 9].
Los datos de conteo con extra-dispersion donde se compara muchos grupos de
tratamiento surgen en muchas areas de la ciencia, por ejemplo, ingenierıa, biologıa,
epidemiologıa, toxicologico entre otros campos [7, 8, 24, 23, 40, 2, 5]. En inferencia
estadıstica, un problema es conocer si los datos nacen de una misma poblacion. En
busca de la repuesta varios autores han analizado el problema. En [15] se toma los
datos de conteo con extra-dispersion en relacion al modelo de Poisson donde los grupos
de tratamiento son diferentes en terminos de la medias y similares en terminos de las
dispersiones y en [32] se toma los datos de conteo donde los grupos de tratamiento
difieren en terminos de la medias y dispersiones.
9
En este trabajo, el interes es probar la homogeneidad de medias haciendo uso de
la distribucion binomial negativa ya que se ajusta mejor a los datos de conteo con
extra-dispersion como puede ser visto en [12, 20, 6, 36].
Se construye procedimientos de prueba de hipotesis para probar la homogeneidad
de las medias entre varios grupos de tratamiento en el analisis de datos de conteo con
extra-dispersion. Para tal fin, se hace uso del metodo de maxima verosimilitud y el
metodo de los momentos.
10
Capıtulo 1
Conceptos Preliminares
En este capıtulo se desarrollara algunos preliminares previos, los cuales son basicos
para el desarrollo de los capıtulos posteriores. Algunas de las referencias en las que se
ha basado este trabajo se encuetran en [11, 19, 33, 35, 27, 42].
1.1. Variable Aleatoria
Definicion 1.1. Una variable aleatoria X es una funcion que va de un espacio muestral,
Ω, a los numeros reales, con la propiedad de que para cada resultado existe una
probabilidad asociada Pr[X ≤ x] que existe para todos los valores reales de x.
Ejemplo 1.1. Se lanzan dos monedas al aire. El espacio muestral es el conjunto de
resultados posibles asociado al experimento, es:
Ω = cc,cs,sc,ss
donde (c representa salir cara y s salir sello). Se define X como el mınimo de sellos
obtenidos en el lanzamiento de la moneda honesta. De este modo se definirıa la variable
aleatoria X como la funcion dada por
X : Ωw→→ R
X(w)=x
11
w X(w) = x
cc 0
cs, sc 1
ss 2
Definicion 1.2. El conjunto de pares ordenados (x, f(x)) es una funcion de probabi-
lidad, una funcion de masa de probabilidad o una distribucion de probabilidad de la
variable aleatoria discreta X si, para cada resultado x posible,
1. f(x) ≥ 0,
2. ∑x f(x) = 1,
3. f(x) = Pr(X = x).
Ejemplo 1.2. Para el ejemplo dado en el Ejemplo 1.1, se define la funcion de masa de
probabilidad que es dada por:
w X(w) = x Pr(X = x)
cc 0 1/4
cs, sc 1 1/2
ss 2 1/4
1.2. Funcion de Distribucion Acumulada
La funcion de distribucion acumulada de X, a menudo llamada funcion de distri-
bucion, se define como Pr[X ≤ x] y se considera como una funcion de x y se denota
habitualmente por FX(x).
La FX(x) es una funcion no decreciente de x y
0 ≤ FX(x) ≤ 1.
Si
lımx→−∞
FX(x) = 0 y lımx→+∞
FX(x) = 1,
entonces la distribucion es propia.
12
Para distribuciones discretas FX(x) es una funcion de paso con solo un numero
numerable (contable) de pasos. Si la altura del paso en xj es pj , entonces
Pr[X = xj ] = pj .
Se le llama a pj funcion de masa de probabilidad. Si la distribucion es propia, ∑j pj = 1.
Las variables aleatorias que pertenecen a esta clase se denominan variables aleatorias
discretas. La mayorıa de las distribuciones discretas de interes se definen ya sea en el
rango de unidades no negativas x = 0, 1, . . . o en 1, 2, . . ..
1.3. Funcion Generadora de Probabilidad
Se considera una variable aleatoria discreta X no negativo con probabilidades
distintas de cero solo en valores enteros no negativo. Sea
pj = Pr[X = j], j = 0, 1, . . . (1.1)
Si la distribucion es propia, entonces ∑j pj = 1 y por lo tanto ∑j=0 pjzj converge
para |z| ≤ 1.
La funcion generadora de probabilidad de la distribucion con funcion de masa de
probabilidad (1.1) (o equivalentemente de la variable aleatoria X) se define como
G(z) =∞∑j=0
pjzj = E [zX ]
Es usual la notacion GX(z) para la funcion generadora de probabilidad de X.
1.4. Funcion de Verosimilitud
Si X es una variable aleatoria con funcion de masa de probabilidad f(x,θ), donde
θ es un parametro desconocido. Sea x1,x2, . . . ,xn una muestra aleatoria de tamano n.
La funcion de verosimilitud es la distribucion de probabilidad conjunta de los valores
observados de la muestra aleatoria.
13
L(x1,x2, . . . ,xn;θ) =n∏i=1
f(xi,θ)
L(x;θ) =n∏i=1
f(xi,θ), en que x = (x1, . . . ,xn).
Notese que la funcion de verosimilitud es una funcion del parametro θ.
1.5. Momento k-esimo alrededor del origen
Sea X una variable aleatoria con funcion de masa de probabilidad f(x), se define el
k-esimo momento poblacional alrededor del origen como:
µ′k = E (Xk) =∑xxkf(x).
Para k = 1, µ′1 es la media poblacional, µ = µ′1.
Para estimar los momentos poblacionales alrededor del origen, se suelen utilizar los
siguientes estimadores:
Sea x1,x2, . . . ,xn una muestra aleatoria, entonces los momentos muestrales alrededor
del origen se definen como:
m′k = µ′k =
∑ni=1 x
ki
n.
1.6. Metodos de estimacion
Se sabe que un parametro poblacional puede tener mas de un estimador, por lo
tanto se suelen utilizar metodos de estimacion para la obtencion de los mismos como lo
son el metodo de los momentos y el metodo de maxima verosimilitud.
14
1.6.1. Metodo de los Momentos
Sea x1,x2,. . . ,xn una muestra aleatoria tomada de una poblacion X con p parametros
desconocidos θi, i = 1, 2, . . . , p.
El metodo se basa en el supuesto de que los momentos alrededor del origen de la
muestra deben proporcionar estimaciones apropiadas para los momentos alrededor del
origen de la poblacion. Por lo tanto, se puede expresar:
m′k = µ′k, k = 1, 2, . . . , p
Obteniendo un sistema de p ecuaciones con p incognitas que son los parametros
desconocidos. Al resolver el sistema de ecuaciones se obtiene los estimadores de los
parametros poblacionales.
Ejemplo 1.3. Sea X una variable aleatoria con distribucion normal N(µ,σ2).
Los parametros µ y σ2 son desconocidos y se desea estimarlos por el metodo de
momentos.
Entonces
E (X) = µ,
E (X2) = µ+ σ2.
Igualando con los momentos muestrales, se tiene el sistema de ecuaciones:
µ = x..............(1)
σ2 + µ2 =1n
∑i=1n
x2i ..............(2)
Sustituyendo (1) en (2)
σ2 =1n
∑i=1n
x2i − x2
=1n
∑i=1n
(xi − x)2
=n− 1n
s2.
15
1.6.2. Metodo de Maxima Verosimilitud
Sea x1,x2, . . . ,xn una muestra aleatoria tomada de una poblacion X con p parame-
tros desconocidos θi, i = 1, 2, . . . , p.
Este metodo consiste en obtener estimadores para los parametros poblacionales. Los
estimadores son obtenidos por maximizar la funcion de verosimilitud L(x1,x2, . . . ,xn;θ),
en que θ = (θ1, . . . , θp)>.
Se construye la funcion de verosimilitud L(x1,x2, . . . ,xn;θ), los valores de los
parametros que maximizan la funcion se los obtiene derivando la misma, pero algunas
veces es dificultoso y tedioso la derivacion en un producto, por lo que, se construye la
funcion ` = log(L) ya que por ser la funcion logaritmo natural monotona, creciente y
no negativa se maximiza en el mismo punto. Posteriormente se deriva la funcion ` con
respecto a cada parametro poblacional obteniendo p ecuaciones con p incognitas; al
resolver el sistema de ecuaciones se tiene los p estimadores de maxima verosimilitud
para los p parametros desconocidos.
∂`
∂θ1= 0, ∂`
∂θ2= 0, . . . , ∂`
∂θp= 0.
1.7. Prueba de razon de verosimilitud
El metodo de razon de verosimilitud de la prueba de hipotesis esta relacionado con
los estimadores de maxima verosimilitud y la prueba de razon de verosimilitud es tan
aplicable como la estimacion de maxima verosimilitud.
Sea x1,x2, . . . ,xn una muestra aleatoria tomada de una poblacion X con p parame-
tros desconocidos θi, i = 1, 2, . . . , p. Sea Θ el espacio parametrico de θ. La prueba de
razon de verosimilitud se definen de la siguiente manera.
Definicion 1.3. La estadıstica de prueba de razon de verosimilitud para probar H0 :
θ ∈ Θ0 versus H1 : θ ∈ Θc0 es
λ(x) =supΘ0L(x1,x2, . . . ,xn;θ)
supΘL(x1,x2, . . . ,xn;θ) .
Una prueba de razon de verosimilitud es cualquier prueba que tiene una region
de rechazo de la forma x : λ(x) ≤ w, donde w es cualquier numero que satisfaga
0 ≤ w ≤ 1.
16
El motivo detras de la prueba de razon de verosimilitud puede entenderse mejor
en la situacion en la que f(x,θ) es la funcion de masa de probabilidad de una variable
aleatoria discreta. En este caso, el numerador de λ(x) es la probabilidad maxima de
la muestra observada, el maximo se calcula sobre los parametros en la hipotesis nula.
El denominador de λ(x) es la probabilidad maxima de la muestra observada sobre
todos los parametros posibles. Si la razon de estos dos maximos es pequena hay puntos
de los parametros en la hipotesis alternativa para los cuales la muestra observada es
mucho mas probable que para cualquier puntos de parametros en la hipotesis nula. En
esta situacion, el criterio de la prueba de razon de verosimilitud dice que H0 debe ser
rechazado y H1 aceptado como verdadero.
1.8. Estimador consistente
Sea θ un estimador de un parametro poblacional θ. Se dice que θ en consistente si:
lımn→∞Pr[
∣∣∣θ− θ∣∣∣ ≤ ε] = 1,∀ε > 0.
Algunos estimadores consistentes son:
• x es el estimador consistente de µ.
• s2 es el estimador consistente de σ2.
Se dice que un estimador, θ, es√n-consistente si
√n∣∣∣θ− θ∣∣∣ converge en probabilidad
a medida que n aumenta.
1.9. Prueba estadıstica C(α)
Suponga que los datos relativos a un parametro θ se obtienen de K experimentos
independientes. Para el experimento k, sea xk que representa una muestra aleatoria
de tamano nk de una distribucion fundamental, y sea la funcion de verosimilitud para
θ dado xk denotado por Lk(xk; θ) para k = 1, . . . K. Suponga que cada funcion de
verosimilitud satisface las condiciones de regularidad que garantizan la normalidad
17
asintotica del correspondiente estimador de verosimilitud maxima de θ, y defina
Sk(θ) =∂
∂θlogLk(xk; θ)
Vk(θ) = −∂2
∂θ2 logLk(xk; θ)
Ik(θ) = E(Vk(θ))
Entonces, la prueba score de heterogeneidad se basa en la estadıstica
H2 =K∑k=1
Sk(θ)2
Ik(θ),
donde θ es el estimador de maxima verosimilitud obtenido de todos los experimentos
K, definido por la ecuacion ∑Sk(θ) = 0. Bajo la hipotesis nula de homogeneidad, es
decir, la hipotesis de un valor comun de θ para todo k, H2 tendra una distribucion
asintotica de chi-cuadrado con K − 1 grados de libertad. Aquı, asintotico se refiere al
caso en el que todos los nk tienden a ∞ con K fijo. Como lo demostrara el desarrollo a
continuacion, si un estimador ineficiente se sustituye por θ en el calculo de H2, entonces
H2 sera estocasticamente mas grande bajo la hipotesis nula que una variable aleatoria
de chi-cuadrado con K − 1 grados de libertad.
Sea θ cualquier estimador consistente de θ, y se define
X2(θ) =K∑k=1
Sk(θ)
2
Ik(θ)−
∑Kk=1 Sk(θ)
2
∑Kk=1 Ik(θ)
.
Suponga que la verosimilitud del k-esimo conjunto de datos se representa como
Lk(xk; θ0 + φk) para k = 1, . . . ,K, con φK = 0. Luego, probar la hipotesis nula de
homogeneidad se reduce a probar H0 : φk = 0 para todo k, con θ0 tratado como un
parametro nuisance (ruido). En este contexto, la teorıa de las pruebas de C(α) se puede
usar para derivar una prueba de heterogeneidad utilizando cualquier estimador√n-
consistente de θ0. Sea θ un estimador√n-consistente, pero posiblemente un estimador
ineficiente de θ0, y sea L =∏Lk. La derivacion de la estadıstica C(α) requiere los
siguientes scores evaluados en θ bajo H0 : ∂ logL/∂φk = Sk(θ) para k = 1, . . . ,K − 1,
y ∂ logL/∂θ = S.(θ), donde la notacion de punto denota la suma de 1 a K. La matriz
de informacion correspondiente evaluada bajo H0 es
D A
A> B
,
18
donde D es la matriz diagonal (K − 1)× (K − 1) con la k-esima entrada diagonal
Ik(θ), A es el vector (K − 1)× 1 con la k-esima entrada Ik(θ) y B = I.(θ). La prueba
C(α) se basa en Tk(θ) = Sk(θ)− βkS.(θ), donde βk es el coeficiente de regresion de
Sk en S. para k = 1, . . . ,K − 1. Por lo tanto, βk = Ik(θ)/I.(θ), y como T denota el
vector (K − 1)× 1 con la k-esima entrada Sk(θ)− Ik(θ)S.(θ)/I.(θ), la C(α) prueba
estadıstica es
C2 = T>(D−AA>/B)−1T = T>(D−1 − JJ>/Ik)T
donde J es el vector (K − 1)× 1 de unos. Por lo tanto
C2 =K−1∑k=1
T 2k (θ)
Ik(θ)− (
∑K−1k=1 Tk(θ))
2
Ik(θ)
=K∑k=1
(Sk(θ)− Ik(θ)S.(θ)
I.(θ)
)2
Ik(θ)= X2(θ).
En general, la validez de la prueba C(α) requiere que θ sea√n-consistente.
1.10. Metodo de Newton - Raphson
Si se desea encontrar una raız de la funcion g(x), esto es, encontrar un valor, x∗, tal
que g(x∗) = 0 . El metodo de Newton - Raphson es un metodo iterativo que usualmente
converge a una raız. Consiste en arrancar en punto inicial x0, aproximar linealmente a
la funcion g(x) alrededor de x0, encontrar la raız de esta aproximacion e iterar estos
pasos hasta la convergencia.
La aproximacion lineal alrededor de x = x0 es
g(x) ≈ g(x0) + g′(x0)(x− x0)
como encontrar directamente la raız de g(x) puede ser difıcil, entonces el metodo de
Newton - Raphson lo que hace es encontrar la raız de la aproximacion lineal, lo cual es
muy facil:
x1 = x0 −g(x0)
g′(x0)
19
La estructura del algoritmo es:
Iniciar en x0
Para k = 1, 2, . . . , hacer
xk = xk−1 −g(xk−1)
g′(xk−1)
Para si |xk − xk−1| < δ
donde δ es cierta tolerancia que se fija.
20
Capıtulo 2
Distribucion Binomial Negativa
En este capıtulo, se estudia y analiza algunas parametrizaciones de la distribucion
binomial negativa y los dos metodos de estimacion de los parametros mas usuales para
esta distribucion; mas informacion sobre las caracterısticas de la distribucion binomial
negativa puede encontrarse en [19]. Ademas, se desarrolla un ejemplo para mostrar la
utilidad del metodo de maxima verosimilitud.
2.1. Definicion
Diferentes modelos dan lugar a la distribucion binomial negativa y como consecuencia,
hay una variedad de definiciones en la literatura.
Formalmente, la distribucion binomial negativa se puede definir en terminos de la
expansion de la expresion binomial negativa (Q− P )−r, donde Q = 1 + P , P > 0 y
r es un real positivo; el termino (x+ 1)-esimo en la expansion produce Pr[X = x].
Esto es analogo a la definicion de la distribucion binomial en terminos de la expresion
binomial (π+w)n, donde w = 1− π, 0 < π < 1, y n es un numero entero positivo.
Por lo tanto, la distribucion binomial negativa con los parametros r y P es la
distribucion de la variable aleatoria X para la cual
Pr[X = x] =
(x+ r− 1r− 1
)(P
Q
)x (1− P
Q
)r, x = 0, 1, 2, . . . (2.1)
donde Q = 1 + P , P > 0 y r > 0.
21
La funcion generadora de probabilidad es
G(z) = (1 + P − Pz)−r
y la funcion caracterıstica es (1 + P − Peit)−r. La media y la varianza son
E (X) = rP y Var(X) = rP (1 + P )
2.2. Diferentes parametrizaciones para la distribu-
cion binomial negativa
Considerando diferentes modelos, varias parametrizaciones diferentes se han usado
para la distribucion binomial negativa.
Ası, en [4] se utilizo la forma
k = r
m = rP
con la parametrizacion anterior se obtiene la funcion generadora de probabilidad
G(z) =[1 + m
k− mz
k
]−ky la funcion masa de probabilidad de X
Pr[X = x] =
(x+ k− 1k− 1
)(m
m+ k
)x (1 + m
k
)−k, x = 0, 1, 2, . . .
para k > 0, m > 0. La formula anterior se puede escribir como
Pr[X = x] =Γ(x+ k)
x!Γ(k)
(m
m+ k
)x (1 + m
k
)−kdonde Γ(.) denota la funcion gamma definida por
Γ(z) =∞∫0e−ttz−1dt,
22
cuyas propiedades incluyen:
Γ(z + 1) = zΓ(z)
Γ(12) =
√π
Γ(z) = (z − 1)! si z es un entero positivo.
Notese que
E (X) = m y Var(X) = m(1 + m
k).
Una parametrizacion mas util implica cuando c = k−1, obteniendose
Pr[X = x] =Γ(x+ c−1)
x!Γ(c−1)
(cm
1 + cm
)x ( 11 + cm
)c−1
, x = 0, 1, 2, . . . (2.2)
en que
E (X) = m y Var(X) = m+m2c
Considerando la parametritacion dada en (2.1), en [18] se propone la siguiente
parametrizacon
b =P
(1 + P )
ρ = rP
de esta forma se obtiene que la funcion generadora de probabilidad es
G(z) =
[1− bz1− b
]ρ−ρb,
donde
E (X) = ρ y Var(X) =ρ
1− bUna parametrizacion adicional que tiene mayor uso es p = 1/(1 + P ), es decir,
q = P/(1 + P ), y r = r, resultando la funcion generadora de probabilidad como
G(z) =
(1− q1− qz
)rllevando en cuenta la parametrizacion anterior se tiene que la funcion de masa de
probabilidad es dada por
Pr[X = x] =
(r+ x− 1r− 1
)qx(1− q)r, x = 0, 1, 2, . . .
23
donde
E (X) =rq
1− q y Var(X) =rq
(1− q)2
En general, r no necesariamente es un numero entero. Cuando r es un numero
entero, la distribucion anterior a veces es denomina distribucion de Pascal. Sin embargo,
el nombre “distribucion de Pascal” se aplica con mas frecuencia a la distribucion cuando
r unidades se desplazan desde el origen, es decir, el soporte es ahora r, r+ 1, . . . ; esta
distribucion tambien es llamada distribucion binomial de tiempo de espera.
2.3. Observaciones historicas y genesis de la distri-
bucion binomial negativa
Las formas especiales de la distribucion binomial negativa fueron discutidas en [28].
En [16] dio una interpretacion muy clara de la funcion de masa de probabilidad
como funcion densidad en la discusion del problema de los puntos. Sea X la variable
aleatoria que representa el numero de pruebas independientes necesarias para obtener
r ocurrencias de un evento que tiene una probabilidad constante de ocurrir en cada
ensayo. Entonces
Pr[X = r+ j] =
(r+ j − 1r− 1
)pr(1− p)j , j = 1, 2, . . .
es decir, X tiene una distribucion binomial negativa.
En [25] se obtuvo la funcion masa de probabilidad como la probabilidad de exac-
tamente j nacimientos masculinos en una secuencia de nacimiento que contiene un
numero fijo de nacimientos femeninos; el asumio una probabilidad constante conocida
de un nacimiento masculino.
En [41] se encontro empıricamente que ciertos datos del hemocitometro podrıan
ajustarse bien mediante una distribucion binomial negativa. En [43] se continuo con
este enfoque. Desafortunadamente, no se dio cuenta de que la distribucion de Poisson
es una forma lımite tanto para la distribucion binomial como para la distribucion
binomial negativa, y suscito considerable controversia sobre los meritos relativos de las
distribuciones Poisson y binomial negativa.
En [17] derivaron la siguiente relacion entre las distribuciones Poisson y binomial
negativa. Supongamos que tenemos una mezcla de distribuciones de Poisson tal que
24
los valores esperados θ de las distribuciones de Poisson varıan segun una distribucion
gamma con funcion densidad de probabilidad
f(θ) = [βαΓ(α)]−1θα−1 exp
(− θβ
), θ > 0, α > 0, β > 0.
Entonces
Pr[X = x] = [βαΓ(α)]−1∫ ∞
0θα−1 exp
(− θβ
)(θxe−θ
x!
)dθ
=1
βα Γ(α) x!
∫ ∞0
θx+α−1 exp(− θβ− θ
)dθ
=1
βα Γ(α) x![β + 1]−x−α βx+α Γ(x+ α)
=Γ(x+ α)
Γ(α) x!
(β
β + 1
)x ( 1β + 1
)α
Asi X tiene una distribucion binomial negativa con parametros α y β. Este tipo de
modelo se utilizo para representar la “tendencia a los accidentes”, como se puede ver en
[17]. El parametro θ representa el numero esperado de accidentes para un individuo. Se
supone que esto varıa de individuo a individuo.
2.4. Estimacion de los parametros por el metodo
de los momentos
Sea X una variable aleatoria de la distribucion BN(m, c). Como hay dos parametros
a estimar, planteamos un sistema de ecuaciones basadas en el primer y en el segundo
momento.
Usando E (X) = m y Var(X) = m + cm2 y la relacion Var(X) = E (X2) −
[E (X)]2, tenemos
∑ni=1 xin
= E(X)
∑ni=1 x
2i
n= E(X2)
⇒
∑ni=1 xin
= m
∑ni=1 x
2i
n= m+ cm2 +m2
Reemplazando mmm = x, en la segunda ecuacion, se obtiene:∑ni=1 x
2i
n= x+ cx2 + x2
25
despejando c : ∑ni=1 x
2i
n− x− x2 = cx2
Tenemos
cmm =
∑ni=1 x
2i
n − x− x2
x2
cmm =n−1n s2 − xx2 , en que s2 =
∑ni=1(xi − x)2
n− 1 .
2.5. Estimacion de los parametros por el metodo
de maxima verosimilitud
Sea la funcion de masa de probabilidad de la variable aleatoria X dada en [4],
descrita como en la ecuacion (2.2)
Pr[X = x] =Γ(x+ c−1)
x!Γ(c−1)
(cm
1 + cm
)x ( 11 + cm
)c−1
, x = 0, 1, 2, . . .
donde m y c son los parametros desconocidos.
Sea x1,x2, . . . ,xn una muestra aleatoria de n observaciones. La funcion de verosimi-
litud de la variable independiente e identicamente distribuido es:
L(x1,x2, . . . ,xn;m,c) =n∏i=1
Pr[X = xi]
Luego, el logaritmo de la funcion de verosimilitud viene dada por
`(m, c) = logL(x1,x2, . . . ,xn;m,c)
=
n∑i=1
logPr[X = xi]
=
=n∑i=1
log
Γ(xi + c−1)
xi!Γ(c−1)
(cm
1 + cm
)xi ( 11 + cm
)c−1=
n∑i=1
log( 1xi!
)+
n∑i=1
log
(Γ(xi + c−1)
Γ(c−1)
)+ xi log cm − xi log(1 + cm) −
c−1 log(1 + cm)
= K(X) +n∑i=1
log
(Γ(xi + c−1)
Γ(c−1)
)+ xi log cm − (xi + c−1) log(1 + cm)
donde K(X) es una funcion solamente de los datos.
26
Como se senala en [20]
Γ(I + d)
Γ(d)= d(1 + d). . . . .(I − 1 + d), I es entero (2.3)
Ası,
Γ(xi + c−1)
Γ(c−1)= c−1(1 + c−1). . . . .(xi − 1 + c−1)
Por lo tanto,
log(
Γ(xi + c−1)
Γ(c−1)
)= log
(1c
)+ log
(c+ 1c
)+ . . .+ log
(c(xi − 1) + 1
c
)
=xi−1∑v=0
log(1 + cv
c
) (2.4)
De esta forma `(m, c) puede escribirse como
`(m, c) = K(X) +n∑i=1
xi−1∑v=0
log1 + cv
c
+ xi log cm − (xi + c−1) log(1 + cm)
= K(X) +
n∑i=1
xi−1∑v=0
log(1 + cv) + xi logm −(xi + c−1
)log(1 + cm)
= K(X) +
n∑i=1
xi−1∑v=0
log(1 + cv) +n∑i=1xi logm −
n∑i=1
(xi + c−1
)log(1 + cm)
= K(X) +n∑i=1
xi−1∑v=0
log(1 + cv) + n x logm − n(x+ c−1
)log(1 + cm)
Luego, derivando `(m, c) con respecto a m e igualamos a 0
∂`(c,m)
∂m= n
x
m− n
(x+ c−1
)( c
1 + cm
)= n
(x
m− cx+ 1
1 + cm
)= n
(x−m
m(1 + cm)
)
Entonces
n
(x−m
m(1 + cm)
)=0
m =x
(2.5)
Ahora, derivamos `(m, c) con respecto a c e igualamos a 0
∂`(c,m)
∂c=
n∑i=1
xi−1∑v=0
v
1 + cv
+ n c−2 log(1 + cm) − n
m(x+ c−1)
1 + αm
27
Por (2.5) e igualando a 0 tenemos:
1n
n∑i=1
xi−1∑v=0
v
1 + cv
+ c−2 log(1 + cx) − x(x+ c−1)
1 + cx= 0 (2.6)
La solucion de la ecuacion no lineal dada en (2.6) puede ser obtenida mediante el
algoritmo de Newton- Raphson.
2.6. Ejemplo (Fisher, 1941)
En [14] se presentan datos que se refieren al numero de garrapatas encontradas en
cada una de 82 ovejas. Los datos en forma de distribucion de la frecuencia se muestran
en la Tabla 2.1.
Tabla 2.1: Distribucion de frecuencias de garrapatas encontradas en 82 ovejas.
x: No. de garrapatas por oveja 0 1 2 3 4 5 6 7 8 9 10 11
f: No. de ovejas (frecuencia) 4 5 11 10 9 11 3 5 3 2 2 5
x: 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Total
f: 0 2 2 1 1 0 0 1 0 1 1 1 0 2 82
Donde la media y la varianza de los datos son 6,5609 y 34,7678, respectivamente. Se
puede observar que la varianza excede a la media.
Haciendo uso del algoritmo de Newton-Raphson programado en R, la estimacion
de maxima verosimilitud de k = 1c en 5 iteraciones es 1,777476; como se observa en
la Tabla 2.2. Por lo tanto, se tiene que la estimacion de maxima verosimilitud de c es
0,562595.
28
Tabla 2.2: Iteraciones para encontrar el estimador de c
iteracion xk g(xk) error
1 1.6100797288 1.5756168734 0.3100797288
2 1.7546409073 0.1884405403 0.1445611785
3 1.7770271855 0.0036332648 0.0223862783
4 1.7774759857 0.0000014166 0.0004488002
5 1.7774761608 0.0000000000 0.0000001751
A continuacion, la Figura 4.1 muestra la grafica de la funcion g(k) = 0, donde k
representa 1/c en la ecuacion (2.6).
Figura 2.1: Grafica de la funcion g(k) para obtener su raız.
29
Capıtulo 3
Prueba de igualdad de medias en
presencia de dispersion comun
Los datos de conteo que siguen una distribucion binomial negativa surgen en
numerosas areas de la ciencia (ver, por ejemplo, [4, 8]). En muchas situaciones la
suposicion de un parametro de dispersion comun es razonable. El presente trabajo se
refiere a la prueba de hipotesis en un diseno unidimensional para los datos de conteo en
que se supone que provienen de una distribucion binomial negativa con parametro de
dispersion comun.
3.1. Formulacion del modelo
Considerando la forma de la funcion de masa de probabilidad para la distribucion
binomial negativa que se propuso en [9] en la que la variable aleatoria X sigue una
distribucion binomial negativa con media m y parametro de dispersion c, BN(m,c), si
Pr[X = x] =Γ(x+ c−1)
x!Γ(c−1)
(cm
1 + cm
)x ( 11 + cm
)1/c(3.1)
para x = 0, 1, 2, . . . y m > 0. Para esta parametrizacion E(X) = m y V ar(X) =
m+ cm2.
Bajo la suposicion
Xij ∼ iid NB(mi,c) para i = 1, 2, . . . ,T y j = 1, 2, . . . ,ni.
donde Xij es el conteo del i-esimo tratamiento y del j-esimo individuo.
30
Las hipotesis a contrastar son:
H0 : m1 = m2 = . . . = mT = m
H1 : no todas las m′is son iguales,
asumiendo que c el parametro de dispersion es comun y desconocido, c > − 1m .
Para la conveniencia de la derivacion de las pruebas estadısticas C(α) reparameteri-
zamos mi bajo H1 por mi = m+ φi, i = 1, . . . ,T − 1, con φT = 0. Luego, probar la
hipotesis nula de homogeneidad de las m′is se reduce a probar
H0 : φi = 0 para todo i
H1 : no todas las φ′is son iguales,
con m y c tratados como parametros nuisance (ruido). Esta tecnica fue empleada por
muchos autores. Por ejemplo, en [42] se uso esta tecnica para obtener estadısticas C(α)
para probar la igualdad de varios odds ratios. En [6] tambien utilizaron esta misma
tecnica para derivar estas estadısticas para probar la igualdad de medias en presencia
de una sobre-dispersion binomial negativa comun.
3.2. Estimacion de los parametros por el metodo
de los momentos
Considerando Xij ∼ BN(mi,c) para i = 1, 2, . . . ,T y j = 1, 2, . . . ,ni . Se tiene los
parametros mi y c que deben ser estimados. En este sentido, el metodo de los momentos
plantea un sistema de ecuaciones basados en el primer y en el segundo momento de X.
Ası, usando E (X) = m, Var(X) = m+ cm2 y la relacion: Var(X) = E (X2)−
[E (X)]2 se tiene que:
∑Ti=1
∑nij=1 xij
n= E (X)
∑Ti=1
∑nij=1 x
2ij
n= E (X2)
⇒
∑Ti=1
∑nij=1 xij
n= m
∑Ti=1
∑nij=1 x
2ij
n= m+ cm2 +m2
31
Reemplazando mmm = x, en la segunda ecuacion, se obtiene:∑Ti=1
∑nij=1 x
2ij
n= x+ cx 2 + x 2
despejando c : ∑Ti=1
∑nij=1 x
2ij
n− x− x 2 = cx 2
Entonces
cmm =
∑Ti=1∑nij=1 x
2ij
n − x− x 2
x 2
cmm =n−1n s2 − xx 2 ,
donde s2 =∑Ti=1∑nij=1(xij−x)
2
n−1 .
3.3. Estimacion por el metodo de maxima verosimi-
litud
De (3.1) se desprende que la funcion de verosimilitud de los parametros m y c es
L(m,c) =T∏i=1
ni∏j=1
Γ(xij + c−1)
xij !Γ(c−1)
(cmi
1 + cmi
)xij ( 11 + cmi
)c−1
Luego el logaritmo de la funcion de verosimilitud bajo la hipotesis alterna H1 es
`1(m,c) =T∑i=1
ni∑j=1
log 1xij !
+T∑i=1
ni∑j=1
log Γ(xij + c−1)
xij !Γ(c−1)+ xij log
(cmi
1 + cmi
)+
+1c
log( 1
1 + cmi
)Entonces por la ecuacion (2.3)
log(
Γ(xij + c−1)
Γ(c−1)
)= log
(c−1(1 + c−1) . . . (xij − 1 + c−1)
)= log 1
c+ log
(c+ 1c
)+ . . .+ log
(c(xij − 1) + 1
c
)
= log 1 + log (c+ 1) + . . .+ log (c(xij − 1) + 1)− xij log c
=xij∑l=1
log 1 + c(l− 1) − xij log c
32
Luego `1(m,c) puede ser reescrito como
`1(m,c) = K(X) +T∑i=1
ni∑j=1
xij logmi − (xij + c−1) log (1 + cmi) +xij∑l=1
log 1 + c(l− 1)
donde K(X) es una funcion solamente de los datos.
El logaritmo de la verosimilitud bajo la hipotesis nula H0, denotado por `0(m, c), se
obtiene reemplazando mi = m (i = 1, . . . ,T )
`0(m,c) = K(X) +T∑i=1
ni∑j=1
xij logm− (xij + c−1) log (1 + cm) +xij∑l=1
log 1 + c(l− 1)
Bajo H1, el estimador de maxima verosimilitud de mi es∂`1(m,c)∂mi
=T∑i=1
ni∑j=1
[xij −mi
mi(1 + cmi)
], i = 1, . . . ,T
entoncesT∑i=1
1mi(1 + cmi)
ni∑j=1
xij − nimi
= 0
y ası
mi = xi. =xi.ni
=
∑nij=1 xij
nii = 1, . . . ,T
Tambien bajo H1, el estimador de maxima verosimilitud, c1, de c se obtiene por
encontrar la solucion de la ecuacion no lineal∂`1(m,c)
∂c=
T∑i=1
ni∑j=1
1c2
log (1 + cmi)−(xij + c−1)mi
1 + cmi+
xij∑l=1
l− 11 + c(l− 1)
= 0.
Bajo H0, el estimador de maxima verosimilitud de m es∂`0(m,c)∂m
=T∑i=1
ni∑j=1
[xij −m
m(1 + cm)
]
LuegoT∑i=1
ni∑j=1
xij −mT∑i=1
ni = 0
m = x =
∑Ti=1
∑nij=1 xij
n
donde n =∑Ti=1 ni.
El estimador de maxima verosimilitud, c0, de c bajo H0 se obtiene por resolver la
ecuacion no lineal:∂`0(m, c)
∂c=
T∑i=1
ni∑j=1
1c2
log(1 + cm)− (xij + c−1)m
1 + cm+
xij∑l=1
l− 11 + c(l− 1)
= 0
A fin de obtener las soluciones de las ecuaciones no lineales se empleara un algoritmo
de optimizacion.
33
3.4. La prueba estadıstica C(α) basada en la fun-
cion de verosimilitud
El logaritmo de la funcion de verosimilitud en terminos de la reparametrizacion de
mi = m+ φi puede escribirse como
`(m,φ, c) = K(X) +T∑i=1
ni∑j=1
xij log(m+ φi)− (xij + c−1) log(1 + cm+ cφi)+
+xij∑l=1
log 1 + c(l− 1).
Se define φ = (φ1, · · · ,φT−1)> y θ = (θ1, θ2)> = (m, c)>. Luego, las primeras
derivadas parciales son dadas por:
∂`
∂φi=
∂
∂φi
T∑i=1
ni∑j=1
xij log(m+ φi)− (xij + c−1) log (1 + cm+ cφi)+
+xij∑l=1
log 1 + c(l− 1)
=ni∑j=1
[∂
∂φixij log(m+ φi) −
∂
∂φi
(xij + c−1) log (1 + cm+ cφi)
]
=ni∑j=1
[xij
m+ φi− c xij + 1
1 + cm+ cφi
]
=ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]
∂`
∂m=
∂
∂m
T∑i=1
ni∑j=1
xij log(m+ φi)− (xij + c−1) log (1 + cm+ cφi)+
+xij∑l=1
log 1 + c(l− 1)
=T∑i=1
ni∑j=1
[∂
∂mxij log(m+ φi) −
∂
∂m
(xij + c−1) log (1 + cm+ cφi)
]
=T∑i=1
ni∑j=1
[xij
m+ φi− c xij + 1
1 + cm+ cφi
]
=T∑i=1
ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]
34
∂`
∂c=
∂
∂c
T∑i=1
ni∑j=1
xij log(m+ φi)− (xij + c−1) log (1 + cm+ cφi)+
+xij∑l=1
log 1 + c(l− 1)
=T∑i=1
ni∑j=1
− ∂
∂c
(xij + c−1) log (1 + cm+ cφi)
+
∂
∂c
xij∑l=1
log(1 + c(l− 1))
=T∑i=1
ni∑j=1
−xij(m+ φi)
1 + cmcφi+
1c2
log(1 + cm+ cφi)−m+ φ
1 + cm+ cφ+
xij∑l=1
l− 11 + c(l− 1)
=
T∑i=1
ni∑j=1
1c2
log(1 + cm+ cφi)−(xij + c−1)(m+ φi)
1 + cm+ cφi+
xij∑l=1
l− 11 + c(l− 1) .
Tambien, se obtiene las segundas derivadas parciales
∂2`
∂φi2 =
∂
∂φi
ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]=
ni∑j=1
[− xij + 2cmxij + 2cxijφi −m2c− 2cmφi − cφi2
(m+ φi)2(1 + cm+ cφi)2 ,]
en que:
− ∂2`
∂φi2
∣∣∣∣∣φ=0
=ni∑j=1
[xij + 2cmxij −m2c
m2(1 + cm)2
]
=ni∑j=1
[xij(1 + 2cm)−m2c
m2(1 + cm)2
]
=(1 + 2cm)
∑nij=1 xij −m2cni
m2(1 + cm)2
∂2`
∂φi∂m=
∂
∂φi
T∑i=1
ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]=
∂
∂φi
ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]=
ni∑j=1
[− xij + 2cmxij + 2cxijφi −m2c− 2cmφi − cφi2
(m+ φi)2(1 + cm+ cφi)2
]
Luego, evaluando en φ = 0 se tiene:
− ∂2`
∂φi∂m
∣∣∣∣∣φ=0
=ni∑j=1
[xij + 2cmxij −m2c
m2(1 + cm)2
]
=(1 + 2cm)
∑nij=1 xij −m2cni
m2(1 + cm)2
35
∂2`
∂c2 =∂
∂c
T∑i=1
ni∑j=1
1c2
log(1 + cm+ cφi)−(xij + c−1)(m+ φi)
1 + cm+ cφi+
+xij∑l=1
l− 11 + c(l− 1)
=
T∑i=1
ni∑j=1
∂∂c
( 1c2
log(1 + cm+ cφi))− ∂
∂c
((xij + c−1)(m+ φi)
1 + cm+ cφi
)+
+xij∑l=1
∂
∂c
(l− 1
1 + c(l− 1)
)=
T∑i=1
ni∑j=1
− 2c3
log(1 + cm+ cφi) +2(m+ φi)
c2(1 + cm+ cφi)+
xij(m+ φi)2
(1 + cm+ cφi)2+
+(m+ φi)2
c(1 + cm+ cφi)2 +xij∑l=1
(l− 1)2
(1 + c(l− 1))2
Que evaluando en φ = 0 se tiene:
− ∂2`
∂c2
∣∣∣∣∣φ=0
=T∑i=1
ni∑j=1
2c3
log(1 + cm)− 2mc2(1 + cm)
− xijm2
(1 + cm)2−
− m2
c(1 + cm)2 −xij∑l=1
(l− 1)2
(1 + c(l− 1))2
∂2`
∂m2 =∂
∂m
T∑i=1
ni∑j=1
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]=
T∑i=1
ni∑j=1
∂
∂m
[xij −m− φi
(m+ φi)(1 + cm+ cφi)
]
=T∑i=1
ni∑j=1
[− xij + 2cmxij + 2cxijφi −m2c− 2cmφi − cφi2
(m+ φi)2(1 + cm+ cφi)2
]
− ∂2`
∂m2
∣∣∣∣∣φ=0
=T∑i=1
ni∑j=1
[xij + 2cmxij −m2c
m2(1 + cm)2
]
=(1 + 2cm)
∑Ti=1
∑nij=1 xij −m2cni
m2(1 + cm)2
Luego,
36
ψi =
[∂`
∂φi
]φ=0
=ni(xi. −m)
m(1 + cm)(i = 1, . . . ,T − 1),
γ1 =
[∂`
∂θ1
]φ=0
=T∑i=1
ni(xi. −m)
m(1 + cm)
y
γ2 =
[∂`
∂θ2
]φ=0
=T∑i=1
ni∑j=1
1c2
log(1 + cm)− (xij + c−1)m
1 + cm+
xij∑l=1
l− 11 + c(l− 1)
Sea θ un estimador
√n-consistente de θ bajo la hipotesis nula. La prueba C(α)
esta basada en Si(θ) = ψi(θ)− β1γ1(θ)− β2γ2(θ), donde β1 y β2 son coeficientes de
regresion parcial de los ψi en γ1 y ψi en γ2, respectivamente. La matriz de varianza-
covarianza de S = S1(θ), . . . ,ST−1(θ)> es D − AB−1A>, donde los (i, j)-esimos
elementos de D, A y B son respectivamente:
Dij = E
[− ∂2`
∂φi∂φj
]φ=0
=
ni/m(1 + cm), i = j = 1, . . . ,T − 1 ,
0, en otros casos.
Aij = E
[− ∂2`
∂φi∂θj
]φ=0
=
ni/m(1 + cm), i = 1, . . . ,T − 1, j = 1 ,
0, i = 1, . . . ,T − 1, j = 2 .
Bij = E
[− ∂2`
∂θi∂θj
]φ=0
=
ni/m(1 + cm), i = j = 1 ,
b, i = j = 2 ,
0, en otros casos.
Despues de reemplazar θ en S, A, B y D por θ, la estadıstica C(α) toma la forma
S>(D −AB−1A>)−1S, que se distribuye aproximadamente como Chi-cuadrado con
T − 1 grados de libertad.
37
D =
n1/m(1 + cm) . . . 0
... ...
0 . . . nT−1/m(1 + cm)
A =
n1/m(1 + cm) 0
... ...
nT−1/m(1 + cm) 0
B =
n1/m(1 + cm) 0
0 b
Luego,
B−1 =
m(1 + cm)/n1 0
0 b−1
AB−1 =
n1/n1 0
n2/n1 0... ...
nT−1/n1 0
AB−1A> =
n1n1
n1m(1+cm)
n1n1
n2m(1+cm) . . . n1
n1nT−1
m(1+cm)
n2n1
n1m(1+cm)
n2n1
n2m(1+cm) . . . n2
n1nT−1
m(1+cm)... ...
nT−1n1
n1m(1+cm)
nT−1n1
n2m(1+cm) . . .
nT−1n1
nT−1m(1+cm)
D−AB−1A> =
n12−n1
2
n1 m(1+cm) − n1 n2n1 m(1+cm) . . . − n1 nT−1
n1 m(1+cm)
− n2 n1n1 m(1+cm)
n1 n2−n22
n1 m(1+cm) . . . − n2 nT−1n1 m(1+cm)
... ...
− nT−1 n1n1 m(1+cm) −
nT−1 n2n1 m(1+cm) . . .
n1 nT−1−nT−12
n1 m(1+cm)
38
D−AB−1A> =1
n1m(1 + cm)
n1(n1 − n1) −n1 n2 . . . −n1 nT−1
−n2 n1 n2(n1 − n2) . . . −n2 nT−1... ...
−nT−1 n1 −nT−1 n2 . . . nT−1(n1 − nT−1)
Si se utiliza estimadores de maxima verosimilitud bajo H0 de m = x y c = c0, que
son√n-consistentes y mostrando que γ1(θ) = γ2(θ) = 0, y por lo tanto Si(θ) = ψi(θ).
S =
S1(θ)
S2(θ)...
ST−1(θ)
(T−1)×1
=
ψ1(θ)
ψ2(θ)...
ψT−1(θ)
(T−1)×1
La estadıstica C(α), S>(D−AB−1A>)−1S, resulta ser
S>S(D−AB−1A>)−1 =(ψ1(θ) ψ2(θ) . . . ψT−1(θ)
)
ψ1(θ)
ψ2(θ)...
ψT−1(θ)
(
nix(1 + x)
)−1
=T∑i=1
(ni(xi. − x)x(1 + cx)
)2 (ni
x(1 + x)
)−1.
Finalmente, la estadıstica C(α) se reduce a
X2c(m) =
T∑i=1
ni(xi. − x)2
x(1 + c0x)∼ χ2
T−1 (3.2)
que se distribuye aproximadamente como la distribucion Chi-cuadrado con T − 1 grados
de libertad.
39
3.5. La prueba estadıstica C(α) basada en el meto-
do de los momentos
Los estimadores por el metodo de los momentos son
mmm = x
cmm =n−1n s2 − xx2 ,
donde
s2 =T∑i=1
ni∑j=1
(xij − x)2
n− 1 ,
entonces γ1(θ) = 0 y β2 = 0. Se tiene que cmm es√n consistente pero ineficiente. En
este caso tambien Si(θ) = ψi(θ) y la estadıstica C(α) es
X2c(mm) =
T∑i=1
ni(xi. − x)2
x(1 + cmmx)∼ χ2
T−1. (3.3)
Tambien, se distribuye aproximadamente como la distribucion Chi-cuadrado con T − 1
grados de libertad.
3.6. La prueba de la razon de verosimilitud
Se denota por `1 el logaritmo de L(m, c) bajo H1 y por `0 el logaritmo de L(m, c)
bajo H0. Entonces, la estadıstica de razon de verosimilitud tiene una distribucion
asintotica Chi- cuadrado con (T − 1) grados de libertad es
X2rv = 2(`1(mi,c)− `0(mi,c)) ∼ χ2
T−1.
Luego
X2rv = 2
T∑i=1
nixi. log xi. − nixi. log(1 + c1xi.)− nic1−1 log(1 + c1xi.)+
+ni∑j=1
xij∑l=1
log 1 + c1(l− 1) − nixi. log x+ nixi. log(1 + c0x)+
+nic0−1 log(1 + c0x)−
ni∑j=1
xij∑l=1
log 1 + c0(l− 1)
X2rv = 2
T∑i=1
nixi. log
xi.(1 + c0x)
x(1 + c1xi.)
+ c0
−1 log 1 + c0x −
−c1−1 log 1 + c1xi.
+ni∑j=1
xij∑l=1
log
1 + c1(l− 1)1 + c0(l− 1)
.
40
3.7. Pruebas aproximadas basadas en datos trans-
formados
Ahora, para la derivacion de las pruebas de analisis de varianza modificadas, primero
obtenemos la varianza estable y la normalidad aproximada de los conteos xij utilizando
las siguientes transformaciones sugeridas por Anscombe (1948) como se puede ver en
[3]:
yij =
√1c− 1
2 sinh−1
√√√√xij +38
1c −
34
(3.4)
y′ij =
√1c− 1
2 log xij + 12c (3.5)
siendo c desconocido, lo reemplazamos por el estimador de maxima verosimilitud (vease
en [25]).
Sin embargo, Anscombe senala que el primero es mas eficaz en la estabilizacion de la
varianza, mientras que el ultimo es mas conveniente de usar y es valido para un rango
mas amplio de valores de c. En el estudio de simulacion que sigue usaremos ambas
transformaciones para fines comparativos. Probar la igualdad de varios grupos significa
que se emplea un procedimiento normal de analisis de la teorıa de la varianza en los
datos transformados yij y y′ij despues de reemplazar c por su estimacion de maxima
verosimilitud [9, 25].
41
Capıtulo 4
Aplicacion
4.1. Aplicacion a datos reales
Se considera dos aplicaciones que hacen uso de los datos recopilados y publicados
por los investigadores.
4.1.1. Datos de Biologıa
El conjunto de datos biologicos fueron originalmente proporcionados y analizados
en [8], y se muestran en la Tabla 4.1. Estos datos se refieren al numero total plagas
de insectos barrenadores por colina en cada parcela para un grupo de control y tres
grupos de tratamiento, los lugares vacıos indican cero. En un experimento de campo
de plagas de insectos barrenadores del maız, se organizaron cuatro tratamientos en 15
bloques al azar. Al final de la temporada, se seleccionaron al azar ocho colinas de maız
en cada parcela y se registraron los insectos barrenadores de cada colina.
Figura 4.1: Barrenadores de maız
42
Tabla 4.1: Distribuciones de los insectos barrenadores del maız.
Frecuencias observadas para
Barrenadores Control Tratamiento 1 Tratamiento 2 Tratamiento 3
por colina (C) (T1) (T2) (T3)
0 19 24 43 47
1 12 16 35 23
2 18 16 17 27
3 18 18 11 9
4 11 15 5 7
5 12 9 4 3
6 7 6 1 1
7 8 5 2 1
8 4 3 2
9 4 4
10 1 3 1
11 1
12 1 1
13 1
15 1
17 1
19 1
26 1
43
Se desea comparar las medias del grupo control (C), tratamiento 1 (T1), tratamiento
2 (T2) y tratamiento 3 (T3) para el cual se plantea las siguientes hipotesis:
H0 : Las medias de los diferentes grupos son iguales.
H1 : Al menos una media muestral no es igual a las otras.
Las hipotesis generalmente son usadas en ANOVA.
En Tabla 4.2 que muestra las estadısticas descriptivas por cada tratamiento como
el tamano de la muestra (ni), desviacion estandar (Sx) entre otros; se observa que las
medias y las varianzas son diferentes.
Tabla 4.2: Estadısticas descriptivas de los datos biologicos
Grupo ni Media Varianza Sx Mediana Mınimo Maximo
1 C 120 4.03 16.45 4.06 3.00 0.00 26.00
2 T1 120 3.17 7.77 2.79 3.00 0.00 12.00
3 T2 120 1.48 3.19 1.79 1.00 0.00 8.00
4 T3 120 1.51 3.63 1.91 1.00 0.00 11.00
Para visualizar mejor los datos se realizo un diagrama de cajas para cada tratamiento
como se muestra en la Figura 4.2.
Figura 4.2: Diagrama de cajas de los datos biologicos
44
Notese que los grupos menos dispersos son el tratamiento 2 (T2) y el tratamiento 3
(T3) y que tambien en todos los tratamientos se observa datos outliers.
Se quiere saber si hay alguna diferencia significativa entre el numero de barrena-
dores promedio por colina en cada parcela para un grupo de control y tres grupos de
tratamiento.
Tabla 4.3: Analisis de varianza de los datos biologicos
GL SC MC valor F valor p
Tmt 3 576.41 192.14 24.75 0.0000
Residuals 476 3694.49 7.76
El analisis de varianza respectivo en la Tabla 4.3 es mostrada. En esta tabla se
observa los grados de libertad (GL), suma de cuadrados (SC) y media de cuadrados
(MC) de los tratamientos. Notese que el valor p es menor que 0,05 y por tal razon
se tiene evidencia para indicar que existe diferencia significativa en las medias de los
tratamientos.
En ANOVA se tiene que verificar las hipotesis del modelo, tales como :
1. Homocedasticidad o igualdad de varianzas.
2. Normalidad de los residuos.
3. Independencia de los residuos.
4. Correlacion entre los residuos.
En esta idea, se tiene que comprobar la igualdad de las varianzas, que puede ser
verificada mediante la prueba Levene en la Tabla 4.4.
Tabla 4.4: Prueba Levene para los datos biologicos
GL valor F valor p
grupo 3 13.96 0.0000
476
Se observa que el valor p es menor que el nivel de significacion de 0,05 y por tal
razon los datos sugieren que las varianzas no son iguales. Ası, la suposicion de igualdad
de varianzas no se cumple.
45
Tambien la normalidad de los residuos no se satisface tal como se observa en la
Figura 4.3. Notese que es importante resaltar que si los residuos son normales estos
deberian estar muy proximos de la pendiente mostrada en la Figura 4.3.
Figura 4.3: Grafica de probabilidad normal para los residuos
En el analisis de varianza anterior se considero que la variable respuesta (y) es de
naturaleza cuantitativa continua. Sin embargo, la variable respuesta es de naturaleza
discreta (conteo) por ese motivo se considera una transformacion de los datos por medio
de √y Anscombe (1950).
En Tabla 4.5 que muestra las estadısticas descriptivas para los datos transformados
por cada tratamientos de los datos biologicos se observa que las medias y las varianzas
son diferentes aunque no significativamente.
46
Tabla 4.5: Estadısticas descriptivas de los datos transformados biologicos
Tmt ni Media Varianza Sx Mediana Mınimo Maximo
1 C 120 1.72 1.07 1.04 1.73 0.00 5.10
2 T1 120 1.51 0.89 0.94 1.73 0.00 3.46
3 T2 120 0.92 0.64 0.80 1.00 0.00 2.83
4 T3 120 0.91 0.69 0.83 1.00 0.00 3.32
Transformando los datos, se obtiene por ejemplo que la variabilidad entre ellos
disminuye como puede observarse el la Figura 4.4
Figura 4.4: Diagrama de cajas de los datos transformados con √y
El analisis de varianza respectivo para los datos transformados es mostrado en la
Tabla 4.6 con sus respectivos grados de libertad (GL), suma de cuadrados (SC) y media
de cuadrados(MC).
47
Tabla 4.6: Analisis de varianza de los datos transformados con √y
GL SC MC valor F valor p
Tmt 3 61.92 20.64 25.06 0.0000
Residuals 476 392.06 0.82
Ası, se puede observar que existe diferencia entre las medias de los tratamientos
esto porque el valor p en menor que 0,05.
Si se comprueba las hipotesis del modelo, se tiene que de acuerdo con la prueba de
Levene que se muestra en la Tabla 4.7 la igualdad de varianzas se cumple esto porque
el valor p es mayor que 0,05.
Tabla 4.7: Prueba de Levene de los datos transformados con √y
GL valor F valor p
grupo 3 1.54 0.2030
476
El supuesto de normalidad de los residuos se verifica visualmente usando la grafica
de probabilidad normal para los residuos que se presenta en la Figura 4.5.
Figura 4.5: Grafica de probabilidad normal para los residuos de los datos transformados.
Se observa de la Figura 4.5 que la normalidad no se cumple.
48
En resumen, la transformacion de los datos soluciono en parte el problema de la
igualdad de varianzas mas no la normalidad.
Por lo expuesto anteriormente se debe utilizar una metodologıa que considere la no
normalidad de los datos. Ası, se considera que la variable respuesta tiene una distribucion
binomial negativa. Asumiendo tal distribucion se aplicara la metodologıa estudiada en
el capıtulo 3.
En el analisis de los datos, primero asumimos que el parametro de dispersion c es
comun entre los grupos de tratamiento. Los resultados del analisis para los conjuntos de
datos que utilizan la estadıstica X2c(m) recomendado para probar la igualdad de medias
entre grupos o cualquier par de grupos con el supuesto de c comun se registran en la
Tabla 4.8.
Tabla 4.8: Las estimaciones de maxima verosimilitud de los parametros m y c y la
estadıstica X2c(m) para los datos biologicos de la Tabla 4.1
Combinacion de tratamientos
CT1T2T3 CT1 CT2 CT3 T1T2 T1T3 T2T3
m 2.5479 3.6000 2.7583 2.7708 2.3250 2.3375 1.4958
c0 0.9239 0.6403 0.9753 1.0069 0.8096 0.8437 0.8069
X2c(m) 67.4486 3.7877 38.3284 36.4265 25.3695 23.7501 0.0114
GL 3 1 1 1 1 1 1
valor p 1,5× 10−14 0.0516 5,9× 10−10 1,6× 10−9 4,7× 10−7 1,1× 10−6 0.9151
Ahora, se utiliza la estadıstica X2rv para probar la igualdad de medias entre grupos
o cualquier par de grupos con el supuesto de c comun que se registran en la Tabla 4.9.
Tabla 4.9: Estadıstica X2rv para los datos biologicos de la Tabla 4.1
Combinacion de tratamientos
CT1T2T3 CT1 CT2 CT3 T1T2 T1T3 T2T3
X2rv 38.2496 1.9223 23.4077 22.1360 14.3413 13.3653 0.0057
GL 3 1 1 1 1 1 1
valor p 2,5× 10−8 0.1656 1,3× 10−6 2,5× 10−6 0.0002 0.0003 0.9399
49
Estos resultados muestran que utilizando la estadıstica X2c(m) y X2
rv asumiendo que
hay dispersion comun entre los grupos, las medias difieren entre los grupos, pero no
entre el control y el tratamiento 1 y no entre el tratamiento 2 y el tratamiento 3.
Finalmente, se hace uso de la prueba estadıstica C(α) basada en el metodo de los
momentos X2c(mm) para analizar estos datos biologicos cuyos resultados se muestran en
la Tabla 4.10.
Tabla 4.10: Estadıstica X2c(mm) para los datos biologicos de la Tabla 4.1
Combinacion de tratamientos
CT1T2T3 CT1 CT2 CT3 T1T2 T1T3 T2T3
X2c(mm) 64.7815 3.6945 34.3243 33.1154 27.6703 26.0248 0.0111
GL 3 1 1 1 1 1 1
valor p 5,6× 10−14 0.0546 4,7× 10−9 8,7× 10−9 1,4× 10−7 3,4× 10−7 0.9162
4.1.2. Datos de toxicologia
Este conjunto de datos toxicologicos fueron originalmente proporcionados y analiza-
dos en [25], estos datos se muestran en la Tabla 4.11; que hacen referencia al conteos de
muertes embrionarias en ratones en un grupo de control y dos grupos de tratamiento.
Tabla 4.11: Distribuciones de conteos de muertes embrionarias en ratones en un grupo
de control y dos grupos de tratamiento de Barnwal y Paul (1988).
Frecuencias observadas para
Numero Grupo control Nivel de dosis 1 Nivel de dosis 2
de muertes (C) (D1) (D2)
0 7 5 4
1 2 4 2
2 1 0 3
3 0 1 0
4 0 0 1
50
Al igual que en el ejemplo anterior se desea comparar las medias del grupo control
(C) y dos grupos de tratamiento (D1 y D2) donde las hipotesis (usadas para un ANOVA)
a contrastar son:
H0 : El promedio de muertes embrionarias en los diferentes grupos son iguales.
H1 : Al menos un promedio muestral no es igual a las otras.
Las estadısticas descriptivas de los tratamientos se observa en la Tabla 4.12 tales
como el tamano de la muestra (ni), la desviacion estandar (Sx) de los tratamientos;
donde se observa que las medias y las varianzas de los grupos difieren.
Tabla 4.12: Estadısticas descriptivas de los datos toxicologicos
Grupo ni Media Varianza Sx Mediana Mınimo Maximo
1 C 10 0.40 0.49 0.70 0.00 0.00 2.00
2 D1 10 0.70 0.90 0.95 0.50 0.00 3.00
3 D2 10 1.20 1.73 1.32 1.00 0.00 4.00
Realizando un diagrama de cajas para cada grupo como se muestra en la Figura
4.6 se observa que el grupo control es menos disperso que los dos grupos a un nivel de
dosis 1 y 2. Tambien se observa un dato outlier en el grupo a un nivel de dosis 1.
Figura 4.6: Diagrama de cajas de los datos toxicologicos
51
El analisis de varianza respectivo es mostrado en la Tabla 4.13. Notese que el valor
p es mayor que 0,05, por lo tanto hay evidencia para indicar que no existe diferencia en
las medias de los tratamientos.
Tabla 4.13: Analisis de varianza de los datos toxicologicos
GL SC MC valor F valor p
Tmt 2 3.27 1.63 1.57 0.2266
Residuals 27 28.10 1.04
En ANOVA se tiene que verificar las hipotesis del modelo. La prueba Levene en la
Tabla 4.14 comprueba si hay igualdad en las varianzas. Como se observa en la Tabla
4.14 el valor p es mayor que el nivel de significacion de 0,05 y por tal razon los datos
sugieren que las varianzas son iguales. Ası, la suposicion de igualdad de varianzas se
cumple.
Tabla 4.14: Prueba Levene para los datos biologicos
GL valor F valor p
grupo 2 1.74 0.1954
27
Ademas se tiene que cumplir la hipotesis de normalidad de los residuos. En la Figura
4.7 se ve que no se satisface la normalidad ya que los datos no estan muy proximos de
la pendiente mostrada en la Figura 4.7.
Ahora, considerando una transformacion de los datos por medio de √y de Anscombe
(1950) en la Figura 4.8 se observa que la variabilidad entre los tratamientos no disminuye
pero ya no se tiene el dato outlier.
52
Figura 4.7: Grafica de probabilidad normal para los residuos de los datos toxicologicos
Figura 4.8: Diagrama de cajas de los datos transformados con √y
53
El analisis de varianza respectivo para los datos transformados es mostrado en
la Tabla 4.15, donde el valor p es mayor que 0,05 por tal motivo se dice que no hay
diferencia entre las medias de los tratamientos.
Tabla 4.15: Analisis de varianza de los datos transformados con √y
GL SC MC valor F valor p
Tmt 2 1.17 0.58 1.34 0.2788
Residuals 27 11.75 0.44
Una de las hipotesis que debe cumplir el modelo es la homogeneidad de varianzas. La
prueba de Levene que se muestra en la Tabla 4.16 indica si hay o no homogeneidad. En la
Tabla 4.16 se observa que el valor p es mayor que 0,05 por lo tanto existe homogeneidad
de varianzas.
Tabla 4.16: Prueba de Levene de los datos transformados con √y
GL valor F valor p
grupo 2 1.24 0.3044
27
Tambien, debe cumplir con la hipotesis de normalidad de los residuos que se verifica
visualmente usando la grafica de probabilidad normal para los residuos que se presenta
en la Figura 4.9. Como se observa en la Figura 4.9 la normalidad no se cumple.
54
Figura 4.9: Grafica de probabilidad normal para los residuos de los datos transformados.
En resumen, la transformacion de los datos tampoco soluciono la no normalidad.
Por consiguiente, se vuelve a usar la metodologıa expuesta en este trabajo que
considera la no normalidad de los datos.
Para el analisis de estos datos toxicologicos se supone que parametro de dispersion
es constante entre el grupo control y los dos grupos a un nivel de dosis 1 y 2.
En la Tabla 4.17 se muestran los resultados del analisis para los datos utilizando la
estadıstica X2c(m) con el supuesto de c comun.
Tabla 4.17: Las estimaciones de maxima verosimilitud de los parametros m y c y la
estadıstica X2c(m) para los datos toxicologicos de la Tabla 4.11
Combinacion de tratamientos
CD1D2 CD1 CD2 D1D2
m 0.7667 0.5500 0.8000 0.9500
c 0.5439 0.3335 0.7223 0.3765
X2c(m) 3.0070 0.6914 2.5351 0.9691
GL 2 1 1 1
valor p 0.2224 0.7077 0.2815 0.6160
55
Las estimaciones de los parametros m y c por el metodo de maxima verosimilitud
son 0,7667 y 0,5439, respectivamente. Con estas estimaciones de m y c el valor de la
estadıstica Xc(m)2 con 2 grados de libertad para probar la homogeneidad de las medias
con el supuesto de parametro de dispersion constante es 3,007 (valor de p = 0,2224).
Esto muestra una fuerte evidencia de que las medias no difieren entre los grupos de
tratamiento y el grupo de control.
En la Tabla 4.18 se muestran los resultados del analisis para los datos utilizando la
estadıstica X2rv.
Tabla 4.18: La estadıstica X2rv para los datos toxicologicos de la Tabla 4.11
Combinacion de tratamientos
CD1D2 CD1 CD2 D1D2
X2rv 1.6295 0.3585 1.5079 0.5086
GL 2 1 1 1
valor p 0.4427 0.5493 0.2195 0.4757
A partir de los resultados mostrados en esta tabla se concluye que el promedio de
muertes embrionarias de los ratones no difieren entre los tratamientos y el grupo control.
Por ultimo, se hace uso de la prueba estadıstica C(α) basada en el metodo de los
momentos X2c(mm) para analizar estos datos toxicologicos cuyos resultados se ven en la
Tabla 4.19.
Tabla 4.19: La estadıstica X2c(mm) para los datos toxicologicos de la Tabla 4.11
Combinacion de tratamientos
CD1D2 CD1 CD2 D1D2
X2c(mm) 3.1243 0.6950 2.7586 1.0020
GL 2 1 1 1
valor p 0.2097 0.4045 0.0967 0.3168
De los resultados mostrados en esta tabla se afirma que el promedio de muertes de
los embriones de ratones entre los tratamientos y el grupo control no difieren.
56
Capıtulo 5
Conclusiones y Propuestas futuras
5.1. Conclusiones
Se observa que el nuevo procedimiento de ANOVA considera la naturaleza de la
variable, esto es, una variable aleatoria discreta, y esta variable es modelada por
la distribucion binomial negativa.
Utilizando el nuevo procedimiento adoptado para la verificacion de igualdad de
medias, no se necesita la normalidad de los datos ni la prueba F, en el sentido de
que las pruebas estadısticas C(α) se aproximan a la distribucion χ2.
En el procedimiento de prueba de hipotesis basadas en las pruebas estadısticas
C(α) como X2c(m) y X2
c(mm), ademas de X2rv que consideran la extra-dispersion de
los datos, se obtuvo resultados satisfactorios en el sentido de probar la igualdad o
diferencia entre medias de diferentes tratamientos.
Las pruebas estadısticas C(α) consideradas en este trabajo poseen formas simples
y la prueba X2c(mm) es facil de calcular.
57
5.2. Propuestas futuras
Es posible extender el trabajo considerando diferentes parametros de dispersion
en cada tratamiento.
Se puede considerar un enfoque semi-parametrico para modelar la extra-dispersion.
Obtener los intervalos de confianza para la diferencia entre tratamientos similar a
las pruebas de Tukey y Dunnett.
Considerar la distribucion COM-Poisson como modelo para el fenomeno de extra-
dispersion.
58
Bibliografıa
[1] ALEXANDER, N. (2012). Analysis of parasite and other skewed counts. Tropical
medicine and international health, 17(6), 684-693.
[2] ADLER, I. D. AND KLIESCH, U. (1990). Comparison of single and multiple
treatment regimens in the mouse bone marrow micronucleus assay for hydroquinone
and cyclophosphamide. Mutation Research 234, 115–123. 9
[3] ANSCOMBE, F. J. (1948). The transformation of Poisson,binomial and negative-
binomial data. Biometrika, 35(3/4), 246-254. 41
[4] ANSCOMBE, F. J. (1950). Sampling theory of the negative binomial and logarithmic
series distributions, Biometrika, 37, 358–382. 9, 22, 26, 30
[5] BAILER, A. J. AND ORIS, J. T. (1993).Modeling reproductive toxicity in Cerio-
daphnia tests. Environmental Toxicology and Chemistry 12, 787–791. 9
[6] BARNWAL, R. K. AND PAUL, S. R. (1988). Analysis of one-way layout of count
data with negative binomial variation. Biometrika 75, 215-222. 9, 10, 31
[7] BEALL, G. (1939). Methods of estimating the population of insects in a field.
Biometrika 30, 422–39. 9
[8] BLISS, C. I. AND FISHER, R. A. (1953). Fitting the negative binomial distribution
to biological data. Biometrics 9, 176-200. 9, 30, 42
[9] BLISS, C. I. AND OWEN, A. R. G. (1958). Negative binomial distribution with a
common k. Biometrika 45, 37-58. 9, 30, 41
[10] BRESLOW, N. (1984). Extra-Poisson variation in log-linear models. Applied
Statistics 33, 38-44. 9
59
[11] BURDEN, R. L., AND FAIRES, J. D. (2002). Analisis numerico. Thomson Learning.
11
[12] COLLINGS, B. J. AND MARGOLIN, B. H. (1985). Testing goodness of fit for the
Poisson assumption when observations are not identically distributed. Journal of
the American Statistical Association 74, 411-418. 10
[13] ENGEL, J. (1984). Models for response data showing extra-Poisson variation.
Statistica Neerlandica 38, 159–167. 9
[14] FISHER, R. A. (1941). The negative binomial distribution. Annals of Eugenics,
11(1), 182-187. 28
[15] GAIL, M. H., ET AL. (1980). An analysis of comparative carcinogenesis experiments
based on multiple times to tumor. Biometrics 36, 255–266. 9
[16] GALLOWAY, T. (1839). A Treatise on Probability, Edinburgh: Adam and Charles
Black. 24
[17] GREENWOOD, ET AL.(1920). An inquiry into the nature of frequency distri-
butions representative of multiple happenings with particular reference to the
occurrence of multiple attacks of disease or of repeated accidents, Journal of the
Royal Statistical Society, Series A, 83, 255–279. 24, 25
[18] JEFFREYS, h. (1941). Some applications of the method of minimum chi-squared,
Annals of Eugenics, London, 11, 108–114. 23
[19] JOHNSON, N. L., ET AL. (2005). Univariate discrete distributions (Vol. 444).
John Wiley AND Sons. 11, 21
[20] LAWLESS, J. F. (1987). Negative binomial and mixed Poisson regression. Canadian
Journal of Statistics 15, 209-225. 9, 10, 27
[21] MANTON, K. G., ET AL. (1981). A variance components approach to categorical
data models with heterogeneous cell populations: Analysis of spatial gradients in
lung cancer mortality rates in North Carolina counties. Biometrics 37, 259-269. 9
60
[22] MARGOLIN, B. H., ET AL.(1989). The Ames salmonella/microsome mutageni-
city assay: Issues of inference and validation. Journal of the American Statistical
Association 84, 651-661. 9
[23] MARGOLIN, B. H., ET AL. (1981). Statistical analysis of the Ames salmone-
lla/microsome test. Proceedings of the National Academy of Sciences of the United
States of America 76, 3779-3783. 9
[24] MCCAUGHRAN,D.A. AND ARNOLD,D.W. (1976). Statistical models for num-
bers of implantation sites and embryonic deaths in mice. Toxicology and Applied
Pharmacology 38, 325–33. 9
[25] MEYER, A. (1879). Vorlesungenuber Wahrscheinlichkeitsrechnung (translated by
E. Czuber), Leipzig: Teubner. 24, 41, 50
[26] MORALES, M. A., AND LOPEZ, L. A. (2009). Study of Homogeneity of the
Dispersion in one way Classification Models with Proportions and Counts Data.
Revista Colombiana de Estadıstica, 32(1), 59-78.
[27] MORAN, P. A. (1970). On asymptotically optimal tests of composite hypotheses.
11
[28] PASCAL, B. (1679). Varia opera Mathematica D. Petri de Fermat, Tolossae. 24
[29] PAUL, S. R. AND BANERJEE, T. (1998). Analysis of two-way layout of count
data involving multiple counts in each cell. Journal of the American Statistical
Association 93, 1419– 1429. 9
[30] PAUL, S. R. AND PLACKETT, R. L. (1978). Inference sensitivity for Poisson
mixtures. Biometrika 65, 591–602. 9
[31] PIEGORSCH, W. W. (1990). Maximum likelihood estimation for the negative
binomial dispersion parameter. Biometrics 46, 863–867. 9
[32] PIEGORSCH,W.W. AND BAILER, A. J. (1997). Statistics for Environmental
Biology and Toxicology. Chapman and Hall, London, UK. 9
[33] RINCON, L. (2007). Curso intermedio de probabilidad. UNAM, Facultad de
Ciencias. 11
61
[34] ROSS, G. J. S., AND PREECE, D. A. (1985). The negative binomial distribution.
The Statistician, 323-335.
[35] ROSS, S. (2009). Probabilidade: um curso moderno com aplicacoes. Bookman
Editora. 11
[36] SAHA, K. K. AND PAUL, S. R. (2005). Bias corrected maximum likelihood
estimator of the negative binomial dispersion parameter. Biometrics 61, 179–185.
10
[37] SAHA, K. K. (2008). Analysis of one-way layout of count data in the presence of
over or under dispersion. J. Statist. Plann. Inference 138, 2067–2081.
[38] SAHA, K. K. AND BILISOLY, R. (2009). Testing the homogeneity of the means of
several groups of count data in the presence of unequal dispersions. Computational
Statistics and Data Analysis 53, 3305–3313.
[39] SAHA, K. K. (2014). Inference concerning a common dispersion of several treatment
groups in the analysis of over/underdispersed count data. Biometrical Journal, 56(3),
441-460.
[40] SIMPSON, D. G. AND MARGOLIN, B. H. (1986). Recursive nonparametric testing
for dose-response relationship subject to down turns at high doses. Biometrika 73,
586–596. 9
[41] STUDENT (1907). On the error of counting with a haemocytometer, Biometrika,
5, 351–360. 24
[42] TARONE, R. E. (1985). On heterogeneity tests based on efficient scores. Biometrika,
72(1), 91-95. 11, 31
[43] WHITTAKER, L. (1914). On the Poisson law of small numbers, Biometrika, 10,
36–71.
24
62
Anexo 1
Algoritmo de Newton-Raphson (Codigo fuente en
Lenguaje R)
# clean other objects
rm(list=ls())
library(xtable)
yc=c(0, 1, 2 ,3, 4 ,5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19,
20, 21, 22,23, 24,25)
fy=c(4, 5, 11, 10, 9, 11, 3, 5, 3, 2, 2, 5, 0, 2, 2, 1, 1, 0, 0, 1, 0, 1, 1, 1,
0, 2)
y = rep(yc,fy)
ybar = mean(y)
#===============================#
# funcion de log-verosimilutd
#---------------------#
log_lik = function(par)
mu=par[1]
kc=par[2]
s1 = 0
nlik = length(y)
ybar = mean(y)
for( i in 1:nlik )
if(y[i]>0)
j = seq(0,(y[i]-1))
s1 = s1 + sum( log( j + kc ) )
63
lf1 = ybar*log(mu) + kc*log(kc) - (ybar+kc)*log(mu+kc) + (s1/nlik)
lf =-(lf1)
return(lf)
#===================================#
log_lik(c(ybar,1))
#----
# AJUSTE
#fit = nlm(llik,c(1,1,1),hessian=F,y1 = y_m1[,2],y2 = y_m2[,2],y=y_mu[,2])
optim( c(1,1), log_lik, method = "L-BFGS-B", control = list(fnscale = 1),
lower=c(0,0),upper=c(+Inf,+Inf) )
#[1] 6.560975 1.777477
#===================================#
log_perf = function(par)
k = par[1]
s1 = 0
nlik = length(y)
ybar = mean(y)
for( i in 1:nlik )
if(y[i]>0)
j = seq(0,(y[i]-1))
s1 = s1 + sum( ( j + k )ˆ(-1) )
likp = nlik*log(k) - nlik*log(ybar + k) + s1
return(likp)
#-------------------
# grafico
kx=seq(0.8, 2.5, 0.0001)
aux=numeric()
for(ix in 1:length(kx))
aux[ix]=log_perf(kx[ix])
64
#-----------------
plot( kx, aux, type="l", col=2, lwd=2,las=1,cex.axis=1.3, cex.lab=1.3,
xlab=expression(k), ylab=expression(g(k))) # ylim=c(-4, 100
abline(h=0,lwd=2,lty=2)
points( 1.777477, 0, col=1, lwd=3, pch=19 )
#====================================#
# derivada log-like perfilada
dlog_perf = function(k)
nlik = length(y)
ybar = mean(y)
s1 = 0
nlik = length(y)
ybar = mean(y)
for( i in 1:nlik )
if(y[i]>0)
j = seq(0,(y[i]-1))
s1 = s1 + sum( ( j + k )ˆ(-2) )
dlik = nlik*( 1/k - 1/(ybar + k) ) - s1
return(dlik)
#===========================#
x0 = 1.3
tol = 0.000001
tabla = matrix(0,10,4)
iter = 0
error=100
while(error>tol)
iter = 1 + iter
print(iter)
xk = x0 - (log_perf(x0)/dlog_perf(x0))
graiz = log_perf(xk)
65
error = abs(xk-x0)
tabla[iter,] = c(iter, xk, graiz, error)
x0=xk
#=========================#
# tabla
xtable(tabla, digits=10)
#-------------------------#
66
Anexo 2
Prueba C(α) basada en la funcion de verosimilitud
(Codigo fuente en Lenguaje R)
dat2=read.csv("bio_data.csv", header = TRUE, sep = ",", quote = "\"",
dec = ".", fill = TRUE )
dat2
#Combinaciones de tratamientos--CT1T2T3
#----------------------------------------------
y1=rep(dat2$x2,dat2$fc)
y2=rep(dat2$x2,dat2$ft1)
y3=rep(dat2$x2,dat2$ft2)
y4=rep(dat2$x2,dat2$ft3)
y=c(y1,y2,y3,y4)
#Estimando los parametros
log_lik_ho = function(par)
m = par[1]
c = par[2]
#y = c(y1,y2,y3,y4)
s1<-0
for(i in 1:length(y))
if(y[i]>1)
#j1<-rep(0,y[i])
67
j1<-seq(0,(y[i]-1))
s1<-s1+sum(log(1+c*j1))
lf1 = log(m)*sum(y1)-log(1+c*m)*sum(y1+1/c) + s1
lf2 = log(m)*sum(y2)-log(1+c*m)*sum(y2+1/c)
lf3 = log(m)*sum(y3)-log(1+c*m)*sum(y3+1/c)
lf4 = log(m)*sum(y4)-log(1+c*m)*sum(y4+1/c)
lf=-(lf1+lf2+lf3+lf4)
return(lf)
optim( c(1,0.9),log_lik_ho,method = "L-BFGS-B",
control = list(fnscale = 1), lower=c(0,0),upper=c(+Inf,+Inf) )
#Estadistica C-alfa--CT1T2T3
n1=length(y1)
n2=length(y2)
n3=length(y3)
n4=length(y4)
ni=c(n1,n2,n3,n4)
xbari=c(mean(y1),mean(y2),mean(y3),mean(y4))
xbar=mean(y)
x2alfa=sum((ni*(xbari - xbar)ˆ2)/(xbar*(1 + 0.9239145*xbar)))
x2alfa
68
Anexo 3
Prueba de razon de verosimilitud (Codigo fuente en
Lenguaje R)
dat2=read.csv("bio_data.csv", header = TRUE, sep = ",", quote = "\"",
dec = ".", fill = TRUE )
dat2
#Combinaciones de tratamientos--CT1T2T3
#----------------------------------------------
y1=rep(dat2$x2,dat2$fc)
y2=rep(dat2$x2,dat2$ft1)
y3=rep(dat2$x2,dat2$ft2)
y4=rep(dat2$x2,dat2$ft3)
y=c(y1,y2,y3,y4)
#Estimando los parametros bajo H1
log_lik_h1 = function(par)
m1 = par[1]
m2 = par[2]
m3 = par[3]
m4 = par[4]
c = par[5]
s1<-0
for(i in 1:length(y))
if(y[i]>1)
69
#j1<-rep(0,y[i])
j1<-seq(0,(y[i]-1))
s1<-s1+sum(log(1+c*j1))
lf1 = log(m1)*sum(y1)-log(1+c*m1)*sum(y1+1/c) + s1
lf2 = log(m2)*sum(y2)-log(1+c*m2)*sum(y2+1/c)
lf3 = log(m3)*sum(y3)-log(1+c*m3)*sum(y3+1/c)
lf4 = log(m4)*sum(y4)-log(1+c*m4)*sum(y4+1/c)
lf=-(lf1+lf2+lf3+lf4)
return(lf)
optim( c(1,1,1,1,1),log_lik_h1,method = "L-BFGS-B",
control = list(fnscale = 1), lower=c(0,0,0,0,0),
upper=c(+Inf,+Inf,+Inf,+Inf,+Inf) )
#Estimando los parametros bajo H0
log_lik_ho = function(par)
m = par[1]
c = par[2]
#y = c(y1,y2,y3,y4)
s1<-0
for(i in 1:length(y))
if(y[i]>1)
#j1<-rep(0,y[i])
j1<-seq(0,(y[i]-1))
s1<-s1+sum(log(1+c*j1))
lf1 = log(m)*sum(y1)-log(1+c*m)*sum(y1+1/c) + s1
lf2 = log(m)*sum(y2)-log(1+c*m)*sum(y2+1/c)
lf3 = log(m)*sum(y3)-log(1+c*m)*sum(y3+1/c)
70
lf4 = log(m)*sum(y4)-log(1+c*m)*sum(y4+1/c)
lf=-(lf1+lf2+lf3+lf4)
return(lf)
optim( c(1,0.9),log_lik_ho,method = "L-BFGS-B",
control = list(fnscale = 1), lower=c(0,0),upper=c(+Inf,+Inf) )
#Estadistica de razon de verosimilitud
#-------------------------------------------------------------
#H1
log_lik_h1 = function(m1,m2,m3,m4,c)
s1<-0
for(i in 1:length(y))
if(y[i]>1)
j1<-seq(0,(y[i]-1))
s1<-s1+sum(log(1+c*j1))
lf1 = log(m1)*sum(y1)-log(1+c*m1)*sum(y1+1/c) + s1
lf2 = log(m2)*sum(y2)-log(1+c*m2)*sum(y2+1/c)
lf3 = log(m3)*sum(y3)-log(1+c*m3)*sum(y3+1/c)
lf4 = log(m4)*sum(y4)-log(1+c*m4)*sum(y4+1/c)
lf=lf1+lf2+lf3+lf4
return(lf)
#H0
log_lik_ho = function(m,c)
s1<-0
for(i in 1:length(y))
if(y[i]>1)
j1<-seq(0,(y[i]-1))
71
s1<-s1+sum(log(1+c*j1))
lf1 = log(m)*sum(y1)-log(1+c*m)*sum(y1+1/c) + s1
lf2 = log(m)*sum(y2)-log(1+c*m)*sum(y2+1/c)
lf3 = log(m)*sum(y3)-log(1+c*m)*sum(y3+1/c)
lf4 = log(m)*sum(y4)-log(1+c*m)*sum(y4+1/c)
lf=lf1+lf2+lf3+lf4
return(lf)
############
r=log_lik_h1(4.0333327,3.1666674,1.4833329,1.5083339,0.6796025)
- log_lik_ho(2.5479169,0.9239145)
r
72
Anexo 4
Prueba C(α) basada en el metodo de los momentos
(Codigo fuente en Lenguaje R)
#metodo de momentos para datos biologicos
##########################################################3333
dat2=read.csv("bio_data.csv", header = TRUE, sep = ",", quote = "\"",
dec = ".", fill = TRUE )
dat2
#Combinaciones de tratamientos--CT1T2T3
#----------------------------------------------
y1=rep(dat2$x2,dat2$fc)
y2=rep(dat2$x2,dat2$ft1)
y3=rep(dat2$x2,dat2$ft2)
y4=rep(dat2$x2,dat2$ft3)
y=c(y1,y2,y3,y4)
#Estimando los parametros
n1=length(y1)
n2=length(y2)
n3=length(y3)
n4=length(y4)
73
ni=c(n1,n2,n3,n4)
xbari=c(mean(y1),mean(y2),mean(y3),mean(y4))
xbar=mean(y)
xvarianza=var(y)
ntotal=n1+n2+n3+n4
cmm=(((ntotal-1)/ntotal)*xvarianza - xbar)/xbarˆ2
#Estadistica C-alfa--CT1T2T3
x2mm=sum((ni*(xbari - xbar)ˆ2)/(xbar*(1 + cmm*xbar)))
x2mm
74