36
I-1 Curso Análisis Estadístico de Datos Climáticos TEMA: Pruebas de Hipótesis Mario Bidegain (FC) – Alvaro Diaz (FI) Universidad de la República Montevideo, Uruguay 2011

Análisis Estadístico de Datos Climáticosmeteo.fisica.edu.uy/.../Pruebas_de_Hipotesis_AEDC_2011.pdf · prueba de uno y dos extremos o contraste de una y dos colas. Con frecuencia

  • Upload
    hanhi

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

I-1

Curso

Análisis Estadístico de Datos Climáticos

TEMA: Pruebas de Hipótesis

Mario Bidegain (FC) – Alvaro Diaz (FI)

Universidad de la República

Montevideo, Uruguay

2011

I-2

PRUEBAS DE HIPÓTESIS

Objetivo: Tratar de determinar cuándo es razonable concluir, a partir del análisis de una muestra, que la población entera posee determinada propiedad y cuando esto no es razonable.

I-3

TIPOS DE PRUEBAS• Establecen un valor ó un intervalo de valores para los

parámetros de una variable– Asociada a la construcción de Intervalos de confianza

– Ejemplo: La media de una variable es 10

• Establecen la igualdad de las distribuciones de dos ó mas variables– Requiere un diseño experimental

– Ejemplo: La media de dos poblaciones normales son iguales con igual variancia

• Determinan la forma de la distribución de la variable – Pruebas especificas para establecer el tipo de distribución

de una variable

– Ejemplo: La distribución de una variable es normal

I-4

PRUEBAS PARAMETRICA Y NO PARAMETRICAS

Se denominan pruebas paramétricas aquellas que presuponen una

dada distribución de probabilidad para los datos.

Se denominan pruebas no paramétricas aquellas que no presuponen

una distribución de probabilidad para los datos, por ello se conocen

también como de distribución libre.

NOTA:

Cuando trabajamos con muestras pequeñas (n < 20) en las que se desconoce si es válido

suponer la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para

corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal.

En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto

para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.

I-5

TIPOS DE ERROR

Rechazar una hipótesis no significa que ésta sea falsa, como tampoco el no rechazarla significa que sea verdadera. La decisión tomada no esta libre de error.

Error I: Rechazar una hipótesis que es verdadera. (Rechazamos una hipótesis cuando debiera ser aceptada).

Error II: No rechazar una hipótesis que es falsa (Aceptamos una hipótesis que debiera ser rechazada).

I-6

ERRORES TIPO I Y II

Para que las reglas de decisión (o contraste de hipótesis) sean buenas, deben diseñarse de modo que minimicen los errores de la decisión; y no es una cuestión sencilla, porque para cualquier tamaño de la muestra, un intento de disminuir un tipo de error suele ir acompañado de un crecimiento del otro tipo. En la práctica, un tipo de error puede ser más grave que el otro, y debe alcanzarse un compromiso que disminuya el error más grave.

La única forma de disminuir ambos a la vez es aumentar el tamaño de la muestra que no siempre es posible.

I-7

NIVEL DE SIGNIFICACION

αααα es la Probabilidad de cometer un Error tipo I. Se llama Nivel de significación

ββββ es la probabilidad de cometer un Error tipo II

Es deseable que estas dos probabilidades de error sean pequeñas.

I-8

ERRORES TIPO I Y II

Y NIVEL DE SIGNIFICACION

I-9

NIVEL DE SIGNIFICACION Y NIVEL DE CONFIANZA

En la práctica, es frecuente un nivel de significación de 0,05 ó

95% de NIVEL DE CONFIANZA

Si por ejemplo se escoge el nivel de significación 0,05 (ó 5%), entonces

hay unas cinco (05) oportunidades entre 100 de rechazar la hipótesis

cuando debiera haberse aceptado; Es decir, tenemos un 95% de

confianza de que hemos adoptado la decisión correcta. En tal caso

decimos que la hipótesis ha sido rechazada al nivel de significación

0,05, lo cual quiere decir que tal hipótesis tiene una probabilidad 0,05

de ser falsa.

I-10

NIVELES DE SIGNIFICACION

Prueba de Uno y Dos Extremos.Cuando estudiamos ambos valores estadísticos es decir, ambos lados de la media lo llamamos

prueba de uno y dos extremos o contraste de una y dos colas.

Con frecuencia no obstante, estaremos interesados tan sólo en valores extremos a un lado de

la media (o sea, en uno de los extremos de la distribución), tal como sucede cuando se

contrasta la hipótesis de que un proceso es mejor que otro, tales contrastes se llaman

unilaterales, o de un extremo. En tales situaciones, la región crítica es una región situada a un

lado de la distribución, con área igual al nivel de significación.

I-11

PRUEBA DE HIPOTESIS

La prueba de hipótesis es un procedimiento de toma de decisiones, relacionada principalmente con la elección de una acción entre dos conjuntos posibles de valores del parámetro, es decir, en dos hipótesis estadísticas, a las cuales llamaremos:

Hipótesis nula H0Hipótesis alternativa H1

I-12

HIPOTESIS NULA y ALTERNATIVA

• Hipótesis nula corresponde a la ausencia de una modificación en la variable investigada, y por lo tanto se especifica de una forma exacta:

H0 : θθθθ = θθθθ0

• Hipótesis alternativa se especifica de manera más general :

H1: θθθθ ≠≠≠≠ θθθθ0H1: θθθθ > θθθθ0 H1: θθθθ < θθθθ0.

I-13

CUADRO DE DECISIONES Y

TIPOS DE ERRORES

Estado de la Naturaleza

H0 verdadera H0 falsa

Acepto H0

Dec

isió

n

Rechazo H0

AciertoAcierto

AciertoAcierto

Error Tipo IIError Tipo II

Error Tipo IError Tipo I

αα

Nivel de significaciNivel de significacióónn

1 1 -- ααNivel de confianzaNivel de confianza

ββ

1 1 -- ββ

Potencia de pruebaPotencia de prueba

I-14

Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) de un parámetro poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional. Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor hipotético del parámetro que se compara con el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapa 2.- Especificar el Nivel de Significación que se va a utilizar. El nivel de significación del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoriamente con una probabilidad de 0.05 o menos.

Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral (el estimador no sesgado del parámetro que se prueba) o una versión transformada de esa estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba.

Etapas Básicas en Pruebas de Hipótesis.

I-15

Etapas Básicas en Pruebas de Hipótesis (Cont.)

Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado la hipótesis nula, el nivel de significación y la estadística de prueba que se van a utilizar, se procede a establecer el o los valores críticos de la estadística de prueba. Puede haber uno o más de esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.

Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor hipotético de la media poblacional, se toma una muestra aleatoria y sedetermina el valor de la media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la media muestral en un valor de z.

Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor (o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula. Si se rechaza ésta, se acepta la alternativa.

La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula. Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. El valor crítico depende del tamaño de la región de rechazo.

I-16

POTENCIA DE UNA PRUEBA

El complemento (1-β) de la probabilidad de cometer un Error del tipo II se conoce como POTENCIA de una prueba estadística.

La potencia de una prueba es una probabilidad de rechazar la hipótesis nula cuando de hecho esta es falsa y debería ser rechazada.

NOTA: Una manera en que podemos controlar la probabilidad de cometer un error del tipo II en un estudio, consiste en aumentar el tamaño de la muestra. Tamaños más grandes de muestra, nos permitirán detectar diferencias incluso muy pequeñas entre las estadísticas de muestra y los parámetros de la población. Cuando se disminuye α , β aumentará de modo que una reducción en el riesgo de cometer un error de tipo I tendrá como resultado un aumento en el riesgo de cometer un error tipo II.β representa la probabilidad de que la hipótesis nula no sea rechazada cuando de hecho es falsa.

La potencia de prueba 1-β representa la sensibilidad de la prueba estadística para detectar cambios que se presentan al medir la probabilidad de rechazar la hipótesis nula cuando de hecho es falsa. La potencia de prueba estadística depende de qué tan diferente en realidad es la media verdadera de la población del valor supuesto.Una prueba de un extremo es más poderosa que una de dos extremos, y se debería utilizar siempre que sea adecuado especificar la dirección de la hipótesis alternativa.

I-17

INTERVALOS DE CONFIANZAEn el contexto de estimar un parámetro poblacional, un intervalo de confianza es un rango de

valores (calculado en una muestra) en el cual se encuentra el verdadero valor del parámetro,

con una probabilidad determinada.

La probabilidad de que el verdadero valor del parámetro se encuentre en el intervalo construido

se denomina nivel de confianza, y se denota 1- α. La probabilidad de equivocarnos se llama

nivel de significación y se simboliza α.. Generalmente se construyen intervalos con confianza

1- α.= 95% (o significación α. = 5%).

Ejemplo:Construir un intervalo de confianza, para la Distribución Normal estándar que cumple:

P(-1.96 < z < 1.96) = 0.95

Luego, si una variable X tiene distribución N( , ), entonces el 95% de las veces se cumple:

Despejando en la ecuación se tiene:

El resultado es un intervalo que incluye al el 95% de las veces. Es decir, es un intervalo de confianza al 95% para la media cuando la variable X es normal y es conocido

I-18

I-19

INTERVALOS DE CONFIANZA (Cont.)Intervalo de confianza para un promedio

Generalmente, cuando se quiere construir un intervalo de confianza para la media poblacional , la varianza

poblacional es desconocida.

Si en el intervalo se reemplaza la desviación estándar poblacional por la desviación estándar muestral s, el

intervalo de confianza toma la forma:

La cual es una buena aproximación para el intervalo de confianza de 95% para con desconocido. Esta

aproximación es mejor en la medida que el tamaño muestral sea grande.

NOTA: Cuando el tamaño muestral es pequeño, el intervalo de confianza requiere utilizar la distribución t de

Student (con n-1 grados de libertad, siendo n el tamaño de la muestra), en vez de la distribución normal (por

ejemplo, para un intervalo de 95% de confianza, los límites del intervalo ya no serán construidos usando el

valor 1,96).

Ejemplo: Supongamos se plantea la hipótesis de que el promedio anual de horas de sol de 30 años es igual a

la media climática de 3250 horas. Al tomar una muestra se obtuvo:

= 2930

s= 450

n= 30

Al construir un intervalo de 95% de confianza para la media poblacional, las horas de sol varían entre 2769 y

3091 horas, con una confianza de 95%.. Como el intervalo no incluye el valor medio =3250 horas planteado

en la hipótesis, entonces esta es rechazada con confianza 95% (o un valor p menor a 0,5).

I-20Comparación de dos muestras

Prueba t de Student

La prueba t de Student como todos los estadísticos de contraste se basa en el cálculo de estadísticos

descriptivos previos: el número de observaciones, la media y la desviación típica en cada grupo. A través

de estos estadísticos previos se calcula el estadístico de contraste experimental. Con la ayuda de tablas se

obtiene a partir de dicho estadístico el p-valor. Si p<0,05 se concluye que hay diferencia entre los dos

muestras.

Las hipótesis o suposiciones para poder aplicar la t de Student son que en cada grupo la variable estudiada siga una distribución Normal y que la dispersión en ambos grupos sea homogénea (hipótesis de homocedasticidad = igualdad de varianzas).

Si no se verifica que se cumplen estas suposiciones los resultados de la prueba t de Student no tienen

ninguna validez. No es obligatorio que los tamaños de los grupos sean iguales, ni tampoco es necesario

conocer la dispersión de los dos grupos.

En el caso de que no se cumpla la suposición de Normalidad se suele intentar alguna transformación de los

datos que "normalice" los datos, siendo la transformación logaritmo neperiano la más usual. Ocurre en la

práctica que la transformación que "normaliza" los datos también consigue igualdad de varianzas.

I-21Prueba t de Student (comparación de dos muestras)

Podemos aplicar la prueba t de Student para comparar de dos medias muestrales procedentes de la misma

población, independientes y con igual desviación típica. De la diferencia de sus medias, que se espera sea

nula, se prueba su nivel de significación.

Si n1 y n2 y X1 y X2 son los números de elementos y medias muestrales se cumple que si escribimos las

desviaciones típicas en función de cada muestra y consideramos sus grados de libertad tenemos:

EjemploEn un periodo de medidas de precipitación de 11 años tenemos estimada una media de M2 = 480 mm y una

varianza 2 = 2500 mm A partir de ese periodo en los 7 años siguientes se han medido: 640, 670, 600, 470,

400, 480 y 500 mm. La pregunta es ¿Difieren significativamente estos últimos años del periodo anterior?

La media y la varianza de los últimos 7 años es M1 = 550 mm y 2 = 6057 mm Por lo tanto el estadístico t

de Student

t = 550 – 480 / SQRT( (11 * 2500 + 7 * 6057)/16) * (11+7/77)) = 70/33.33 = 2.10

La tabla da para t = 2.10 y 16 grados de libertad un valor próximo a 0.025 que nos dice que es significativo a

un nivel de casi el 2.5% a cada lado de la curva de distribución. Si se excluyen los valores de 640 y 670 mm

se tendría que el nuevo valor de t no es significativo y los datos pertenecen al mismo colectivo.

I-22

Tabla t de Student

I-23

PRUEBAS DE HIPOTESIS NO PARAMETRICAS

Se denominan pruebas no paramétricas aquellas que no presuponen una

distribución de probabilidad para los datos, por ello se conocen también como de

distribución libre (distribution free).

En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir

de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil

comprensión. Cuando trabajamos con muestras pequeñas (n < 20) en las que se

desconoce si es válido suponer la normalidad de los datos, conviene utilizar pruebas

no paramétricas, al menos para corroborar los resultados obtenidos a partir de la

utilización de la teoría basada en la normal.

En estos casos se emplea como parámetro de centralización la mediana, que es

aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50%

por encima.

I-24

Veremos cinco pruebas no paramétricas, que en buena medida son paralelas a las versiones paramétricas (t Student, F, etc.):

Caso de una seriePrueba del recorrido

Caso de dos grupos independientesPrueba de Helmert

Caso de dos grupos independientesPrueba de Mann-Whitney-----(paralela a la t de grupos independientes)

Caso de dos grupos relacionadosPrueba de Wilcoxon-----(paralela a la t de grupos relacionados)

Caso de "a" grupos independientesPrueba de Kruskal-Wallis-----(paralela a la F unifactorial entre-sujetos)

PRUEBAS NO PARAMETRICAS

I-25

HOMOGENEIDAD DE SERIESCausas habituales de la no homogeneidad de una serie:

• Mal estado o defectos de los instrumentos meteorológicos. Se produce en

forma progresiva y puede pasar desapercibido si las estaciones no son

inspeccionadas frecuentemente. En las estaciones automáticas puede ser

abrupto o con deriva.

• Cambio de observador meteorológico, que se puede notar en las estimaciones

en que intervienen elementos subjetivos (ej: nubosidad) o en las lecturas del

termómetro. Se ha constatado que algunos observadores tienen tendencia

sistemática a adoptar cifras pares o grados enteros. No se trata de errores

accidentales de lectura que no presentan carácter sistemático.

• Cambio del tipo de instrumental y/o de sus condiciones de instalación (ej:

altura de los anemómetros sobre el suelo, ya que a mayor altura hay más

intensidad de viento).

• Cambio de los métodos de depuración de datos.

• Modificaciones eventuales del ambiente: por transporte del instrumental de un

punto a otro o por cambios en un punto dado. Estos cambios pueden ser:

naturales (desarrollo de la vegetación) o artificiales (ligados a las actividades

humanas).

• Cambios climáticos o microclimáticos.

I-26

HOMOGENEIDAD DE SERIES

PRUEBA DE RECORRIDO DE UNA SERIE

Comprende las siguientes etapas:

• Estimación de la mediana de la serie.

• Cálculo de los desvíos de cada elemento

respecto a la mediana. Se asigna a cada

valor de la serie el signo correspondiente,

(+) si está el valor de la serie por encima de

la media y (-) si está por debajo.

• Cálculo del número de cambios de signo

que presenta la serie, según el Criterio de

Doorembos), si el número de cambios está

dentro del rango admitido, la serie analizada

es homogénea, en caso contrario no es

homogénea.

Criterio de Doorembos

45-57100

40-5290

35-4780

31-4170

26-3660

22-3050

16-2540

16-2338

15-2236

14-2134

13-2032

12-1930

11-1828

10-1726

9-1624

9-1422

8-1320

7-1218

6-1116

5-1014

5-812

IntervaloNº observ.

I-27

HOMOGENEIDAD DE SERIES

CRITERIO DE HELMERT

La aplicación del test de Helmert entre 2 series, comprende las siguientes etapas:

• Debe verificarse la no existencia de tendencias en ambas series.

• Se calculan las diferencias entre ambas series término a término, y se calcula la

diferencia promedio ( d ).

• Se calculan las diferencias entre di y d.

• Se comparan 2 observaciones consecutivas (la última se compara con la

primera).

• Se define como S cuando no existe cambio de signo entre un valor y el

siguiente, y con C cuando hay cambio de signo entre el valor y el siguiente.

• Sea y

• Según el Criterio de Helmert si la serie es homogénea se cumple

siendo N el número de observaciones.

S S i=∑ C Ci=∑

− − ≤ − ≤ +N S C N1 1

I-28

Prueba de Mann-Whitney (comparación de dos grupos independientes)

Este procedimiento es una buena alternativa cuando no se puede utilizar la prueba t de Student, en

razón de no cumplir con los requisitos que esta prueba exige.

La fórmula es la siguiente:

U1 y U2 = valores estadísticos de U Mann-Whitney.

n1 = tamaño de la muestra del grupo 1.

n2 = tamaño de la muestra del grupo 2.

R1 = sumatoria de los rangos del grupo 1.

R2 = sumatoria de los rangos del grupo 2.

Pasos:Determinar el tamaño de las muestras (n1 y n2). Si n1 y n2 son menores que 20, se consideran

muestras pequeñas, pero si son mayores que 20, se consideran muestras grandes.

Arreglar los datos en rangos del menor al mayor valor. En caso de que existan ligas o empates de

rangos iguales, se deberán detectar para un ajuste posterior.

Calcular los valores de U1 y U2, de modo que se elija el más pequeño para comparar con los

críticos de U Mann-Whitney de la tabla de probabilidades asociadas con valores pequeños como

los de U en la prueba de Mann-Whitney. En caso de muestras grandes, calcular el valor Z, pues

en estas condiciones se distribuye normalmente. Decidir si se acepta o rechaza la hipótesis.

Muestras pequeñas (n1 y n2 ≤≤≤≤ 20) U = Ri1

∑Muestras grandes zemp =U −

n1(N+1)

2

n1n

2(N+1)

12

I-29

Prueba de Mann-WhitneyEjemplo para muestras pequeñas:

Un experimentador utiliza dos métodos para enseñar a leer a un grupo de 10 niños de 6 años, quienes

ingresan por primera vez a la escuela. El experimentador quiere demostrar que el procedimiento ideado por él

es más efectivo que el tradicional; para ello, mide el desempeño en la lectura en función de la fluidez,

comprensión, análisis y síntesis.El plan experimental preliminar consiste en elegir al azar tanto una muestra

de 10 niños como el método por utilizar.

Elección de la prueba estadística.

El modelo experimental tiene dos muestras independientes. Las mediciones revelan que no se satisfacen los

requisitos para utilizar una media aritmética, en razón de que uno de los valores en cada muestra se aleja

demasiado de las demás; por lo tanto, no corresponde a una escala de intervalo, de manera que se decide usar

una escala ordinal.

Planteamiento de la hipótesis.

Hipótesis nula (Ho). Las diferencias observadas entre las calificaciones de ejecución de lectura mediante los

dos métodos se deben al azar.

Hipótesis alterna (Ha). Las calificaciones de ejecución de lectura, según el método de enseñanza del

experimentador son más altas y diferentes que las observadas en el método tradicional.

Nivel de significación.

Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.

Zona de rechazo.

Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.

I-30

Prueba de Mann-Whitney

Aplicación de la prueba estadística.

De acuerdo con los paso, las observaciones se deben ordenar en rangos del menor al mayor.

Calculamos la U.

De los dos valores de U calculados, se elige el más pequeño (4) y se comparan con los valores críticos de U

Mann-Whitney.

En caso de que el valor de U calculado no se localice en las tablas correspondientes, se transformará en la

fórmula siguiente:

U = n1n2 - U'

En esta fórmula, U' corresponde al valor más alto.

Decisión.

A la probabilidad del valor U de Mann-Whitney, calculado anteriormente, corresponde 0.048, el cual es más

pequeño que el nivel de significación; por lo tanto, se acepta Ha y se rechaza Ho.

I-31

Prueba de Wilcoxon(comparación de dos grupos relacionados)

Si tenemos parejas de valores, por ejemplo antes y después de un cambio, que podemos denominar

(X1,Y1), (X2,Y2), ... ,(Xn,Yn). De la misma forma, ahora calcularemos las diferencias X1-Y1, X2-Y2,

... , Xn-Yn y las ordenaremos en valor absoluto, asignándoles el rango correspondiente. Calculamos

R+ la suma de rangos positivos (cuando Xi es mayor que Yi), y la suma de rangos negativos R-. Ahora

la hipótesis nula es que esas diferencias proceden de una distribución simétrica en torno a cero y si

fuera cierta los valores de R+ y R- deberán ser parecidos.

Pasos:1. Restar las puntuaciones (elemento a elemento) entre grupos 1 y 2, y dejarlas en valor absoluto.2. En valores ordinales, hacer una columna con los rangos para G2>G1 y otra para G1>G2

Muestras pequeñas S+ = Ri+∑

Muestras grandes

zemp =S+ −

n (n+1)

4

n(n +1) (2n+1)

24

Es la suma de rangos de la columna "G2>G1"

Hay tablas para este caso de

muestras pequeñas; en todo

caso, si la muestra es

relativamente grande, se puede

efectuar la aproximación a la

distribución normal

La hipótesis nula es que no haya diferencias entre los dos grupos

I-32

Prueba de WilcoxonEjemplo para muestras pequeñas utilizando la prueba de dos colas:

Un investigador desea comparar el grado de hiperactividad en sujetos obesos cuando están en un programa

para bajar de peso (dieta) y sin programa para bajar de peso.

Elección de la prueba estadística.

Se tienen dos muestras dependientes y, por el tipo de medición, es posible listarlas en una escala ordinal.

Planteamiento de la hipótesis.

Hipótesis alterna (Ha). Existe diferencia significativa entre el grado de hiperactividad en obesos cuando están

en un programa de dieta y sin el programa de dieta.

Hipótesis nula (Ho). No existe diferencia significativa entre el grado de hiperactividad en obesos cuando

están en un programa de dieta y sin el programa de dieta, esto es debido al azar.

Nivel de significación.

Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.

Zona de rechazo.

Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.

Aplicación de la prueba estadística.

Con base a los pasos, se obtienen las diferencias observadas en los incrementos de hiperactividad en obesos,

estando en un programa de dieta o no. Estos valores podrán tener signos positivos y negativos, los cuales

quedarían abolidos al ordenarse los rangos y éstos los adoptan.

I-33

Prueba de Wilcoxon

El valor T de la prueba de Wilcoxon obtenido se compara con los valores críticos de la tabla T en pruebas de

rangos señalados de pares iguales de Wilcoxon, y se puede apreciar que para ser significativo (es decir, por

debajo de 0.05, que fue el nivel de significación), requiere que este 0.05 sea menor; por lo tanto, la

probabilidad es mayor que 0.05.

tc = 15.5

tt = 8

Para dos colas = a = 0.05

N= 10

se cumple que rechazamos Ho

Decisión.

En virtud de que la probabilidad es mayor que 0.05, se acepta Ho y se rechaza Ha.

Interpretación.

Las diferencias en el incremento o disminución de la hiperactividad en personas obesas con dieta o sin dieta,

no son significativas. Estadísticamente resultan iguales, en razón de que pueden ser diferencias dadas al azar.

I-34

Prueba de Kruskal-Wallis(comparación de "a" grupos independientes)

La prueba de Kruskal-Wallis, es una alternativa a la prueba F del análisis de varianza

para diseños de clasificación simple. En este caso se comparan varios grupos pero

usando la mediana de cada uno de ellos, en lugar de las medias

Pasos:1. pasar las puntuaciones a rangos (conjuntamente en los "a" grupos)2. computar la suma de los rangos en cada grupo (son las Rj)

H =12

N (N + 1)

Rj2

nj

− 3 (N + 1)

Si la Hipótesis nula es cierta (es decir, que no haya diferencias entre los grupos),

H se distribuye según Chi-cuadrado con a-1 grados de libertad

Estadístico de contraste

Observa que se puede aplicar esta prueba cuando no se cumplan los supuestos de

homogeneidad de varianzas ni el de normalidad del ANOVA unifactorial entre sujetos.

I-35

La prueba de Kruskal-Wallis para comparar más de dos grupos

Si hay empates en los datos entonces, se aplica la siguiente modificación a H

Se puede mostrar que si los tamaños de cada grupo son mayores que 5

entonces, H se distribuye como una Ji-Cuadrado con, k-1 grados de libertad.

Luego, la hipótesis nula se rechaza si

nn

tt

HH

g

i

ii

=

∑=

3

1

3

1

'

2

1,1 αχ −−> kH

I-36

Correlación de SpearmanCuantitativaCuantitativaNo paramétrico

Correlación de PearsonCuantitativaCuantitativaParamétrico

COVARIACION (medidas de dos variables en los mismos sujetos o unidades de análisis del estudio)

BinomialChi-cuadrado de PearsonChi-cuadrado de Mantel-Haenzsel

Prueba de Kolmogorow-SmirnovPrueba de las RachasTest exacto de McNemarPrueba de los SignosChi-cuadrado de Pearson

Test exacto de FisherTest de WilcoxonPrueba de los signosMann-Whitney Mediana

Z Kolmogorov-SmirnovRachas de Wald-WolfowitzValores extremos de MosesPrueba Q de CochranPrueba de Friedman

W de Kendall (concordancia)Prueba de Kruskal-WallisMediana K variablesANOVA de dos vías por rangos

RelacionadasNo relacionadasRelacionadas

No relacionadasNo relacionadasRelacionadasNo relacionadas

CategóricaCuantitativaCategórica

Cuantitativa

Una sola muestra (se compara con valor teórico)

DicotómicaPolicotómica

No normal(No paramétricos)

t-student para una muestra

No existe (usar Chi-cuadrado de Pearson)No existe (usar no paramétricos)t-student muestras independientest-student muestras relacionadasNo existe (usar Chi-cuadrado de Pearson)

ANOVA de una víaANOVA de medidas repetidas

No relacionadasRelacionadasNo relacionadasRelacionadasNo relacionadas

No relacionadasRelacionadas

Cuantitativa

CategóricaCuantitativaCategóricaCuantitativa

Una sola muestra (se

compara con valor teórico)

DicotómicaPolicotómica

Normal(Paramétricos)

PRUEBA ESTADÍSTICARELACIÓN ENTRE LAS MUESTRAS

VARIABLE DEPENDIENTE

(RESULTADO)

VARIABLEINDEPENDIENTE

(PREDICTORA)

DISTRIBUCION

Tabla I. Tipo de test estadístico para hacer inferencias (comparaciones entre muestras).