45
7 Análisis de varianza (II) Dos factores completamente aleatorizados En todos los procedimientos estadísticos revisados hasta ahora nos hemos limitado a estudiar una o dos variables. En este capítulo vamos a abordar por primera vez el estudio de más de dos variables. Los modelos factoriales de análisis de varianza (factorial = más de un factor) permiten evaluar el efecto individual y conjunto de dos o más factores (variables independientes cate- góricas) sobre una variable dependiente cuantitativa. En este capítulo nos vamos a centrar en el modelo de dos factores completamente aleatorizados. Este modelo permite analizar el efec- to de dos variables independientes categóricas (factores) sobre una variable dependiente cuantitativa. Un ANOVA de dos factores permite estudiar, por ejemplo, si el rendimiento en una tarea (variable dependiente cuantitativa) cambia con el nivel de ansiedad de los sujetos (bajo, medio, alto; variable independiente categórica) y con la dificultad de la tarea (fácil, difícil; variable independiente categórica). Pero, además, y esto es lo realmente interesante, también permite estudiar si las diferencias entre sujetos con diferente nivel de ansiedad se mantienen o no cuando cambia la dificultad de la tarea; es decir, permite estudiar si la interacción entre los factores nivel de ansiedad y dificultad de la tarea afecta a la variable dependiente rendimiento de forma diferente a como lo hace cada factor por separado. Una ventaja de los diseños de dos factores sobre los diseños de un factor es que necesitan menos sujetos para alcanzar la misma potencia. Supongamos que tenemos dos variables inde- pendientes o factores (A y B), el primero con tres niveles y el segundo con dos. Para comparar los niveles de A utilizando un diseño de un factor podemos asignar una muestra aleatoria de 20 sujetos a cada nivel; 60 sujetos en total. Para comparar los niveles de B podemos asignar una muestra aleatoria de 30 sujetos a cada nivel; otros 60 sujetos en total. Entre los dos expe- rimentos, 120 sujetos. En un diseño factorial las cosas cambian. Al combinar los niveles de A y B es posible reducir el número de sujetos a la mitad: con 10 sujetos por cada combinación

07_anova_2[1]

Embed Size (px)

DESCRIPTION

APUNTES

Citation preview

Page 1: 07_anova_2[1]

7Análisis de varianza (II)

Dos factorescompletamente aleatorizados

En todos los procedimientos estadísticos revisados hasta ahora nos hemos limitado a estudiaruna o dos variables. En este capítulo vamos a abordar por primera vez el estudio de más dedos variables.

Los modelos factoriales de análisis de varianza (factorial = más de un factor) permitenevaluar el efecto individual y conjunto de dos o más factores (variables independientes cate-góricas) sobre una variable dependiente cuantitativa. En este capítulo nos vamos a centrar enel modelo de dos factores completamente aleatorizados. Este modelo permite analizar el efec-to de dos variables independientes categóricas (factores) sobre una variable dependientecuantitativa.

Un ANOVA de dos factores permite estudiar, por ejemplo, si el rendimiento en una tarea(variable dependiente cuantitativa) cambia con el nivel de ansiedad de los sujetos (bajo, medio,alto; variable independiente categórica) y con la dificultad de la tarea (fácil, difícil; variableindependiente categórica). Pero, además, y esto es lo realmente interesante, también permiteestudiar si las diferencias entre sujetos con diferente nivel de ansiedad se mantienen o nocuando cambia la dificultad de la tarea; es decir, permite estudiar si la interacción entre losfactores nivel de ansiedad y dificultad de la tarea afecta a la variable dependiente rendimientode forma diferente a como lo hace cada factor por separado.

Una ventaja de los diseños de dos factores sobre los diseños de un factor es que necesitanmenos sujetos para alcanzar la misma potencia. Supongamos que tenemos dos variables inde-pendientes o factores (A y B), el primero con tres niveles y el segundo con dos. Para compararlos niveles de A utilizando un diseño de un factor podemos asignar una muestra aleatoria de20 sujetos a cada nivel; 60 sujetos en total. Para comparar los niveles de B podemos asignaruna muestra aleatoria de 30 sujetos a cada nivel; otros 60 sujetos en total. Entre los dos expe-rimentos, 120 sujetos. En un diseño factorial las cosas cambian. Al combinar los niveles deA y B es posible reducir el número de sujetos a la mitad: con 10 sujetos por cada combinación

Page 2: 07_anova_2[1]

2 Análisis de datos (vol. II)

1 Al igual que en el capítulo anterior, suprimiremos el subíndice Y de las medias poblacionales µ para simplificar la nota-ción. Por tanto, siempre que utilicemos el símbolo µ (media poblacional) sin indicación de la variable a la que se refiere(X, Y, Z, etc.), asumiremos que se refiere a la variable dependiente Y.

AB tendremos un total de 60 sujetos y tanto los niveles de A como los de B podrán evaluarsecon el mismo número de sujetos que en los correspondientes diseños de un factor por sepa-rado.

Esta ventaja tiene su importancia, sobre todo si se tiene en cuenta que en muchas áreasde conocimiento no resulta nada fácil conseguir muestras grandes. Pero la ventaja verdade-ramente importante de los diseños factoriales radica en el hecho de que el estudio simultáneode más de un factor permite determinar, no ya sólo el efecto individual de cada factor sobrela variable dependiente, sino, además, si la interacción entre los factores modifica el efectoindividual que cada factor tiene por separado.

Enseguida nos ocuparemos del importantísimo concepto de la interacción entre factores.Antes necesitamos conocer la estructura de un diseño de dos factores y la notación que uti-lizaremos para identificar cada elemento del diseño.

Estructura de los datos y notaciónEn un diseño de dos factores completamente aleatorizados (AB-CA) tenemos dos variablescategóricas independientes o factores (A y B) y una variable dependiente cuantitativa (Y ). Alos niveles del factor A los seguimos llamando a j ( j = 1, 2, ..., J ). A los niveles del factor Blos llamamos bk (k = 1, 2, ..., K ). Y a las combinaciones entre los niveles de A y de B las lla-mamos abj k. La Tabla 7.1 muestra la estructura del diseño.

Tabla 7.1. Estructura de un diseño de dos factores AB-CA

Factor B Factor A b1 b2 ··· bk ··· bK

a 1 ab11 ab12 ··· ab1k ··· ab1K

a 2 ab21 ab22 ··· ab2k ··· ab2K

··· ··· ··· ··· ··· ··· ···a j abj 1 abj 2 ··· abj k ··· abj K

··· ··· ··· ··· ··· ··· ···a J abJ 1 abJ 2 ··· abJ k ··· abJ K

Los niveles del factor A definen J poblaciones con medias1 µ 1+, µ 2+, ..., µ J+. Los niveles delfactor B definen K poblaciones con medias µ +1, µ +2, ..., µ +K. La combinación AB entre los ni-veles de de ambos factores definen JK poblaciones con medias µ 11, µ 12, ..., µ 21, µ 22, ..., µ +K.A la media total la llamaremos µ. De cada combinación abj k (es decir, de cada población)tenemos una muestra aleatoria de puntuaciones Yijk de tamaño n (i = 1, 2, ..., n).

El número de puntuaciones (sujetos) de cada casilla abj k, es decir, el tamaño de las casi-llas, puede o no ser el mismo, pero, de momento, nos centraremos en el caso en el que todas

Page 3: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 3

las casillas tienen el mismo tamaño, es decir, n. Por tanto, N = n JK. Con las n puntuacionesde cada casilla abj k obtenemos los totales (sumas) que muestra la Tabla 7.2.

Tabla 7.2. Notación utilizada en un diseño de dos factores AB-CA

Factor B

SumaFactor A b1 b2 ··· bk ··· bK

a 1 ··· ···

a 2 ··· ······ ··· ··· ··· ··· ··· ··· ···a j ··· ···

··· ··· ··· ··· ··· ··· ··· ···a J ··· ···

Suma ··· ···

En el modelo de dos factores es necesario utilizar tres subíndices (ijk) para identificar cadavalor de Y : el primero de ellos (i) se refiere a los diferentes elementos (generalmente sujetos)de la misma muestra o casilla: i = 1, 2, ..., n; el segundo ( j), a los diferentes niveles del factorA; y el tercero (k), a los diferentes niveles del factor B. Así, por ejemplo, Y523 se refiere a lapuntuación del 5º elemento (sujeto) en la casilla correspondiente a la combinación del 2º nivelde A con el 3er nivel de B; es decir, a la 5ª puntuación de la casilla ab23.

El signo “+” colocado como subíndice se refiere a todos los valores del subíndice al quesustituye. Por ejemplo, Y+24 se refiere a todas las puntuaciones (todos los valores i) de la casi-lla correspondiente al cruce del 2º nivel de A ( j = 2) con el 4º nivel de B ( k = 4). Para repre-sentar estas sumas o totales utilizaremos la letra T.

Los totales de cada casilla ( ) se obtienen sumando desde 1 hasta n todas las puntua-ciones de esa casilla:

= = [7.1]

Los totales correspondientes a cada nivel del factor A ( ) se obtienen sumando todas laspuntuaciones de la fila j:

= = = [7.2]

Los totales correspondientes a cada nivel del factor B ( ) se obtienen sumando todas laspuntuaciones de la columna k:

= = = [7.3]

Page 4: 07_anova_2[1]

4 Análisis de datos (vol. II)

2 Ver, por ejemplo, Everitt y Howell (2005, págs. 930-931); Kirk (1995, pág. 367); o Maxwell y Delaney (2004, pág. 278).3 Ver, por ejemplo, Everitt y Howell (2005, pág. 931); Maxwell y Delaney, (2004, págs. 279-280); o Winer, Brown y Mi-chels (1991, pág. 296).

Y el gran total (T ) se obtiene sumando todas las puntuaciones de la tabla, lo cual puede hacer-se de diferentes maneras:

= = = = = [7.4]

A partir de estos totales pueden obtenerse las medias de cada casilla, de cada fila, de cada co-lumna y el total de la tabla simplemente dividiendo los correspondientes totales por el númerode puntuaciones utilizadas para obtenerlos:

= , = , = , = [7.5]

Para referirnos a un diseño de estas características utilizaremos el símbolo J × K. El númerode letras indica el número de factores; el valor de las letras indica los niveles de los factores.Así, un diseño 3 × 5 se refiere a un diseño con dos factores, el primero de ellos con tres nivelesy el segundo con cinco.

La interacción entre factoresEn un modelo de dos factores completamente aleatorizados, los efectos que interesa analizarson tres: los dos efectos principales (los efectos de cada factor individualmente considerado)y el efecto de la interacción entre ambos factores (el efecto conjunto o combinado de ambosfactores). Veremos que los efectos principales se definen y analizan tal como se ha explicadoen el capítulo anterior al estudiar el modelo de un factor. El efecto de la interacción requiereuna atención especial

El concepto de interacción entre factores admite varias formulaciones, todas ellas equiva-lentes. Desde un punto de vista no formal, decimos que existe interacción entre dos factorescuando el efecto de uno de ellos sobre la variable dependiente no es el mismo en todos losniveles del otro factor2. Esto equivale a afirmar que existe interacción cuando el resultado dela combinación de dos factores difiere de la suma de los efectos principales de esos factores.3

Para poder presentar una definición formal de la interacción, consideremos la notaciónpropuesta en la Tabla 7.3 para la configuración correspondiente a un diseño 2 × 3: el factor Acon dos niveles ( j = 1, 2) y el factor B con tres niveles (k = 1, 2, 3).

Tabla 7.3. Medias poblacionales en un diseño 2 × 3

b1 b2 b3

a 1 µ 11 µ 12 µ 13 µ 1+

a 2 µ 21 µ 22 µ 23 µ 2+

µ +1 µ +2 µ +3 µ

Page 5: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 5

4 Las expresiones [7.7] y [7.8] se deducen, ambas, de [7.6]; por tanto, son equivalentes. En efecto, según [7.7], cuando noexiste interacción se verifica µ11 = µ1++ µ+1 ! µ y µ21 = µ2++ µ+1 ! µ. De estas igualdades se sigue que

µ 11 ! µ 1+ ! µ +1 = !µ y µ 21 ! µ 2+ ! µ +1 = !µ

Por tanto,µ 11 ! µ 1+ ! µ +1 = µ 21 ! µ 2+ ! µ +1

Lo cual lleva a µ 11 ! µ 21 = µ 1+ ! µ 2+, que no es otra cosa que la expresión [7.8]. De este argumento se desprende que esirrelevante tomar [7.7] o [7.8] como referente para definir el efecto de la interacción. Sin embargo, las interpretaciones basa-das en [7.8] suelen resultar más fáciles de entender. La formulación basada en [7.7] ha recibido especial atención por partede Rosnow y Rosenthal (1989a, 1989b, 1991, 1995, 1996), quienes han llevado el argumento al extremo insistiendo en quepara poder interpretar correctamente el efecto de la interacción hay que despojarlo de todos los elementos extraños que inclu-ye. Es así como se llega a las medias residualizadas o residuos de interacción que, siempre según Rosnow y Rosenthal, sonlos únicos que informan cabalmente sobre el efecto de la interacción. Pero no parece que este enfoque haya merecido laaceptación de todos (ver Meyer, 1991; Petty, Fabrigar, Wegener y Priester, 1996); y tampoco parece que los investigadoresestén dispuestos a incorporar a sus hábitos el plus de comprensión que exige.

En el modelo de dos factores de efectos fijos, el efecto de la interacción, αβ jk, se define como(ver, por ejemplo, Winer, Brown y Michels, 1991, pág. 318):

αβ j k = µ j k ! µ j + ! µ + k + µ [7.6]

Existe interacción cuando αβ j k =/ 0 para algún j o k; y no existe interacción cuando αβ j k = 0para todo j y k. Pero hay al menos dos formas alternativas de interpretar la definición [7.6](ver Jaccard, 1998, págs. 3-10):

1. Como la desviación que experimentan las medias de las casillas respecto de los efectosprincipales de los factores:! No interacción: µ j k = µ j + + µ + k ! µ (para todo j y k) [7.7]! Interacción: µ j k =/ µ j + + µ + k ! µ (para algún j o k)De acuerdo con esta definición, existe interacción cuando la media de una o más casillasno es función directa de sus respectivas medias marginales. Esto significa que, cuandoexiste interacción, el efecto de la combinación de los factores A y B difiere de la sumade los efectos individuales de A y B.

2. Como diferencias entre las medias de las casillas y las medias marginales:! No interacción: µ j k ! µ j Nk = µ j + ! µ j N+ (para todo j, j N o k) [7.8]! Interacción: µ j k ! µ j Nk =/ µ j + ! µ j N+ (para algún j, j N o k)De acuerdo con esta definición, existe interacción cuando la diferencia entre las mediasde dos casillas de la misma columna (o de la misma fila) no es igual que la diferencia en-tre sus correspondientes medias marginales4.

Unas sencillas transformaciones permiten comprobar que la definición [7.8] implica que, siexiste interacción, la diferencia entre las medias de los niveles a1 y a2 no es la misma en lostres niveles de B; y lo mismo vale decir de las diferencias entre las medias de los niveles b1,b2 y b3 en los dos niveles de A.

Aclaremos esto con un ejemplo concreto. Imaginemos que las medias poblacionales quecorresponden al diseño 2 × 3 de la Tabla 7.3 son las que muestra la Tabla 7.4.1 (diseño sin in-teracción). La media de a1 supera a la de a2 en 2 puntos tanto en b1 como en b2 y en b3; esdecir, cualquiera que sea el nivel de B que se considere, la diferencia entre las medias de a1

Page 6: 07_anova_2[1]

6 Análisis de datos (vol. II)

y a2 siempre es la misma: 2 puntos. Y esta diferencia es justamente la que se da entre los ni-veles de A cuando no se tiene en cuenta B, es decir, la que se da entre las medias marginalesde a1 y a2. Cuando las medias de un diseño factorial se ajustan a esta pauta, decimos que noexiste interacción, queriendo significar con ello que el efecto conjunto de los dos factores so-bre la variable dependiente no difiere del efecto individual de cada factor por separado.

Imaginemos ahora que las medias del diseño 2 × 3 de la Tabla 7.3 son las que muestra laTabla 7.4.2 (diseño con interacción). La diferencia entre las medias de a1 y a2 ya no es la mis-ma en todos los niveles de B. En b1 y b3, la diferencia es de 2 puntos a favor de a1; en b2, ladiferencia es de 4 puntos a favor de a2. Y estas diferencias no se corresponden con la diferen-cia existente entre las medias marginales de a1 y a2, las cuales son iguales. Cuando se da estadiscrepancia entre las medias de las casilla y sus correspondientes medias marginales decimosque existe interacción entre factores, queriendo significar con ello que el efecto conjunto delos dos factores sobre la variable dependiente difiere de la suma de los efectos individualesde los factores.

Tabla 7.4. Medias poblacionales en un en un diseño 2 × 31. Diseño sin interacción 2. Diseño con interacción

b1 b2 b3 b1 b2 b3

a1 6 5 7 6 a1 6 4 5 5

a2 4 3 5 4 a2 4 8 3 5

5 4 6 5 5 6 4 5

La herramienta más útil para entender el concepto de interacción entre factores es, probable-mente, un gráfico de líneas basado en las medias de las casillas. En la Figura 7.1 (izquierda)están representadas las medias de la Tabla 7.4.1. El gráfico muestra con claridad que, cual-quiera que sea el nivel de B que se considere, el comportamiento del factor A siempre es elmismo: la media de a1 siempre supera en 2 puntos a la media de a2. La ausencia de interacciónqueda reflejada en el hecho de que las líneas que unen las medias son paralelas entre cadados niveles del eje horizontal (las líneas definen perfiles idénticos).

Figura 7.1. Gráficos de líneas con las medias de las casillas de las Tablas 7.4.1 (izquierda) y 7.4.2 (derecha)

En el gráfico de la Figura 7.1 (derecha) están representadas las medias de las casillas de la Ta-bla 7.4.2. Ahora, las medias de a1 superan a las de a2 tanto en b1 como en b3, pero no en b3,

Page 7: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 7

donde la media de a2 es mayor que la de a1. Es decir, la diferencia entre las medias de a1 y a2cambia cuando cambian los niveles de B. La presencia de interacción queda reflejada en elhecho de que las líneas que unen las medias no son paralelas (definen perfiles distintos).

El significado de la interacción puede entenderse mejor, quizá, poniendo contenido con-creto a los factores. Supongamos que el factor A es tipo de tratamiento (a1 = «tratamientoconvencional», a2 = «nuevo tratamiento») y que el factor B se refiere a tres variantes de unamisma enfermedad (b1 = «tipo 1», b2 = «tipo 2», b3 = «tipo 3»). Supongamos además que almedir el efecto de los tratamientos hemos encontrado los resultados (medias) que recogen lasTablas 7.4.1 y 7.4.2 (estas medias son las que están representadas en la Figura 7.1). Supon-gamos, por último, que las medias más altas indican que el tratamiento funciona mejor.

En el caso de la Tabla 7.4.1 (diseño sin interacción), la media que se obtiene con el tra-tamiento convencional (6) es más alta que la que se obtiene con el nuevo tratamiento (4); yesta pauta se repite con todas las variantes de la enfermedad; por tanto, el tratamiento con-vencional (a1) es mejor que el nuevo tratamiento (a2) independientemente de la variante dela enfermedad a la que se apliquen.

En el caso de la Tabla 7.4.2 (diseño con interacción), el efecto global de los dos trata-mientos es el mismo (la media de ambos vale 5), pero este resultado es engañoso precisa-mente por la presencia de interacción. El efecto de los tratamientos está condicionado por lavariante de la enfermedad a la que se aplican: con las variantes 1 y 3, el tratamiento con-vencional (a1) ofrece mejores resultados que el nuevo tratamiento; con la variante 2, es el nue-vo tratamiento el que consigue mejores resultados. El efecto de los tratamientos cambia cuan-do cambia la variante de la enfermedad a la que se aplican.

ANOVA de dos factores completamente aleatorizados (AB-CA)Ya hemos señalado que, en un modelo de dos factores, los efectos que interesa analizar sontres: (1) el efecto individual del factor A o efecto principal de A, (2) el efecto individual delfactor B o efecto principal de B y (3) el efecto de la interacción entre los factores A y B o efec-to de la interacción AB.

El factor A define J poblaciones. El factor B define K poblaciones. La combinación delos niveles de ambos factores define JK poblaciones. Supongamos que la variable cuantitativaY se distribuye normalmente en esas JK poblaciones y que la varianza de Y es la misma entodas ellas:

= = · · · = = · · · = = [7.10]

Y supongamos que, de cada una de esas JK poblaciones, extraemos una muestra aleatoria detamaño n. En este escenario es posible identificar varios tipos de variabilidad. Comencemoscon las dos que ya nos resultan familiares: (1) la variabilidad que existe dentro de cada mues-tra o variabilidad intragrupos y (2) la variabilidad que existe entre las diferentes muestras ovariabilidad intergrupos.

Estas dos formas de variabilidad pueden cuantificarse tal como hemos hecho en el capítu-lo anterior a propósito del modelo de un factor. En primer lugar, con JK muestras aleatoriastenemos JK varianzas muestrales cada una de las cuales puede utilizarse para estimar lavarianza de su propia población. No obstante, como estamos asumiendo que las JK poblacio-

Page 8: 07_anova_2[1]

8 Análisis de datos (vol. II)

nes tienen la misma varianza ( ), en lugar de utilizar cada varianza muestral por separado,obtendremos una mejor estimación de combinando en un único estimador las JK varianzasmuestrales:

MCE = = [7.11]

Ya sabemos que a este estimador de la varianza poblacional basado en la variabilidad existen-te dentro de cada grupo o muestra se le llama media cuadrática intragrupos y se representamediante MCE. Recordemos que también se le llama media cuadrática error o residual. Y,puesto que en su cálculo sólo intervienen las varianzas de cada muestra, su valor no dependedel valor de las medias.

En segundo lugar, si asumimos que las JK poblaciones muestreadas, además de la mismavarianza, también tienen la misma media, entonces podremos utilizar la variabilidad entre lasJK medias muestrales (en caso necesario, repasar, en el capítulo anterior, el apartado sobreLa lógica del análisis de varianza) para obtener una estimación de la varianza poblacionalde Y mediante

MCI = [7.12]

A este estimador de la varianza poblacional basado en la variabilidad existente entre las dife-rentes muestras se le llama media cuadrática intergrupos y se representa mediante MCI(este valor es el mismo que obtendríamos si, en lugar de considerar que tenemos dos factorescon J y K niveles cuya combinación genera JK casillas, tomáramos las JK casillas como losniveles de un único factor).

Esta variabilidad intergrupos no nos sirve de mucho porque contiene, mezclados, los tresefectos que nos interesa analizar (A, B y AB). Es decir, la variabilidad de las JK medias res-pecto de la media total (variabilidad intergrupos) incluye tres fuentes diferentes de variabi-lidad: (1) la que se da entre las J medias correspondientes a los niveles del factor A, (2) la quese da entre las K medias correspondientes a los niveles del factor B y (3) la que se da entrelas JK medias respecto de sus respectivas medias marginales. Para poder cuantificar cada unade estas fuentes de variabilidad es necesario aislarlas identificando qué parte de la variabili-dad intergrupos corresponde a cada una de ellas.

En el modelo de un factor (ver capítulo anterior) hemos utilizado la variabilidad existenteentre las J medias muestrales para obtener una estimación de la varianza poblacional de Yque, además, servía como una cuantificación del grado de parecido existente entre las J me-dias. Aplicando ahora la misma lógica al modelo de dos factores, tanto las J medias de los ni-veles del factor A como las K medias de los niveles del factor B pueden utilizarse para obtenerestimaciones de la varianza poblacional de Y que, además, representan cuantificaciones delgrado de parecido existente entre las medias de los J niveles de A y entre las medias de losK niveles de B:

MCA = [7.13]

MCB = [7.14]

Page 9: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 9

La ecuación [7.13] es un estimador de la varianza poblacional de Y basado en la variabilidadexistente entre las J medias muestrales correspondientes a los niveles del factor A. A esta va-rianza muestral la llamaremos media cuadrática del factor A y la representaremos medianteMCA. La ecuación [7.14] es un estimador de la varianza poblacional de Y basado en la varia-bilidad existente entre las medias muestrales correspondientes a los niveles del factor B. Aesta varianza muestral la llamaremos media cuadrática del factor B y la representaremosmediante MCB.

Por último, también la variabilidad entre las medias de las JK muestras respecto de susmedias marginales puede utilizarse para obtener una estimación del la varianza poblacionalde Y mediante

MCAB = [7.15]

La ecuación [7.15] es un estimador de la varianza poblacional de Y basado en la variabilidadexistente entre las medias de las JK casillas y sus respectivas medias marginales. Si se tieneen cuenta la definición de interacción propuesta en [7.6] se comprenderá que MCAB, al cuan-tificar cómo se alejan las medias de las casillas de sus respectivas medias marginales, está in-formando sobre el efecto de la interacción. A esta varianza muestral la llamaremos mediacuadrática de la interacción AB y la representaremos mediante MCAB.

Aplicando ahora la lógica estudiada en el capítulo anterior, sabemos que el cociente entreMCA y MCE

FA = = [7.16]

es una variable que, además de informar del grado de parecido entre las medias de los nivelesdel factor A, se distribuye según F con los grados de libertad del numerador (J ! 1) y los deldenominador (N ! JK). También sabemos que el cociente entre MCB y MCE

FB = = [7.17]

es una variable que informa del grado de parecido existente entre las medias de los nivelesdel factor B y que se distribuye según F con los grados de libertad del numerador (K ! 1) ylos del denominador (N ! JK). Por último, el cociente entre MCAB y MCE

FAB = = [7.18]

es una variable que, además de informar del grado de parecido existente entre las medias delas casillas y sus medias marginales (interacción), sabemos que se distribuye según F con losgrados de libertad del numerador [(J ! 1) (K ! 1)] y los del denominador (N ! JK).

Por tanto, los estadísticos FA, FB y FAB, pueden utilizarse para evaluar los tres efectos deinterés (A, B y AB) en un diseño de dos factores, de efectos fijos, completamente aleatoriza-dos. El Cuadro 7.1 ofrece un resumen del procedimiento.

Page 10: 07_anova_2[1]

10 Análisis de datos (vol. II)

Cuadro 7.1. Resumen del ANOVA de dos factores completamente aleatorizados (AB-CA)

1. Hipótesis:a. H0 (A) : µ 1+ = µ 2+ = · · · = µ J+ (las medias poblacionales correspondientes a los J

niveles del factor A son iguales). Es decir, no existe efecto del factor A.H1 (A): µ j + =/ µ jN+ para algún j o jN (con j =/ jN) (no todas las medias correspondien-tes a los niveles del factor A son iguales). Es decir, existe efecto del factor A.

b. H0 (B) : µ +1 = µ +2 = · · · = µ +K (las medias poblacionales correspondientes a los Kniveles del factor B son iguales). Es decir, no existe efecto del factor B.H1 (B): µ + k =/ µ + kN para algún k o kN (con k =/ kN) (no todas las medias correspon-dientes a los niveles del factor B son iguales). Es decir, existe efecto del factor B.

c. H0 (AB) : µ j k ! µ j Nk = µ j + ! µ j N+ para todo j, j N o k (con j =/ jN) (la diferencia entre lasmedias de dos casillas cualesquiera de la misma columna es igual a la diferenciaentre las medias marginales correspondientes a esas casillas). Es decir, no existeefecto de la interacción.H1 (AB) : µ j k ! µ j Nk =/ µ j + ! µ j N+ para algún j, jN o k (con j =/ jN) (no todas las dife-rencias entre las medias de dos casillas cualesquiera de la misma columna soniguales a la diferencia entre las medias marginales correspondientes a esas casi-llas). Es decir, existe efecto de la interacción.

2. Supuestos: JK muestras de tamaño n aleatoriamente seleccionadas de JK poblacionesnormales con la misma varianza.

3. Estadísticos del contraste (ver ecuaciones [7.16], [7.17] y [7.18]):a. Para H0 (A) : FA = MCA « MCE .b. Para H0 (B) : FB = MCB « MCE .c. Para H0 (AB) : FAB = MCAB « MCE .

4. Distribuciones muestrales:a. FA se distribuye según F con J !1 y N ! JK grados de libertad.b. FB se distribuye según F con K !1 y N ! JK grados de libertad.c. FAB se distribuye según F con (J !1)(K !1) y N ! JK grados de libertad.

5. Zonas críticas:a. FA >$ FJ !1, N !JK; 1! α .b. FB >$ FK !1, N !JK; 1! α .c. FAB >$ F(J !1)(K !1), N !JK; 1! α .

6. Reglas de decisión:a. Se rechaza H0 (A) si el estadístico FA cae en la zona crítica; en caso contrario, se

mantiene. El rechazo de H0 (A) implica que existe efecto significativo del factor A.b. Se rechaza H0 (B) si el estadístico FB cae en la zona crítica; en caso contrario, se

mantiene. El rechazo de H0 (B) implica que existe efecto significativo del factor B.c. Se rechaza H0 (AB) si el estadístico FAB cae en la zona crítica; en caso contrario, se

mantiene. El rechazo de H0 (AB) implica que existe efecto significativo de la interac-ción AB.

Page 11: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 11

7. Niveles críticos (valores p):a. Para el efecto del factor A: p = P (FA >$ Fh ), siendo Fh el valor muestral concreto

que toma el estadístico FA.a. Para el efecto del factor B: p = P (FB >$ Fh ), siendo Fh el valor muestral concreto

que toma el estadístico FB.a. Para el efecto de la interacción AB: p = P (FAB >$ Fh ), siendo Fh el valor muestral

concreto que toma el estadístico FAB.

Ejemplo. ANOVA de dos factores completamente aleatorizados (AB-CA)

En un estudio diseñado para evaluar la relación entre el nivel de ansiedad y el nivel de ejecu-ción en una tarea de rendimiento se ha incluido una nueva variable: la dificultad de la tarea.La Tabla 7.5 muestra los resultados obtenidos con una muestra aleatoria de 30 sujetos repar-tidos, también aleatoriamente, en 6 grupos del mismo tamaño. Cada grupo ha realizado laprueba de rendimiento bajo una de las 6 condiciones resultantes de combinar 2 niveles de difi-cultad (fácil, difícil) con 3 de ansiedad (bajo, medio, alto). El rendimiento se ha medido enuna escala de 0 a 20 puntos. El objetivo del estudio es valorar qué impacto tiene sobre el ren-dimiento la dificultad de la tarea, el nivel de ansiedad y la interacción entre la dificultad dela tarea y el nivel de ansiedad (α = 0,05).

Tabla 7.5. Dificultad de la tarea (A), nivel de ansiedad (B) y rendimiento (Y )

(A ) Dificultadde la tarea

(B ) Nivel de ansiedad

(b1) Bajo (b2) Medio (b3) Alto Totales

(a1) Fácil

12 15 817 12 69 18 5 180

14 14 1013 (65) 16 (75) 11 (40)

(a2) Difícil

8 10 136 14 109 16 9 1508 14 124 (35) 11 (65) 6 (50)

Totales 100 140 90 330* Los valores entre paréntesis son los totales (sumas) de las casillas.

Se trata de un diseño 2 × 3 completamente aleatorizado. Es decir, de un diseño de dos factores(A: dificultad de la tarea, con J = 2 niveles; B: nivel de ansiedad, con K = 3 niveles) en el quese ha asignado una muestra aleatoria de n = 5 sujetos a cada una de las JK = 6 condiciones

Page 12: 07_anova_2[1]

12 Análisis de datos (vol. II)

resultantes de combinar los niveles de ambos factores. El análisis de varianza de dos factorescompletamente aleatorizados es el modelo apropiado para analizar estos datos. La Figura 7.2muestra los diagramas de caja del rendimiento correspondientes a cada combinación entre ladificultad de la tarea y el nivel de ansiedad. Ninguno de los diagramas muestra casos anóma-los ni asimetrías evidentes. Pero el rendimiento medio varía sensiblemente entre condiciones.Veamos cómo evaluar los tres efectos presentes en el diseño.

Figura 7.2. Diagramas de caja correspondientes a las casillas de la Tabla 7.5

1. Hipótesis:a. H0 (A) : µ fácil = µ difícil (el rendimiento medio es el mismo con tareas fáciles y con tareas

difíciles; es decir, la dificultad de la tarea no afecta al rendimiento).H1 (A): el rendimiento medio no es el mismo con tareas fáciles y con tareas difíciles (esdecir, la dificultad de la tarea afecta al rendimiento).

b. H0 (B) : µ bajo = µ medio = µ alto (el rendimiento medio es el mismo en los tres niveles deansiedad; es decir, el nivel de ansiedad no afecta al rendimiento).H1 (B): el rendimiento medio no es el mismo en los tres niveles de ansiedad (es decir,el nivel de ansiedad afecta al rendimiento).

c. H0 (AB) : µ j k ! µ j Nk = µ j + ! µ j N+ para todo j, j N o k (con j =/ jN) (la interacción entre ladificultad de la tarea y el nivel de ansiedad no afecta al rendimiento).H1 (AB) : µ j k ! µ j Nk =/ µ j + ! µ j N+ para algún j, jN o k (con j =/ jN) (la interacción entre ladificultad de la tarea y el nivel de ansiedad afecta al rendimiento).

2. Supuestos: tenemos 6 muestras de tamaño 5 aleatoriamente seleccionadas de 6 poblacio-nes normales con la misma varianza.

3. Estadísticos del contraste. Para facilitar la obtención de FA, FB y FAB (ecuaciones [7.16],[7.17] y [7.18]) hemos transformado las puntuaciones originales de la Tabla 7.5 en lasmedias y varianzas que muestra la Tabla 7.6:

Tabla 7.6. Medias (varianzas) correspondientes a los datos de la Tabla 7.5.

b1 b2 b3

a1 13 (8,5) 15 (5,0) 8 (6,5) 12

a2 7 (4,0) 13 (6,0) 10 (7,5) 10

10 14 9 11

Page 13: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 13

5 Teniendo en cuenta que el numerador de MCI es igual a la suma de los numeradores de MCA, MCB y MCAB, y que el cálculode MCI es sensiblemente más breve que el de MCAB, la forma más rápida de calcular MCAB consiste en restar al numeradorde MCI = 5(50) = 250 la suma de los numeradores de MCA = 15(2) = 30 y MCB = 10(14) = 140, y dividir el resultado entrelos grados de libertad de MCAB. No obstante, puede comprobarse que aplicando la ecuación la ecuación [7.15] se llegaexactamente al mismo resultado:

MCAB = [(13 !12 !10 +11)2 + (15 !12 !14 +11)2 (8 !12 ! 9 +11)2 + · · · + (10 !10 ! 9 +11)2] / [(2 !1) (3 !1)] = 40.

MCI = 5 [(13 !11)2 + (15 !11)2 + · · · + (10 !11)2] / 5 = 5 (50) / 5 = 50 (ver [7.12])

MCA = 15 [(12 !11)2 + (10 !11)2] / 1 = 15 (2) / (2 !1) = 30 (ver [7.13])

MCB = 10 [(130 !11)2 + (14 !11)2 + (9 !11)2] / (3 !1) = 10 (14) / 2 = 70 (ver [7.14])

MCAB5 = [5 (50) ! 15 (2) !10 (14)] / 2 = (250 ! 30 !140)/2 = 40

MCE = (8,5 + 5,0 + 6,5 + 4,0 + 6,0 + 7,5) / 6 = 6,25 (ver [7.11])

a. FA = MCA « MCE = 30 / 6,25 = 4,80.b. FB = MCB « MCE = 70 / 6,25 = 11,20.c. FAB = MCAB « MCE = 40 / 6,25 = 6,4.

4. Distribuciones muestrales (con J = 2, K = 3 y N = 30):a. FA Í F con J !1 = 1 y N ! JK = 24 grados de libertad, es decir, F1, 24.b. FB Í F con K !1 = 2 y N ! JK = 24 grados de libertad, es decir, F2, 24.c. FAB Í F con (J !1)(K !1) = 2 y N ! JK = 24 grados de libertad, es decir, F2, 24.

5. Zonas críticas:a. FA >$ F1, 24; 0,95 = 4,26.b. FB >$ F2, 24; 0,95 = 3,40.c. FAB >$ F2, 24; 0,95 = 3,40.

6. Reglas de decisión:a. Puesto que FA = 4,80 es mayor que el punto crítico 4,26, se rechaza H0 (A). Puede con-

cluirse que el rendimiento medio no es el mismo con tareas fáciles y con tareas difí-ciles. Por tanto, la dificultad de la tarea afecta al rendimiento.

b. Puesto que FB = 11,20 es mayor que el punto crítico 3,40, se rechaza H0 (B). Puede con-cluirse que el rendimiento medio no es el mismo en los tres niveles de ansiedad. Portanto, el nivel de ansiedad afecta al rendimiento.

c. Puesto que FAB = 6,4 es mayor que el punto crítico 3,40, se rechaza H0 (AB). Puede con-cluirse que el efecto de la interacción AB es estadísticamente significativo. Por tanto,el efecto de cada factor sobre el rendimiento está condicionado o modulado por lapresencia del otro factor.

Un estadístico F significativo indica que los promedios comparados no son iguales, pero nopermite concretar qué promedios difieren de qué otros. Para esto es necesario llevar a cabocomparaciones múltiples. Y en el caso de la interacción, además de realizar comparacionesmúltiples, es necesario recurrir a gráficos de perfil para precisar su significado. Más adelante,en el apartado Comparaciones múltiples, estudiaremos cómo hacer todo esto.

Page 14: 07_anova_2[1]

14 Análisis de datos (vol. II)

Supuestos del ANOVA de dos factores

Los estadísticos F propuestos en [7.16], [7.17] y [7.18] permiten tomar decisiones sobre susrespectivas hipótesis porque, si se dan ciertas condiciones, tienen distribución muestral cono-cida. Estas condiciones, a las que solemos llamar supuestos del contraste, son las que garan-tizan que la probabilidad de cometer errores Tipo I y II es la que estamos asumiendo que esy no otra.

Para poder definir los estadísticos F hemos considerado en todo momento que estábamostrabajando con muestras aleatorias procedentes de poblaciones normales con la misma varian-za. En estas condiciones iniciales están implícitos los tres supuestos que ya hemos estudiadoen el capítulo anterior a propósito del modelo de un factor: independencia, normalidad y ho-mocedasticidad. La única diferencia con el modelo de un factor es que ahora no tenemos Jpoblaciones, sino JK. Y asumimos que esas JK poblaciones son normales y tienen la mismavarianza; y también asumimos que, de cada una de esas poblaciones, tenemos una muestraaleatoria de observaciones independientes entre sí e independientes de las observaciones delresto de las muestras.

Efectos fijos y aleatorios

Hasta ahora, en todo momento hemos asumido que los dos factores del diseño son de efectosfijos (Modelo I). Si los dos factores son de efectos aleatorios, decimos que el modelo es deefectos aleatorios (Modelo II). Y si uno de los factores es de efectos fijos y el otro de efectosaleatorios, decimos que el modelos es de efectos mixtos (Modelo III).

Esta clasificación tiene su importancia porque la forma de obtener los estadísticos F vienecondicionada por el tipo de modelo utilizado, lo cual se debe a que el valor esperado de cadaefecto depende de la forma de establecer los niveles del correspondiente factor (ver Kirk,1995, págs. 373-375; Pardo y San Martín, 1998, págs. 349-351). A efectos prácticos, bastacon saber que los estadísticos F de cada modelo se obtienen tal como muestra la Tabla 7.7.El valor de las medias cuadráticas no cambia, pero sí cambian las medias cuadráticas que in-tervienen en la obtención de cada estadístico F.

Tabla 7.7. Estadísticos F correspondientes a cada modelo AB-CA

Modelo IA y B fijos

Modelo IIA y B aleatorios

Modelo IIIA fijo, B aleatorio

Modelo IIIA aleatorio, B fijo,

FA = MCA / MCE MCA / MCAB MCA / MCAB MCA / MCE

FB = MCB / MCE MCB / MCAB MCB / MCE MCB / MCAB

FAB = MCAB / MCE MCAB / MCE MCAB / MCE MCAB / MCE

Por supuesto, los grados de libertad de cada estadístico F son los grados de libertad de las me-dias cuadráticas en las que se basan. Por tanto, los grados de libertad del numerador de todoslos estadísticos F son los mismos en los tres modelos, pues las medias cuadráticas del nume-rador son las que corresponden a cada efecto; pero los grados de libertad del denominadorcambian dependiendo de la media cuadrática que interviene.

Page 15: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 15

Medidas del tamaño del efecto

Ya sabemos que el valor de un estadístico F no depende únicamente de la magnitud real delefecto analizado (es decir, de la verdadera diferencia entre las medias que compara), sino deltamaño de las muestras y del grado de variabilidad de las puntuaciones. Por tanto, una F sig-nificativa no necesariamente se corresponde con un efecto importante o un resultado relevantedesde el punto de vista teórico o práctico. Para detectar de un efecto o resultado de ese tipohemos venido utilizando medidas del tamaño del efecto: un estadístico F significativo indicaque existe algún tipo de relación; una medida del tamaño del efecto intenta cuantificar la mag-nitud de esa relación.

Una forma de cuantificar el tamaño del efecto consiste en estimar la proporción de varian-za compartida. Esto puede hacerse, por ejemplo con la medida de asociación eta-cuadrado( ). Ahora bien, en un modelo de dos factores hay tres efectos distintos (A, B y AB). Pode-mos obtener, por un lado, una medida global de la proporción de varianza compartida (unamedida basada en todos los efectos tomados juntos) y, por otro, una medida individual decada efecto por separado. La medida global se basa, lógicamente, en la MCI:

= [7.19]

El numerador de es una cuantificación de la variabilidad intergrupos, la cual incluye lavariabilidad entre las medias de A, entre las medias de B y entre las medias de las casillasrespecto de sus medias marginales. El denominador es una cuantificación de la variabilidadtotal. Por tanto, el valor de expresa el grado de asociación existente entre el conjunto deefectos presentes en el modelo y la variable dependiente. En nuestro ejemplo sobre la relaciónentre el rendimiento y la dificultad de la tarea y el nivel de ansiedad:

= =

Este valor indica que el conjunto de efectos presentes en el modelo (la dificultad de la tarea,el nivel de ansiedad y la interacción entre dificultad y ansiedad) comparten el 63 % de la va-rianza del rendimiento. Esto significa que nuestro conocimiento del rendimiento de los sujetosmejora un 63 % cuando conocemos su nivel de ansiedad y la dificultad de la tarea que reali-zan. La ecuación [7.19] puede formularse de esta otra manera:

= [7.20]

Sustituyendo en [7.20] los grados de libertad y el estadístico F correspondientes a cada efecto(A, B y AB), es posible obtener una estimación de cada efecto (estas estimaciones se llamanparciales porque en el denominador no se utiliza la variabilidad total, sino la del correspon-diente efecto y la del error). Por ejemplo, con el efecto del factor B, la ecuación [7.20] adoptala siguiente forma:

= = =

Page 16: 07_anova_2[1]

16 Análisis de datos (vol. II)

6 Si el estadístico F es menor que 1, el valor de es negativo. Puesto que una proporción no puede ser negativa, cuandoocurre esto se considera que vale cero.

Este valor indica que el nivel de ansiedad (factor B) comparte el 48 % de la varianza del rendi-miento. Por tanto, saber cuál es el nivel de ansiedad de los sujetos permite mejorar un 48 %nuestro conocimiento del rendimiento.

Aunque esta forma de estimar el tamaño de un efecto esta muy extendida (es, por ejem-plo, la que utiliza el SPSS), lo cierto es que las estimaciones que se obtienen con (tantosi son parciales como si no) contienen un sesgo importante (están infladas; ver Fowler, 1985).Algunas correcciones pueden atenuar este sesgo (ver capítulo anterior), pero, en lugar de apli-car estas correcciones, suele ser más recomendable utilizar la medida de asociación omega-cuadrado ( ).

El valor concreto de depende de si los factores son de efectos fijos o de efectos alea-torios (ver Winer, Brown y Michels, 1991, págs. 405-415). Cuando ambos factores son deefectos fijos (Modelo I), el valor para cada efecto por separado puede obtenerse aplicandola siguiente regla6:

= = [7.22]

Sustituyendo efecto por A, B y AB puede obtenerse el valor de para cada efecto. Por ejem-plo, con el efecto del factor B, tenemos

= = =

que es un valor menor que el obtenido con porque, como ya se ha señalado, sueleofrecer estimaciones infladas de la verdadera proporción de varianza compartida.

Para interpretar el tamaño de , Cohen (1988) ha propuesto una especie de regla generalque puede resultar útil en muchos contextos aplicados: valores en torno a 0,01, 0,06 y 0,14indican, por lo general, asociaciones de intensidad baja, media y alta, respectivamente.

La Tabla 7.8 muestra los valores de y obtenidos al aplicar las ecuaciones [7.20]y [7.22] a los datos de nuestro ejemplo sobre la relación entre el rendimiento, la dificultad dela tarea y el nivel de ansiedad (ver Tabla 7.5). Puede comprobarse que, efectivamente, los va-lores parciales de son sistemáticamente menores que los valores parciales de .

Tabla 7.8. Medidas del tamaño del efecto

Efecto

A 0,17 0,11B 0,48 0,40AB 0,35 0,26

Al igual que para el modelo de un factor (ver capítulo anterior, ecuación [6.11]), Cohen(1988) ha propuesto, para el modelo de dos factores, una medida del tamaño del efecto basada

Page 17: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 17

en una tipificación de la diferencia entre los promedios comparados. Su estrecha relación con permite obtener este estadístico a partir de lo que ya sabemos:

= [7.23]

(aunque el propio Cohen llama f a su medida del tamaño del efecto, nosotros seguiremosmanteniendo la consistencia en nuestra notación para evitar confusión). Siguiendo la regla yaconocida, valores en torno a 0,10, 0,25 y 0,40 representan, respectivamente, efectos de ta-maño pequeño, mediano y grande.

Cálculo de la potencia y del tamaño muestral

Al igual que en el capítulo anterior, el cálculo de la potencia que presentamos en este apartadose basa en una medida del tamaño del efecto llamada (phi) y en la distribución F no cen-trada (Tabla G del Apéndice final).

El valor del parámetro es una transformación del parámetro de no centralidad λ (verecuación [6.18]) que puede estimarse aplicando la misma lógica utilizada en el capítulo ante-rior (ver ecuación [6.20]). La única diferencia es que, ahora, no tenemos un único efecto, sinotres. Y cada efecto (por tanto, cada estadístico F ) tiene asociado un parámetro de no centra-lidad y, consecuentemente, un valor que puede estimarse mediante:

=

= [7.24]

=

Estos estadísticos representan una cuantificación del tamaño de cada efecto. De hecho, estánestrechamente relacionados con la medida del tamaño del efecto de Cohen:

= [7.25]

(donde nefecto = nK para el efecto de A, nefecto = nJ para el efecto de B y nefecto = n para el efectode AB).

En nuestro ejemplo sobre la relación entre el rendimiento, la dificultad de la tarea y el ni-vel de ansiedad (ver Tabla 7.5) tenemos J = 2, K = 3, MCA = 30, MCB = 70, MCAB = 40 y MCE= 6,25. Por tanto,

= =

= =

= =

Para calcular la potencia asociada al contraste del efecto del factor B, por ejemplo, necesita-mos α = 0,05, gl1 = K ! 1 = 2, gl2 = N ! JK = 24 y = 2,73. En la Tabla G del Apéndice

Page 18: 07_anova_2[1]

18 Análisis de datos (vol. II)

final (redondeando a = 2,6) encontramos que la probabilidad de cometer errores Tipo II (β)vale 0,03. Por tanto, la potencia de este contraste (1 ! β) vale 1! 0,03 = 0,97 (puesto que tantogl2 como se han redondeado a la baja, es muy posible que el valor real de la potencia seauna o dos décimas mayor de 0,97).

Este valor (0,97) es la potencia observada, es decir la potencia del contraste cuando seasume que la diferencia poblacional entre los niveles del factor B (el verdadero tamaño delefecto) es la diferencia de hecho observada. Para conocer de antemano la potencia de un estu-dio concreto es necesario calcular el tamaño muestral que permitirá alcanzar la potencia de-seada. Y para esto, basta con tener en cuenta la relación establecida en [7.24]:

n = [7.26]

Imaginemos un estudio con J = 3 y K = 4. Supongamos que, para evaluar el efecto del factorB con α = 0,05, queremos que la potencia del contraste para detectar un efecto de tamañomedio (δ = 0,25 siguiendo la regla de Cohen) valga 0,80 (β = 0,20). Tenemos que utilizar laTabla G al revés de como lo hemos hecho antes. Conocemos gl1 = 3, pero no gl2 (este valordepende del tamaño muestral que estamos buscando. Esto, sin embargo, no representa ningúnproblema porque utilizar un valor de partida de 30 o mayor no hace cambiar las cosas. Vamosa elegir, por ejemplo, gl2 = . Con gl1 = 3, gl2 = y β = 0,20 (tomamos 0,23), la Tabla Garroja un valor = 1,6. Por tanto, n = (1,6 / 0,25)2 = 40,96. Es decir, hacen falta aproxima-damente 41 sujetos por grupo para alcanzar una potencia de 0,80.

Comparaciones múltiplesLos estadísticos FA, FB y FAB permiten valorar los efectos globales de A, de B y de AB, respec-tivamente, y decidir cuál de ellos es estadísticamente significativo. El rechazo de la hipótesisnula referida al efecto del factor A indica que las medias poblacionales correspondientes a losniveles de ese factor no son iguales, pero no permite precisar qué media en concreto difierede qué otra (este es el mismo problema que nos hemos encontrado en el capítulo anterior alestudiar el modelo de un factor). Lo mismo vale decir del efecto de B y de su hipótesis nula.Y el rechazo de la hipótesis nula referida al efecto de la interacción indica que el efecto com-binado de los factores A y B difiere de la suma de los efectos individuales de ambos factores,pero no permite precisar cuál es el significado de esa diferencia.

Por tanto, en los tres casos (A, B y AB), el rechazo de la correspondiente hipótesis nulaestá delatando la presencia de un efecto significativo sin llegar a precisar la naturaleza o elsignificado del mismo. Tanto para conocer con exactitud qué niveles de un factor difieren dequé otros como para poder entender el significado de una interacción es necesario continuarel análisis aplicando procedimientos de comparaciones múltiples.

A los efectos individuales de A y B los hemos llamado efectos principales. Al efectocombinado de A y B lo hemos llamado efecto de la interacción. En nuestro ejemplo sobrela relación entre la dificultad de la tarea (fácil, difícil), el nivel de ansiedad (bajo, medio, alto)y el rendimiento, el efecto de la dificultad de la tarea es un efecto principal; el efecto del nivelde ansiedad es un efecto principal; y el efecto combinado de la dificultad de la tarea y delnivel de ansiedad es el efecto de la interacción. Para poder entender el significado de la inte-racción entre factores es necesario definir un nuevo tipo de efectos llamados efectos simples,

Page 19: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 19

es decir, los efectos de una factor en cada uno de los niveles del otro. El efecto de la dificultadde la tarea en un nivel concreto de ansiedad (por ejemplo, nivel bajo) es un efecto simple.Volveremos sobre esto enseguida.

Efectos principales

Para realizar comparaciones múltiples con los niveles del factor A y con los niveles del factorB no tenemos que aprender nada nuevo. Todos los procedimientos de comparaciones múlti-ples estudiados en el capítulo anterior son aplicables a cada uno de los factores de un diseñofactorial completamente aleatorizado. Esto significa que puede utilizarse la prueba de Dunn-Bonferroni para realizar comparaciones planeadas y de tendencia; la prueba de Dunnett pararealizar comparaciones con un grupo control, si existe; y las pruebas de Tukey y Scheffé pararealizar comparaciones post hoc. Únicamente hay que tener en cuenta unas sencillas modifica-ciones que afectan a las ecuaciones [6.34] a la [6.46]:

1. El subíndice “j ” debe cambiarse por los subíndices “j +” al analizar los niveles del factorA y por los subíndices “+ k ” al analizar los niveles del factor B. Así, por ejemplo, paracomparar las medias del factor A, en lugar de utilizar Y

_j utilizaremos Y

_j + y en lugar de

utilizar nj utilizaremos nk +, es decir, nK.2. El número de niveles del factor A sigue siendo J (igual que en el modelo de un factor),

pero el número de niveles del factor B es K. Por tanto, al analizar los niveles del factorB, J debe sustituirse por K.

3. Los grados de libertad asociados a MCE en el modelo de un factor (N ! J ) deben sustituir-se por los grados de libertad asociados a MCE en el modelo de dos factores (N ! JK ).

Ejemplo. Comparaciones múltiples: efectos principales

En nuestro ejemplo sobre la relación entre el rendimiento, la dificultad de la tarea (fácil, difí-cil) y el nivel de ansiedad (bajo, medio, alto) hemos declarado estadísticamente significativoslos dos efectos principales presentes en el diseño: el del factor A y el del factor B.

El resultado obtenido con el efecto del factor A (dificultad de la tarea) indica que el rendi-miento medio es más alto con tareas fáciles que con tareas difíciles. Como el factor A sólo tie-ne dos niveles no es necesario seguir haciendo comparaciones (las comparaciones múltiplesúnicamente tienen sentido cuando se tienen más de dos medias).

El resultado obtenido con el efecto del factor B (nivel de ansiedad) indica que el rendi-miento medio no es el mismo en los tres niveles de ansiedad. Para seguir indagando en esteresultado vamos a realizar dos comparaciones. En la primera vamos a comparar el grupo denivel de ansiedad medio (que es el grupo del que cabe esperar un mayor rendimiento) con losotros dos grupos tomados juntos; en la segunda, el grupo de menor ansiedad (grupo 1) conel de mayor ansiedad (grupo 3); es decir,

= (!1) µ 1 + (2) µ 2 + (!1) µ 3

= (1) µ 1 + (0) µ 2 + (!1) µ 3

Page 20: 07_anova_2[1]

20 Análisis de datos (vol. II)

Se trata de dos comparaciones ortogonales (pues la suma del producto de sus coeficientes valecero: (!1) (1) + (2) (0) + (!1) (!1) = 0). Vamos a aplicar la prueba de Dunn-Bonferroni.Recordemos que Y

_+1 = 10, Y

_+2 = 14, Y

_+3 = 9 y MCE = 6,25:

1. Hipótesis: H0 (1) : = 0 ; H1 (1) : =/ 0.H0 (2) : = 0 ; H1 (2) : =/ 0.

2. Supuestos: tenemos 3 muestras de tamaño nJ = 10 aleatoriamente seleccionadas de po-blaciones que asumimos normales y con la misma varianza.

3. Estadísticos del contraste (ver ecuación [6.35] en el capítulo anterior):

! = = = =

! = =

= =

! TDB (1) = = = TDB (2) = = =

4. Distribución muestral: los puntos críticos de la distribución muestral de TDB están en laTabla J del Apéndice final, con αF = 0,05, k = 2 y glerror = N ! JK = 30 ! 2(3) = 24.

5. Zona crítica: TDB >$ t2, 24; 0,05 = 2,39.6. Decisión: únicamente el valor TDB (1) = 4,64 es mayor que el punto crítico 2,39. Por tanto,

debe rechazarse H0 (1) pero no H0(2). El rechazo de H0(1) indica que la media del grupo 2(nivel de ansiedad medio) difiere de la media de los otros dos grupos tomados juntos. Yel no rechazo de H0(2) indica que, con los datos disponibles, no es posible afirmar que elrendimiento medio de los grupos 1 y 3 (los grupos de menor y mayor ansiedad) sea dis-tinto. Aunque estos contrastes son bilaterales, el valor positivo de indica que el ren-dimiento medio del segundo grupo (es decir, del grupo ponderado con un coeficientepositivo en ) es mayor que el rendimiento medio de los otros dos grupos tomadosjuntos.

Es muy importante tener en cuenta que el significado de un efecto principal está condicionadopor el efecto de la interacción. Aunque volveremos sobre esta cuestión, conviene empezar atomar conciencia de un hecho que no siempre es correctamente tenido en cuenta en la investi-gación aplicada.

Cuando no existe interacción, los efectos principales agotan toda la información del dise-ño. Imaginemos que, en nuestro ejemplo sobre la relación entre el rendimiento, la dificultadde la tarea y el nivel de ansiedad, el efecto de la interacción no fuera significativo. Si ése fue-ra el caso, el resultado obtenido con el factor A (dificultad de la tarea) estaría indicando queel rendimiento medio es significativamente más alto con tareas fáciles (media = 12) que contareas difíciles (media = 10). Y el resultado obtenido con el factor B estaría indicando que elrendimiento medio es más alto cuando el nivel de ansiedad es medio (media = 14) que cuando

Page 21: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 21

es bajo (media = 10) o alto (media = 9). Pero el hecho de que el efecto de la interacción seasignificativo lo cambia todo. Una interacción significativa acapara todo el protagonismo deldiseño relegando los efectos principales a un segundo plano. Más adelante veremos cómo seproduce esto. Pero, de momento, lo que indican los resultados de nuestro ejemplo es que elefecto de la interacción es significativo y esto hace que ya no sea posible afirmar que el ren-dimiento con las tareas fáciles es mejor que con las tareas difíciles, pues esto depende delnivel de ansiedad de los sujetos; y tampoco es posible afirmar que el rendimiento medio esmejor cuando el nivel de ansiedad es medio que cuando es bajo o alto, pues esto depende dela dificultad de la tarea. Volveremos sobre este importante aspecto del análisis en el apartadoEfecto de la interacción

Efectos simples

Un efecto simple es el efecto de un factor cuando únicamente se tiene en cuenta un único ni-vel del otro factor.

Consideremos un diseño 2 × 3 como el que se muestra en la Tabla 7.9. Para valorar elefecto del factor A se comparan las medias de sus dos niveles, es decir las medias de las filas:µ 1+ ! µ 2+. La diferencia entre estas medias representa el efecto principal del factor A.

Un efecto simple consiste en esto mismo pero referido a un único nivel de B. Por ejemplo,la comparación entre las medias µ 11 ! µ 21 es un efecto simple: el efecto simple de A en b1; lacomparación entre las medias µ 12 ! µ 22 es el efecto simple de A en b2; y la comparación entrelas medias µ 13 ! µ 23 es el efecto simple de A en b3. Por tanto, el factor A puede descompo-nerse en tres efectos simples, uno por cada nivel de B.

Tabla 7.9. Medias poblacionales en un diseño 2 × 3

b1 b2 b3

a 1 µ 11 µ 12 µ 13 µ 1+

a 2 µ 21 µ 22 µ 23 µ 2+

µ +1 µ +2 µ +3 µ

Estos efectos pueden evaluarse de la forma convencional contrastando la hipótesis nula deigualdad de medias:

: µ 1 k = µ 2 k = · · · = µ J k [7.27]

Contrastar esta hipótesis nula equivale llevar a cabo un ANOVA de un factor (el factor A) concada nivel del factor B. Haciendo

= [7.28]

que es exactamente lo que haríamos si aplicáramos un ANOVA de un factor K veces paracomparar las medias de A. La hipótesis [7.27] puede ponerse a prueba mediante el cociente

= [7.29]

Page 22: 07_anova_2[1]

22 Análisis de datos (vol. II)

que se distribuye según F con J ! 1 y N ! JK grados de libertad (debe tenerse en cuenta quehay K contrastes de este tipo, es decir, uno por cada efecto simple de A, es decir, uno por cadanivel de B ).

Exactamente lo mismo vale decir del factor B. La comparación entre las medias de losniveles del factor B en el primer nivel de A constituyen el efecto simple de B en a1. Y la com-paración entre las medias de los niveles del factor B en el segundo nivel de A constituyen elefecto simple de B en a2. Estos efectos simples pueden evaluarse contrastando la hipótesisnula de que las medias involucradas son iguales:

: µ j 1 = µ j 2 = · · · = µ j K [7.30]

Y, siguiendo la misma lógica que para los efectos simples del factor A, la media cuadráticaasociada a cada efecto simple del factor B puede obtenerse

= [7.31]

y, a partir de esta media cuadrática, es posible contrastar la hipótesis nula [7.30] mediante elestadístico

= [7.32]

que se distribuye según F con K ! 1 y N ! JK grados de libertad (debe tenerse en cuenta quehay J contrastes de este tipo, es decir, uno por cada efecto simple de B, es decir, uno por cadanivel de A).

El análisis de los efectos simples sólo tiene sentido cuando el efecto de la interacción ABes significativo. Según veremos en el siguiente apartado, una interacción significativa implicaque los efectos simples de A (también los de B) no son iguales entre sí, de ahí que tenga sen-tido estudiarlos par valorar cómo difieren. Pero si la interacción no es significativa, no haymotivo para analizar los efectos simples: todos ellos dirán lo mismo que el correspondienteefecto principal.

Ejemplo. Comparaciones múltiples: efectos simples

Volvamos a nuestro ejemplo sobre la relación entre el rendimiento, la dificultad de la tarea(fácil, difícil) y el nivel de ansiedad (bajo, medio, alto). Los datos de este ejemplo se encuen-tran en la Tabla 7.5. Y la Tabla 7.10 ofrece un resumen de esos datos con las medias de lascasillas y las medias marginales. Recordemos que J = 2, K = 3, n = 5 y MCE = 6,25.

Tabla 7.10. Medias correspondientes a los datos de la Tabla 7.5

b1 b2 b3

a1 13 15 8 12

a2 7 13 10 10

10 14 9 11

Page 23: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 23

Veamos cómo contrastar los efectos simples de A en cada nivel de B aplicando las ecuaciones[7.27], [7.28] y [7.29]:

1. Hipótesis: : µ 11 = µ 21

: µ 12 = µ 22

: µ 13 = µ 23

2. Supuestos: tenemos 6 muestras de tamaño n = 5 aleatoriamente seleccionadas de pobla-ciones que asumimos normales y con la misma varianza.

3. Estadísticos del contraste:

! = = 5 [(13 !10)2 + (7 !10)2 ] / (2 !1) = 90.

= = 5 [(15 !14)2 + (13 !14)2 ] / (2 !1) = 10.

= = 5 [(8 ! 9)2 + (10 ! 9)2 ] / (2 !1) = 10.

! = = 90 / 6,25 = 14,4. = = 10 / 6,25 = 1,6. = = 10 / 6,25 = 1,6.

4. Distribuciones muestrales: los tres estadísticos se aproximan a la distribución deprobabilidad F con J !1 = 2 !1 = 1 y N ! JK = 30 ! 6 = 24 grados de libertad.

5. Zona crítica: >$ F1, 24; 0,95 = 4,26.6. Decisiones: sólo el estadístico (14,4) es mayor que el punto crítico (4,26). Es decir,

sólo es significativo el efecto simple de A en b1. Por tanto, puede concluirse que la dificul-tad de la tarea (efecto de A) únicamente afecta al rendimiento cuando el nivel de ansiedadde los sujetos es bajo (b1); cuando el nivel de ansiedad es medio (b2) o alto (b3), no puedeafirmarse que el rendimiento se vea afectado por la dificultad de la tarea.

Conviene llamar la atención sobre dos cuestiones relativas al análisis de los efectos simples.La primera de ellas tiene que ver con el control de la tasa de error. A pesar de que el análisisde los efectos simples implica llevar a cabo varias comparaciones, el procedimiento propuestono incorpora ningún mecanismo de control de la tasa de error. Cuando los factores tienen doso tres niveles, esto no es un problema importante porque el número de efectos que se analizanes muy pequeño. Pero cuando los factores tienen más niveles, la falta de control sobre la tasade error puede convertirse en un problema serio. Aunque no existe un acuerdo generalizadoacerca de cuál es la mejor manera de controlar la tasa de error cuando se analizan efectos sim-ples, siempre cabe la posibilidad de controlar αF aplicando la corrección de Bonferroni, lacual, recordemos, consiste realizar cada contraste utilizando αC = αF / k en lugar de αC = αF(k se refiere aquí al número de efectos simples asociados a cada factor).

La segunda cuestión tiene que ver con las posibilidades que surgen cuando un efecto sim-ple es declarado significativo. Afirmar que el efecto de A en b1 es significativo es lo mismoque decir que los promedios comparados en no son iguales. En nuestro ejemplo, elfactor A sólo tiene dos niveles y, consecuentemente, no es necesario hacer ningún análisisadicional porque los promedios que difieren sabemos que son justamente los dos comparados.

Page 24: 07_anova_2[1]

24 Análisis de datos (vol. II)

Pero si un efecto simple incluye más de dos medias, el rechazo de la hipótesis nula podríaestar exigiendo continuar el análisis para poder determinar qué medias en concreto difierende qué otras. Esto puede hacerse definiendo comparaciones lineales del tipo

= c1 µ 1k + c2 µ 2k + · · · + cJ µ J k [7.33]

y contrastando la hipótesis nula de que la comparación vale cero mediante la prueba de Dunn-Bonferroni (ver capítulo anterior). En nuestro ejemplo, los efectos simples de B en a1 y a2 sonambos significativos. Y estos efectos incluyen tres medias. Para saber qué medias difieren dequé otras habría que realizar comparaciones del tipo propuesto en [7.33] y contrastarlas talcomo se ha hecho en el capítulo anterior.

Efecto de la interacción

La interacción entre factores ya la hemos definido al comienzo del capítulo. Existe interacciónentre dos factores cuando el efecto de uno de ellos sobre la variable dependiente no es el mis-mo en todos los niveles del otro factor. Dicho de otro modo, existe interacción cuando losefectos simples de un mismo efecto principal no son iguales.

De la misma manera que es posible definir comparaciones lineales de un grado de libertadpara interpretar, descomponiéndolo, un efecto principal (esto es lo que hacemos, por ejemplo,con las comparaciones planeadas y las de tendencia), también es posible definir compara-ciones lineales de un grado de libertad para conseguir interpretar una interacción significativa.El número de éstas comparaciones puede llegar a ser muy elevado (Abelson, 1997, pág. 318),pero las comparaciones que más ayudan a los investigadores a interpretar una interacción sig-nificativa suelen ser aquellas que permiten comparar entre sí los efectos simples. Por ejemplo,en un diseño factorial 2 × 3 como el propuesto en la Tabla 7.9, la necesidad de interpretar unainteracción significativa quedará satisfecha, normalmente, comparando entre sí cada efectode A en cada nivel de B, es decir, comparando entre sí los efectos simples de A (o comparandoentre sí los efectos simples de B, lo cual es equivalente desde el punto de vista de las conclu-siones que se alcanzan).

Ahora bien, para comparar entre sí los efectos simples de A no basta con valorar si unefecto simple es significativo y otro no para, de esta forma, decidir que son distintos. A pesardel uso generalizado de esta estrategia, lo cierto es que no sirve para aislar el efecto de la inte-racción. Un efecto simple incluye parte del correspondiente efecto principal y parte del efectode la interacción (ver Kirk, 1995, págs. 380-381). Esto implica que un efecto simple puedeser significativo porque lo es su parte de efecto principal, porque los es su parte de interaccióno porque lo son ambas partes. Por tanto, para comparar entre sí los efectos simples no bastacon saber cuáles son significativos y cuáles no (ver Pardo, Garrido, Ruiz y San Martín, 2007).Comparar entre sí los efectos simples de A requiere:

1. Comparar la diferencia entre µ 11 y µ 21 (o efecto simple de A en b1) con la diferencia entreµ 12 y µ 22 (o efecto simple de A en b2);

2. Comparar la diferencia entre µ 11 y µ 21 (o efecto simple de A en b1) con la diferencia entreµ 13 y µ 23 (o efecto simple de A en b3);

3. Comparar la diferencia entre µ12 y µ22 (o efecto simple de A en b2), con la diferencia entreµ 13 y µ 23 (o efecto simple de A en b3).

Page 25: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 25

7 En un diseño 2 × 2 (dos factores con dos niveles cada factor), unas sencillas transformaciones permiten comprobar quela definición de no interacción propuesta en [7.8] equivale a:µ 11 ! µ 21 = µ 12 ! µ 22 [7.34]

La comparación [7.34] es la que corresponde al único grado de libertad asociado a la interacción en un diseño 2 × 2. Portanto, si el estadístico F asociado al efecto de la interacción es significativo, una interpretación basada en las diferenciascomparadas en [7.34] agota el significado de la interacción, lo cual implica que no es necesario recurrir a comparacionesadicionales para interpretar una interacción significativa.

Debe tenerse en cuenta que, si se verifica [7.34], también se verifica µ 11 ! µ 12 = µ 21 ! µ 22 ; por tanto, una interacción sig-nificativa en un diseño 2 × 2 puede interpretarse recurriendo a cualquiera de estas dos comparaciones, sin necesidad de cál-culos adicionales.

2

3

1

Es decir, comparar entre sí los efectos simples de A requiere efectuar estas tres7 comparacio-nes:

ψ1 = ( µ 11 ! µ 21 ) ! ( µ 12 ! µ 22 )ψ2 = ( µ 11 ! µ 21 ) ! ( µ 13 ! µ 23 ) [7.35]ψ3 = ( µ 12 ! µ 22 ) ! ( µ 13 ! µ 23 )

Por tanto, comparar los efectos simples requiere comparar diferencias. Ordenando y asignan-do coeficientes se obtiene

ψ1 = (1) µ 11 + (!1) µ 12 + (0) µ 13 + (!1) µ 21 + (1) µ 22 + (0) µ 23

ψ2 = (1) µ 11 + (0) µ 12 + (!1) µ 13 + (!1) µ 21 + (0) µ 22 + (1) µ 23 [7.36]ψ3 = (0) µ 11 + (1) µ 12 + (!1) µ 13 + (0) µ 21 + (!1) µ 22 + (1) µ 23

En la Figura 7.3 están representadas las medias de la Tabla 7.6. Los recuadros 1, 2 y 3 añadi-dos al gráfico representan los efectos simples de A (dificultad de la tarea) en cada nivel de B(nivel de ansiedad). Con la comparación ψ1 se intenta averiguar si lo que ocurre en el recua-dro 1 difiere o no de lo que ocurre en el recuadro 2; con la comparación ψ2 se intenta averi-guar si lo que ocurre en el recuadro 1 difiere o no de lo que ocurre en el recuadro 3; y con lacomparación ψ3 se intenta averiguar si lo que ocurre en el recuadro 2 difiere o no de lo queocurre en el recuadro 3. Estas tres comparaciones aíslan el efecto de la interacción y son inde-pendientes del efecto principal de A (ver Pardo, Garrido, Ruiz y San Martín, 2007).

Para contrastar hipótesis del tipo ψh = 0 puede utilizarse la prueba de Dunn-Bonferronien los términos ya conocidos. El siguiente ejemplo muestra cómo hacer esto.

Figura 7.3. Gráfico de líneas correspondiente a las medias de la Tabla 7.6.

Page 26: 07_anova_2[1]

26 Análisis de datos (vol. II)

Ejemplo. Comparaciones múltiples: efecto de la interacción

En nuestro ejemplo sobre la relación entre el rendimiento, la dificultad de la tarea (fácil, di-fícil) y el nivel de ansiedad (bajo, medio, alto) hemos encontrado que el efecto de la interac-ción es significativo. Para interpretar este efecto vamos a realizar dos tareas: (1) comparar en-tre sí los efectos simples y (2) representar las medias de las casillas en un gráfico de líneas.La primera tarea es imprescindible para saber dónde se encuentran las diferencias; la segundaes recomendable para entender mejor lo que está ocurriendo.

Las medias de las casillas (Tabla 7.6) están representadas en el gráfico de líneas de la Fi-gura 7.3. Un gráfico de líneas, también llamado gráfico de perfiles, se construye colocandouno de los factores en el eje horizontal (normalmente el que tiene más niveles) y las mediasen el vertical. En el interior del gráfico se representan las medias uniendo con líneas las quecorresponden al mismo nivel del segundo factor (el que no se ha colocado en el eje horizon-tal). En el gráfico de la Figura 7.3, cada línea (cada efecto simple de B en aj) se correspondecon una fila de la Tabla 7.6 y cada recuadro (cada efecto simple de A en bk) con una columna.

Tabla 7.6 (bis). Medias de las casillas de la Tabla 7.5

b1 b2 b3

a1 13 15 8

a2 7 13 10

1. Hipótesis: H0 (1) : = 0 ; H1 (1) : =/ 0.H0 (2) : = 0 ; H1 (2) : =/ 0.H0 (3) : = 0 ; H1 (3) : =/ 0.

Estas hipótesis se refieren a las tres comparaciones definidas más arriba, las cuales, segúnse ha señalado ya, permiten comparar entre sí, por pares, los tres efectos simples de A (esdecir, los tres efectos simples marcados con un recuadro en la Figura 7.3).

2. Supuestos: tenemos 6 muestras de tamaño n = 5 aleatoriamente seleccionadas de pobla-ciones que asumimos normales y con la misma varianza.

3. Estadísticos del contraste (ver ecuaciones [6.34] y [6.35] en el capítulo anterior):! = (1)13 + (!1)15 + (0) 8 + (!1) 7 + (1)13 + (0)10 = 4.

= (1)13 + (0)15 + (!1) 8 + (!1) 7 + (0)13 + (1)10 = 8. = (0)13 + (1)15 + (!1) 8 + (0) 7 + (!1)13 + (1)10 = 4.

! = = 2,236.

Puesto que los coeficientes de las tres comparaciones son los mismos (aunque en dis-tinto diferente orden), las tres comparaciones tienen el mismo error típico.

! TDB (1) = = 4 / 2,24 = 1,79.TDB (2) = = 8 / 2,24 = 3,58.TDB (2) = = 4 / 2,24 = 1,79.

Page 27: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 27

8 El grado en que un efecto principal puede verse alterado por la presencia de una interacción significativa depende de variosfactores, pero uno bastante determinante es que las líneas del gráfico de perfiles se crucen (interacción no ordinal) o no(interacción ordinal).

4. Distribución muestral: los puntos críticos de la distribución muestral de TDB están en laTabla J del Apéndice final, con αF = 0,05, k = 3 y glerror = N ! JK = 30 ! 2(3) = 24.

5. Zona crítica: TDB >$ t3, 24; 0,05 = 2,57.6. Decisión: únicamente el valor de TDB (2) = 3,58 es mayor que el punto crítico 2,57. Por

tanto, debe rechazarse H0 (2) pero no H0 (1) ni H0 (3). El rechazo de H 0(2) indica que el efectosimple de A en b1 difiere del efecto simple de A en b3. Referido al gráfico de la Figura 7.3,esto significa que lo que ocurre en el recuadro 1 no es lo mismo que lo que ocurre en elrecuadro 3. Y lo que esto quiere decir es que el efecto de la dificultad de la tarea sobre elrendimiento (efecto de A) no es el mismo cuando el nivel de ansiedad de los sujetos es ba-jo (b1) que cuando es alto (b2). En la tabla de medias (Tabla 7.6) se puede observar que,cuando el nivel de ansiedad es bajo (b1), el rendimiento en las tareas fáciles es 6 puntosmayor que en las difíciles; mientras que, cuando el nivel de ansiedad es alto (b3), el rendi-miento medio en las tareas fáciles es 2 puntos menor que en las difíciles. El rechazo deH 0(2) indica que la diferencia entre estas diferencias (los 8 puntos de la comparación nº 2)es estadísticamente significativa.

Por tanto, el resultado más destacable del análisis del efecto de la interacción es queel efecto de la dificultad de la tarea (A) sobre el rendimiento (Y) es uno cuando el nivel dedificultad es bajo (b1) y otro distinto cuando el nivel de ansiedad es alto (b3).

Los resultados del análisis también indican que no es posible afirmar que el efectosimple de A en b1 difiera del efecto simple de A en b2 (comparación nº 1 no significativa),ni tampoco que el efecto simple de A en b2 difiera del efecto simple de A en b3 (compa-ración nº 3 no significativa).

Tres comentarios más sobre el efecto de la interacción. En primer lugar, conviene saber queel efecto de la interacción puede ser significativo tanto si los efectos principales son signifi-cativos como si no. Y al revés.

En segundo lugar, es importante recordar que los efectos simples no informan de lo mis-mo que el efecto de la interacción. Interpretar la interacción requiere comparar efectos sim-ples; pero, analizar los efectos simples y decidir que difieren cuando unos son significativosy otros no, no es comparar los efectos simples. En nuestro ejemplo sobre la relación entre elrendimiento, la dificultad de la tarea y el nivel de ansiedad, hemos encontrado que el efectosimple de A en b1 era significativo y que los efectos simples de A en b2 y b3 no lo eran. ¿Signi-fica esto que lo que ocurre con el efecto de A en b1 difiere de lo que ocurre con el efecto deA en b2 y en b3? La respuesta es no: las comparaciones entre efectos simples llevadas a caboen este apartado indican otra cosa. En el Apéndice 7 se discute más a fondo esta cuestión.

Por último, también es importante saber qué hacer con los efectos principales en presen-cia de una interacción significativa. Dado que una interacción significativa está indicando queel efecto de un factor no es el mismo en todos los niveles del otro factor, puede afirmarse queel significado de los efectos principales queda matizado (incluso alterado) por la presenciade una interacción significativa8 (ver León y Montero, 2003, págs. 278-282).

Page 28: 07_anova_2[1]

28 Análisis de datos (vol. II)

9 La lista Factores aleatorios permite ajustar modelos con factores de efectos aleatorios. La lista Covariables permite ajustarmodelos de análisis de covarianza (ver Apéndice 10). Y el cuadro Ponderación MCP permite utilizar una variable deponderación. En los modelos de ANOVA se asume que la varianza de la variable dependiente es la misma en todas laspoblaciones objeto de estudio. Cuando las varianzas poblacionales no son iguales (por ejemplo, cuando las casillas conpuntuaciones mayores muestran más variabilidad que las casillas con puntuaciones menores), el método de mínimoscuadrados no consigue ofrecer estimaciones óptimas. En estos casos, si la diferencia en la variabilidad de las casillas puedeestimarse a partir de alguna variable, el método de mínimos cuadrados ponderados (MCP) permite tener en cuenta esavariable de ponderación al estimar los parámetros de un modelo lineal, dando más importancia a las observaciones másprecisas (es decir, a aquéllas con menor variabilidad).

Algunos autores sugieren que, siendo significativa la interacción, todavía podría tener sentidointerpretar los efectos principales en determinadas circunstancias (ver, por ejemplo, Howell,2002, pág. 432; Keppel y Wickens, 2004, pág. 244; León y Montero, 2003, págs. 278-279 y295), pero otros muchos recomiendan no prestar atención a los efectos principales en presen-cia de una interacción significativa (Games, 1973, pág. 305; Kirk, 1995, pág. 370; Maxwelly Delaney, 2004, pág. 301; Pedhazur y Pedhazur, 1991, pág. 523; Winer, Brown y Michels,1991, págs. 326-327). Cualquiera que sea la postura que se adopte, lo importante es tener pre-sente que, si el efecto de la interacción es significativo, los efectos principales no sólo no esta-rán contando toda la historia, sino que, además, es muy posible que la estén contando mal.Y esto es algo que no debe pasarse por alto.

ANOVA de dos factores completamente aleatorizados con SPSSEn este apartado se explica cómo utilizar el SPSS para: (1) contrastar las hipótesis globalesreferidas a los efectos de A, de B y de AB en un diseño de dos factores completamente aleato-rizados, (2) estimar el tamaño del efecto y la potencia observada de esos tres efectos, (3) reali-zar comparaciones post hoc para interpretar los efectos principales, (4) realizar comparacionesmúltiples para valorar los efectos simples y (5) realizar comparaciones múltiples para valorarel efecto de la interacción.

Todas estas tareas pueden llevarse a cabo con el procedimiento Univariante. No obstante,veremos que las comparaciones necesarias para analizar el efecto de la interacción (la 5ª ta-rea) es más fácil llevarlas a cabo con el procedimiento ANOVA de un factor. Utilizaremos elejemplo sobre la relación entre el rendimiento (variable dependiente), la dificultad de la tarea(factor A) y el nivel de ansiedad (factor B ); es decir, el ejemplo de la Tabla 7.5.

Hipótesis globales (efecto de A, de B y de AB )

Para llevar a cabo un análisis de varianza de dos factores completamente aleatorizados conlos datos de la Tabla 7.5:

' Reproducir en el Editor de datos los datos de la Tabla 7.5 (o abrir el archivo Tabla 7.5dificultad ansiedad rendimiento que se encuentra en la página web del manual).

' Seleccionar la opción Modelo lineal general > Univariante del menú Analizar para acceder alcuadro de diálogo Univariante y trasladar la variable rendimiento al cuadro Dependientey las variables dificultad (dificultad de la tarea) y ansiedad (nivel de ansiedad) a la listaFactores fijos9.

Page 29: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 29

Fácil 15Difícil 15Bajo 10Medio 10Alto 10

12

Dificultad de la tarea

123

Nivel de ansiedad

Etiqueta del valor N

Aceptando estas selecciones, el Visor ofrece los resultados que muestran las Tablas 7.11 y7.12. La Tabla 7.11 informa del nombre de las variables independientes (factores), de sus ni-veles, incluidos los códigos que se les ha asignado (valores) y las etiquetas de los valores, ydel número de casos en cada nivel de ambos factores (N).

Tabla 7.11. Factores inter-sujetos

La tabla resumen del ANOVA (Tabla 7.12) contiene la misma información que la tabla resu-men del modelo de un factor: las fuentes de variación, las sumas de cuadrados, los grados delibertad (gl), las medias cuadráticas, los estadísticos F y los niveles críticos (Sig.) asociadosa cada estadístico F. Pero, ahora, toda esa información está referida no sólo a un factor, sinoa los tres efectos presentes en el modelo de dos factores.

La fila modelo corregido se refiere a los tres efectos del modelo (los dos factores y la in-teracción) tomados juntos. Por tanto, recoge la información relativa a lo que nosotros hemosllamado variabilidad intergrupos. La media cuadrática de esta fila es MCI. El nivel crítico aso-ciado al estadístico F (sig. < 0,0005) indica que el modelo (los tres efectos tomados juntos)explica una parte significativa de la variabilidad de la variable dependiente (rendimiento).

En la fila intersección se está contrastando la hipótesis nula de que la media total valecero. Por tanto, contiene información que no tiene nada que ver con los efectos que realmenteinteresa analizar en un modelo de dos factores (la suma de cuadrados de la intersección se ob-tiene elevando al cuadrado la media total y multiplicando el resultado por el número de obser-vaciones).

Las tres filas siguientes informan de los efectos principales (dificultad y ansiedad) y delefecto de la interacción (dificultad * ansiedad). Los correspondientes niveles críticos (sig.) in-dican que los tres efectos son significativos (en los tres casos, sig. < 0,05). En consecuencia,tanto la dificultad de la tarea como el nivel de ansiedad afectan al rendimiento. Pero el hechode que el efecto de la interacción sea significativo está indicando que el efecto de la dificultadde la tarea sobre el rendimiento está condicionado por el nivel de ansiedad; o, también, queel efecto del nivel de ansiedad sobre el rendimiento está condicionado por la dificultad de latarea. Enseguida haremos las comparaciones necesarias para interpretar el efecto de la inte-racción.

La fila error contiene la información referida a la variabilidad intragrupos o error. Re-cordemos que MCE es la mejor estimación que tenemos de la varianza del rendimiento en lasseis poblaciones con las que estamos trabajando.

La penúltima fila (total) ofrece la suma de los cuadrados de todos los valores de la varia-ble dependiente; sus grados de libertad son el número total de casos incluidos en el análisis.

Y la última fila (total corregida) informa sobre la variabilidad total, es decir sobre la va-riabilidad de las puntuaciones de la variable dependiente como si todas ellas constituyeranuna única muestra extraída de una única población. Esta variabilidad total (400) es la que des-componemos en variabilidad intergrupos (250) y variabilidad intragrupos o error (150).

Page 30: 07_anova_2[1]

30 Análisis de datos (vol. II)

Variable dependiente: Rendimiento

250,00b 5 50,00 8,00 ,000 ,63 40,00 1,003.630,00 1 3.630,00 580,80 ,000 ,96 580,80 1,00

30,00 1 30,00 4,80 ,038 ,17 4,80 ,56140,00 2 70,00 11,20 ,000 ,48 22,40 ,9880,00 2 40,00 6,40 ,006 ,35 12,80 ,86

150,00 24 6,254.030,00 30

400,00 29

FuenteModelo corregidoInterseccióndificultadansiedaddificultad * ansiedadErrorTotalTotal corregida

Suma decuad. tipo III gl

Mediacuadrática F Sig.

Eta cuad.parcial

Parám. deno central.

Potenciaobservadaa

Calculado con alfa = ,05a. R cuadrado = ,625 (R cuadrado corregida = ,547)b.

Variable dependiente: Rendimiento

250,00a 5 50,00 8,00 ,0003.630,00 1 3.630,00 580,80 ,000

30,00 1 30,00 4,80 ,038140,00 2 70,00 11,20 ,000

80,00 2 40,00 6,40 ,006150,00 24 6,25

4.030,00 30400,00 29

FuenteModelo corregidoInterseccióndificultadansiedaddificultad * ansiedadErrorTotalTotal corregida

Suma decuadrados tipo III gl

Mediacuadrática F Sig.

R cuadrado = ,625 (R cuadrado corregida = ,547)a.

Tabla 7.12. Resumen del ANOVA. Contrastes de los efectos inter-sujetos

Tamaño del efecto y potencia observada

La tabla resumen del ANOVA (Tabla 7.12) incluye, en una nota a pie de tabla, los valores deR cuadrado = 0,625 y R cuadrado corregida = 0,547. R cuadrado es lo que aquí hemos lla-mado (ver ecuación [7.19]). Y R cuadrado corregida = 0,547 es el resultado de aplicara la corrección propuesta en [6.14] (sustituyendo J por JK). Para obtener las estimacionesdel tamaño de cada efecto y la potencia observada:

' En el cuadro de diálogo Univariante, pulsar el botón Opciones para acceder al cuadro dediálogo Univariante: Opciones y marcar las opciones Estimaciones del tamaño del efectoy Potencia observada.

Al marcar estas dos opciones, la tabla resumen del ANOVA (Tabla 7.12) ofrece varias colum-nas adicionales con la información solicitada (Tabla 7.13).

Tabla 7.13. Resumen del ANOVA. Contrastes de los efectos inter-sujetos

La columna eta cuadrado parcial contiene los valores de correspondientes a cadaefecto (ver ecuación [7.20]). El valor del modelo corregido (que incluye los tres efectos deinterés) coincide con el de R cuadrado. El SPSS no estima (ecuación [7.22], pero conla información que contiene la Tabla 7.14 es fácil hacerlo. Por ejemplo, el valor de (an-siedad) puede obtenerse mediante

Page 31: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 31

Variable dependiente: Rendimiento

,115 5 24 ,988F gl1 gl2 Significación

= = =

La siguiente (penúltima) columna de la tabla contiene los parámetros de no-centralidad decada distribución F. Este parámetro es el que se utiliza para calcular la potencia observadaque aparece en la última columna de la tabla. En nuestros cálculos de la potencia observada(ver pág. 18) habíamos llegado a la conclusión de que la potencia del contraste era ligeramen-te mayor de 0,97 (la Tabla G obliga a interpolar valores y eso hace perder algo de precisión);ahora sabemos que la potencia del contraste vale 0,98. No parece, por tanto, que se pierda mu-cha precisión en los cálculos basados en la Tabla G.

Comparaciones post hoc: efectos principales

Aunque ambos efectos principales (dificultad y ansiedad) son significativos, interpretar elefecto del factor A (dificultad) no requiere realizar comparaciones adicionales porque sólo tie-ne dos niveles. Para llevar a cabo comparaciones post hoc entre los tres niveles del factor B(ansiedad):

' En el cuadro de diálogo Univariante, pulsar el botón Post hoc para acceder al subcuadrode diálogo Univariante: Comparaciones múltiples post hoc y trasladar la variable ansie-dad de la lista Factores a la lista Pruebas post hoc para.

' Marcar la opción Tukey del recuadro Asumiendo varianzas iguales y la opción Games-Howelldel recuadro No asumiendo varianzas iguales. Pulsar el botón Continuar para volver al cua-dro de diálogo principal.

' Pulsar el botón Opciones para acceder al cuadro de diálogo Univariante: Opciones y mar-car la opción Pruebas de homogeneidad.

Aceptando estas elecciones, el Visor ofrece los resultados que recogen las Tablas 7.14 y 7.15.La Tabla 7.14 ofrece el resultado de la prueba de Levene. La hipótesis que se contrasta conesta prueba es que la varianza de la variable dependiente es la misma en las 6 de poblacionesdefinidas por la combinación de los niveles de ambos factores. El resultado de esta pruebasirve para decidir si podemos asumir o no que las varianzas poblacionales son iguales y, portanto, para decidir si los datos deben interpretarse utilizando el procedimiento de Tukey o elde Games-Howell. En nuestro ejemplo, puesto que el estadístico F de Levene tiene asociadoun nivel crítico de 0,988 (mayor que 0,05), podemos asumir que las varianza poblacionalesson iguales.

Tabla 7.14. Prueba de Levene sobre igualdad de varianzas

La Tabla 7.15 muestra el resultado de las dos procedimientos post hoc solicitados: Tukey yGames-Howell. Con ambos procedimientos se llega a la misma conclusión: el rendimientode los sujetos con nivel de ansiedad medio es distinto del rendimiento de los sujetos con nivel

Page 32: 07_anova_2[1]

32 Análisis de datos (vol. II)

Variable dependiente: Rendimiento

-4,00 1,118 ,004 -6,79 -1,211,00 1,118 ,649 -1,79 3,794,00 1,118 ,004 1,21 6,795,00 1,118 ,000 2,21 7,79

-1,00 1,118 ,649 -3,79 1,79-5,00 1,118 ,000 -7,79 -2,21-4,00 1,468 ,039 -7,81 -,191,00 1,513 ,789 -2,91 4,914,00 1,468 ,039 ,19 7,815,00 1,155 ,001 2,05 7,95

-1,00 1,513 ,789 -4,91 2,91-5,00 1,155 ,001 -7,95 -2,05

(J) Nivel deansiedadMedioAltoBajoAltoBajoMedioMedioAltoBajoAltoBajoMedio

(I) Nivel deansiedadBajo

Medio

Alto

Bajo

Medio

Alto

DHS de Tukey

Games-Howell

Diferencia entremedias (I-J) Error típ. Sig.

Límiteinferior

Límitesuperior

Intervalo de confianzaal 95%.

de ansiedad es bajo (sig. = 0,004) y alto (sig. < 0,0005); y no puede afirmarse que el rendi-miento de estos dos grupos sea distinto (sig. = 0,649).

Si puede asumirse que las varianzas poblacionales son iguales es porque las varianzasmuestrales son parecidas; cuando ocurre esto, calcular el error típico de cada comparaciónpromediando las varianzas o sin promediarlas no supone una diferencia importante; y esto setraduce en que los resultados obtenidos asumiendo varianzas iguales (Tukey) y sin asumir talcosa (Games-Howell) son parecidos. Si no puede asumirse que las varianzas poblacionalesson iguales, es muy probable que las pruebas de Tukey y de Games-Howell no den el mismoresultado; en ese caso habrá que fiarse de lo que diga la prueba de Games-Howell.

Tabla 7.15. Comparaciones múltiples post hoc. Pruebas de Tukey y Games-Howell

Comparaciones múltiples: efectos simples

Analizar los efectos simples con el SPSS requiere utilizar la sintaxis. Para valorar los efectossimples de A (dificultad ) en cada nivel de B (ansiedad ):

' En el cuadro de diálogo Univariante, pulsar el botón Opciones para acceder al subcuadrode diálogo Univariante: Opciones.

' Seleccionar el efecto de la interacción dificultad*ansiedad y trasladarlo a la lista Mostrarlas medias para; hacer lo mismo con uno de los dos efectos principales (aunque no tene-mos ningún interés en ello, es necesario seleccionar algún efecto principal, da igual cuálsea, para activar la opción Comparar los efectos principales).

' Marcar la opción Comparar los efectos principales y seleccionar Bonferroni en el menú des-plegable Ajuste del intervalo de confianza. Pulsar el botón Continuar para volver al cuadrode diálogo Univariante (ver Figura 15.1).

' Pulsar el botón Pegar para escribir en el Editor de sintaxis la sintaxis SPSS correspon-diente a las elecciones hechas y modificar la línea «/EMMEANS = TABLES(dificultad*ansie-dad)» añadiendo lo siguiente: «COMPARE(dificultad) ADJ(BONFERRONI)».

Page 33: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 33

10 Las medias estimadas son medias no ponderadas. Se calculan sin tener en cuenta el tamaño de las casillas (ver Searle,Speed y Milliken, 1980). Todos los contrastes se realizan a partir de estas medias (son las medias que se utilizan en la estra-tegia conocida como sumas de cuadrados Tipo III , que es la que se aplica por defecto):

,

Las medias observadas son medias ponderadas (se utilizan en los contrastes cuando se opta por aplicar la estrategia cono-cida como sumas de cuadrados Tipo I ):

, ,

Estas medias son las que se obtienen , por ejemplo, cuando se solicitan estadísticos descriptivos. Cuando todas lasa casillastienen el mismo número de casos, las medias estimadas (no ponderadas) y las observadas (ponderadas) son iguales.

Variable dependiente: Rendimiento

13,00 1,12 10,69 15,3115,00 1,12 12,69 17,31

8,00 1,12 5,69 10,317,00 1,12 4,69 9,31

13,00 1,12 10,69 15,3110,00 1,12 7,69 12,31

Nivel deansiedadBajoMedioAltoBajoMedioAlto

Dificultadde la tareaFácil

Difícil

Media Error típ. Límite inferior Límite superiorIntervalo de confianza al 95%.

Variable dependiente: Rendimiento

90,00 1 90,00 14,40 ,001150,00 24 6,25

10,00 1 10,00 1,60 ,218150,00 24 6,25

10,00 1 10,00 1,60 ,218150,00 24 6,25

ContrasteErrorContrasteError

ContrasteError

Nivel de ansiedadBajo

Medio

Alto

Suma decuadrados gl

Mediacuadrática F Sig.

Cada prueba F contrasta el efecto de Dificultad de la tarea. Estos contrastes se basan en lascomparaciones por pares, linealmente independientes, entre las medias marginales estimadas.

Al ejecutar la sintaxis se obtienen los resultados que muestran las Tablas 7.16 a la 7.18. LaTabla 7.16 contiene las medias estimadas10 de las casillas (es decir, de cada combinación difi-cultad*ansiedad). Estas son las medias en las que se basan las comparaciones solicitadas.Cuando los tamaños muestrales son iguales, el valor de estas medias estimadas es el mismoque el de las medias observadas (ver Tabla 7.6).

Tabla 7.16. Medias estimadas

Las Tablas 7.17 y 7.18 son el resultado de las modificaciones introducidas en la sintaxis. LaTabla 7.17 ofrece el contraste de los efectos simples de A (dificultad de la tarea) en cada nivelde B (nivel de ansiedad). En cada contraste se está comparando el rendimiento medio obteni-do con tareas fáciles y con tareas difíciles. El único contraste significativo es el que se refiereal nivel de ansiedad bajo. Esto quiere decir que la dificultad de la tarea únicamente afecta alrendimiento cuando el nivel de ansiedad de los sujetos es bajo. Puede comprobarse que estosresultados son idénticos a los que hemos obtenido en el ejemplo del apartado Efectos simples.

Tabla 7.17. Contrastes de los efectos simples (dificultad de la tarea)

Page 34: 07_anova_2[1]

34 Análisis de datos (vol. II)

Variable dependiente: Rendimiento

6,00 1,58 ,001 2,74 9,262,00 1,58 ,218 -1,26 5,26

-2,00 1,58 ,218 -5,26 1,26

(J) Dificultadde la tareaDifícilDifícilDifícil

(I) Dificultadde la tareaFácilFácilFácil

Nivel deansiedadBajoMedioAlto

Diferencia entremedias (I-J) Error típ. Sig.a

Límiteinferior

Límitesuperior

Intervalo de confianza al95 % para la diferenciaa

Basadas en las medias marginales estimadas.Ajuste para comparaciones múltiples: Bonferroni.a.

Por último, la Tabla 7.18 ofrece las comparaciones por pares entre las medias de cada efectosimple. Estas comparaciones se llevan a cabo controlando la tasa de error con el procedimien-to de Bonferroni (recordar la modificación que hemos introducido en la sintaxis) y se interpre-tan exactamente igual que las comparaciones post hoc ya estudiadas. Puesto que en losefectos simples analizados (dificultad de la tarea) sólo intervienen dos medias (fácil, difícil),las comparaciones de esta tabla coinciden con las de la Tabla 7.14 (además, al comparar sólodos medias, la corrección de Bonferroni no tiene ningún efecto).

Tabla 7.18. Comparaciones por pares entre las medias de cada efectos simple (dificultad de la tarea)

Comparaciones múltiples: efecto de la interacción

Para interpretar el efecto de la interacción vamos a realizar dos tareas: (1) obtener un gráficode líneas o perfiles basado en las medias de las casillas y (2) comparar entre sí los efectossimples de A (dificultad de la tarea) en cada nivel de B (nivel de ansiedad). Seguimos traba-jando con el procedimiento Univariante:

' En el cuadro de diálogo Univariante, pulsar el botón Gráficos para acceder al subcuadrode diálogo Univariante: Gráficos de perfil.

' Trasladar la variable ansiedad al cuadro Eje horizontal y la variable dificultad al cuadroLíneas separadas, y pulsar el botón Añadir para hacer efectiva la selección de variables.

Aceptando estas elecciones, el Visor de resultados ofrece un gráfico de líneas como el quemuestra la Figura 7.4. En él están representadas las medias de las casillas (ver Tabla 7.6).

Figura 7.4. Gráfico de perfiles: nivel de ansiedad por dificultad de la tarea

Page 35: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 35

1 -1 0 -1 1 01 0 -1 -1 0 10 1 -1 0 -1 1

Contraste123

Fácil - Bajo Fácil - Medio Fácil - Alto Difícil - Bajo Difícil - Medio Difícil - AltoDificultad de la tarea x Nivel de ansiedad

Una rápida inspección del gráfico permite formarse una primera impresión sobre el posiblesignificado de la interacción. Parece que lo que ocurre cuando el nivel de ansiedad es bajo(se rinde mucho mejor en las tareas fáciles) no es lo mismo que lo que ocurre cuando el nivelde ansiedad es medio (se rinde un poco mejor en las tareas fáciles) o alto (se rinde un pocomejor en las tareas difíciles). También parece que lo que ocurre cuando el nivel de ansiedades medio no es lo mismo que lo que ocurre cuando el nivel de ansiedad es alto.

Pero todo esto no es más que una impresión visual basada en las diferencias observadas.Los contrastes de los efectos simples llevados a cabo en el apartado anterior indican que laúnica diferencia significativa se da en el nivel de ansiedad bajo. ¿Quiere esto decir que lo queocurre en ese nivel es distinto de lo que ocurre en los otros dos, y que lo que ocurre en estosdos es lo mismo? Ya hemos señalado que la respuesta a esta pregunta es no. Para poder haceruna afirmación de este tipo es necesario comparar entre sí los efectos simples; no basta condecidir cuál de ellos es significativo y cuál no.

Para comparar entre sí los efectos simples vamos a realizar las comparaciones definidasen [7.36]. Y lo vamos a hacer con el procedimiento ANOVA de un factor. Es decir, vamos a tra-tar las 6 casillas de nuestro diseño como si fueran los 6 niveles de un único factor. Para haceresto necesitamos crear una variable con 6 códigos distintos (uno por casilla). En el archivoTabla 7.5 dificultad ansiedad rendimiento hemos creado la variable grupo asignando el códi-go 1 a la casilla ab11, el código 2 a la casilla ab12, el código 3 a la casilla ab13, el código 4 ala casilla ab21, el código 5 a la casilla ab22 y el código 6 a la casilla ab23. Una vez creada estavariable:

' Seleccionar la opción Comparar medias > ANOVA de un factor del menú Analizar para acce-der al cuadro de diálogo ANOVA de un factor y trasladar la variable rendimiento a la listaDependientes y la variable grupo al cuadro Factor.

' Pulsar el botón Contrastes para acceder al cuadro de diálogo ANOVA de un factor: Con-trastes y comenzar a introducir los coeficientes correspondientes a las tres comparacionesdefinidas en [7.36] utilizando el cuadro de texto Coeficientes y el botón Añadir: introducirlos coeficientes de la primera comparación (1, !1, 0, !1, 1, 0) y pulsar el botón Siguiente;introducir los coeficientes de la segunda comparación (1, 0, !1, !1, 0, 1) y pulsar el bo-tón Siguiente; introducir los coeficientes de la tercera comparación (0, 1, !1, 0, !1, 1).

Aceptando estas selecciones el Visor ofrece, entre otros, los resultados que muestran las Ta-blas 7.19 y 7.20. La primera de ellas contiene los coeficientes asignados a las tres compara-ciones que hemos definido. Estos coeficientes sirven para identificar las comparaciones quese están llevando a cabo y, por supuesto, para comprobar que, efectivamente, se correspondencon las que hemos definido.

Tabla 7.19. Coeficientes para comparar los efectos simples

La Tabla 7.20 ofrece los resultados de las tres comparaciones solicitadas agrupados en dosbloques. En el primer bloque, las comparaciones están evaluadas asumiendo que las varianzas

Page 36: 07_anova_2[1]

36 Análisis de datos (vol. II)

Rendimiento

4,00 2,24 1,79 24 ,0868,00 2,24 3,58 24 ,0024,00 2,24 1,79 24 ,0864,00 2,17 1,85 14,80 ,0858,00 2,30 3,47 15,04 ,0034,00 2,24 1,79 15,67 ,093

Contraste123123

Asumiendo igualdad devarianzas

No asumiendo igualdadde varianzas

Valor delcontraste

Errortípico t gl

Sig.(bilateral)

poblacionales son iguales; en el segundo, sin asumir tal cosa. Aunque ambas estrategias sue-len llevar a la misma conclusión, debe utilizarse la que se ajuste a las características de losdatos. Para esto, debe tenerse en cuenta el resultado obtenido previamente al contrastar la hi-pótesis de igualdad de varianzas con la prueba de Levene. Puesto que en nuestro ejemplo pue-de asumirse que las varianzas poblacionales son iguales (ver Tabla 7.14), los resultados quedeben interpretarse son los del primer bloque (asumiendo igualdad de varianzas).

El contenido de esta tabla ya se ha explicado en el capítulo anterior. Incluye, para cadacomparación solicitada, el valor de la comparación (contraste), su error típico, el estadísticodel contraste (t), sus grados de libertad y el nivel crítico (sig. bilateral ). La hipótesis nula quese pone a prueba con cada contraste es que los promedios poblacionales comparados son igua-les. Para tomar decisiones sobre estas hipótesis debe tenerse en cuenta que el procedimientono aplica ninguna corrección para controlar la tasa de error. Para aplicar la corrección de Bon-ferroni, basta con comparar cada nivel crítico (sig. bilateral) con αF dividida por el númerode comparaciones; en nuestro ejemplo, αC = 0,05 / 3 = 0,017.

Teniendo en cuenta los niveles críticos obtenidos (sig. bilateral ) debe decidirse: (1) man-tener la hipótesis nula referida al primer contraste (pues 0,086 > 0,017), (2) rechazar lahipótesis nula referida al segundo contraste (pues 0,002 < 0,017) y (3) mantener la hipótesisnula referida al tercer contraste (pues 0,086 > 0,017). En consecuencia, puede concluirse queel efecto de la dificultad de la tarea no es el mismo cuando el nivel de ansiedad es bajo ycuando es alto. En el apartado Efecto de la interacción puede encontrarse un comentario másdetallado de estos resultados.

Tabla 7.20. Comparaciones entre los efectos simples (dificultad de la tarea)

Apéndice 7

Casillas con tamaños muestrales distintos

Aunque lo habitual es planificar un estudio con la intención de utilizar el mismo número de casos entodas las condiciones (diseño balanceado), lo cierto es que esta circunstancia raramente se da. Las razo-nes por las que podemos encontrarnos con tamaños muestrales distintos (diseños no balanceados) sonde diversa naturaleza: puede haber descuido del investigador al seleccionar los sujetos o errores al regis-trar sus respuestas; puede que algunos sujetos de los seleccionados no ofrezcan respuestas válidas parael estudio; puede que se esté trabajando con grupos ya formados cuyo tamaño no depende del investiga-dor (estudiantes de una aula); etc. Cuando se trabaja con tamaños muestrales distintos las inferencias

Page 37: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 37

se complican bastante, pues los efectos de A, B y AB dejan de ser independientes entre sí; no obstante,todavía es posible analizarlos.

¿Por qué la presencia de tamaños muestrales distintos complica las cosas? Consideremos un diseño2 × 2 como el que muestra la Tabla 7.21. El factor A (tratamiento) define dos grupos: sujetos tratadosy no tratados (grupos experimental y control); el factor B (sexo) define dos grupos: hombres y mujeres.La variable dependiente es una variable cuantitativa que vamos a llamar recuperación. Imaginemos quehemos seleccionado una muestra de 10 hombres y otra de 10 mujeres y que hemos aplicado el trata-miento a la mitad de los sujetos de cada muestra (5 sujetos por condición o casilla). Por circunstanciasajenas al investigador, al final del estudio han quedado 6 hombres y 6 mujeres. La tabla muestra laspuntuaciones de los 12 sujetos , las medias de las casillas y las medias marginales.

Tanto las medias de las casillas como las medias marginales de las filas indican que los sujetos tra-tados (grupo experimental) puntúan en recuperación el doble que los sujetos no tratados (grupo con-trol); y esto, tanto en el caso de los hombres como en el de las mujeres. Sin embargo, las medias mar-ginales de las columnas (las medias de las seis puntuaciones de cada columna) dicen otra cosa: pareceque los hombres (media = 8) se benefician del tratamiento menos que las mujeres (media = 10). Estaaparente inconsistencia es debida al hecho de que, entre los hombres, el grupo más numeroso (control)es el que puntúa más bajo, mientras que, entre las mujeres, el grupo que puntúa más bajo es el menosnumeroso (experimental). Y, por supuesto, también se debe al hecho de que las medias marginales sehan calculado teniendo en cuenta el tamaño de las casillas.

Si los tamaños de las casillas reflejaran el tamaño de sus respectivas poblaciones, estas mediasmarginales (8 y 10) podrían tener algún sentido; de hecho, desde el punto de vista descriptivo, estas me-dias serían las que mejor estarían informando de lo que ocurre en la población; incluso podría ocurrirque estas medias fueran el objetivo principal de un estudio inferencial. Pero, por lo general, esto no eslo que suele ocurrir en un diseño factorial; al analizar diferencias, las medias marginales no deberíandecir nada distinto de lo que están diciendo las medias de las casillas. No parece razonable que el efectode un tratamiento pueda depender del número de sujetos a los que se aplica; como tampoco parece razo-nable que las posibles diferencias entre hombres y mujeres puedan variar en función del número dehombres y mujeres incluidos en el estudio.

Tabla 7.21. Diseño 2 × 2 con tamaños muestrales distintos (no balanceado)

Sexo

MediasTratamiento Hombres Mujeres

Grupoexperimental

11 10, 11

13 13, 14 12

media = 12 media = 12

Grupocontrol

4, 5 5

7, 8 7 6

media = 6 media = 6

Medias 8 10 9

La solución pasa por calcular las medias marginales sin tener el cuenta el tamaño de las casillas. Estodaría para las dos medias marginales de las columnas un valor de (12 + 6) / 2 = 9, que es lo que cabríaesperar después de ver lo que ocurre en las casillas. Ambas formas de calcular las medias son numéri-camente correctas, pero informan de cosas distintas (ver nota a pie de página nº 10).

Aunque se han propuesto diferentes procedimientos para tratar con tamaños muestrales distintos,ninguno de ellos parece representar una solución definitiva. Si los tamaños de las casillas son propor-

Page 38: 07_anova_2[1]

38 Análisis de datos (vol. II)

cionales a los tamaños de sus respectivos marginales (nj k = nj+ n+k /N ), siguen siendo válidas las fórmu-las propuestas en este capítulo para el caso de tamaños muestrales iguales. Si los tamaños de las casillasno son proporcionales, una solución sencilla, que funciona bastante bien consiste en aplicar las fórmulasdescritas en este capítulo sustituyendo n por la media armónica de los tamaños de las casillas. Otrassoluciones más complejas es preferible abordarlas utilizando algún programa informático (Maxwell yDelaney, 2004, págs. 320-343, ofrecen un amplia discusión de toda esta problemática).

Nuestra intención al incluir este breve apartado sobre la complicación añadida que supone utilizartamaños muestrales distintos no es que aprendamos a hacer cálculos a mano. Las soluciones que mejorfuncionan son lo bastante complejas como para requerir la ayuda de un programa informático. Y esoes lo que debemos aprender a hacer. Pero conviene no olvidar que hay distintas formas de calcular me-dias marginales y que esas diferentes formas de cálculo pueden llevar a conclusiones distintas.

Más sobre los efectos simples y el efecto de la interacción

Los efectos simples están estrechamente relacionados con el efecto de la interacción. De hecho, unade las formas habituales de definir el efecto de la interacción se basa en los efectos simples: decimosque existe interacción entre dos factores cuando los efectos simples correspondientes al mismo efectoprincipal no son iguales.

Consideremos un diseño 2 × 2. La diferencia µ 11 ! µ 21 es el efecto simple de A en b1; y la diferenciaµ 12 ! µ 22 es el efecto simple de A en b2. Afirmar que existe efecto de la interacción equivale a afirmarque el efecto simple de A en b1 difiere del efecto simple de A en b2. Esta forma de entender la interac-ción entre factores implica que la comparación entre efectos simples puede utilizarse para analizar einterpretar el efecto de la interacción.

Pero comparar efectos simples no es lo mismo que analizarlos por separado. Y lo que ocurre confrecuencia en la investigación aplicada (ver Pardo, Garrido, Ruiz y San Martín, 2007) es que la compa-ración entre efectos simples se interpreta de esta incorrecta manera: si al valorar la significación de losdos efectos simples del factor A se comprueba que uno de ellos es significativo y el otro no, se puedeconcluir que los efectos simples del factor A no son iguales. ¿Por qué decimos que esta interpretaciónes incorrecta? Porque se está afirmando que son distintas dos cosas que no se han comparado; es decir,porque se está afirmando que el efecto simple de A en b1 difiere del efecto simple de A en b2 sin habercomparado entre sí ambos efectos simples. Y lo cierto es que uno de los dos efectos simples de A podríaser significativo y el otro no tanto si existe interacción significativa como si no; y ambos efectos sim-ples podrían ser significativos o no significativos tanto si existe interacción significativa como si no(ver Keppel y Wickens, 2004, pág. 254). La razón de esta aparente inconsistencia radica en el hechode que un efecto simple incluye parte del efecto principal y parte del efecto de la interacción. Lo cualimplica que un efecto simple puede ser significativo porque es significativa la parte de efecto principalque incluye, porque es significativa la parte del efecto de la interacción, o porque son significativas am-bas partes.

Que los efectos simples incluyen tanto efectos principales como de interacción está suficiente-mente documentado en la literatura estadística (Kirk, 1995, págs. 377-378; Winer, Brown y Michels,1991, págs. 326-332), hasta el punto de que autores de la talla de Kirk han llegado a afirmar que “con-trastar hipótesis sobre los efectos simples... puede ser interesante, pero no ayuda a comprender la inte-racción entre dos variables”(1995, pág. 383). A pesar de esto, no pocos manuales de diseño y análisispresentan los efectos simples como la estrategia apropiada (y en algunos casos única) para interpretarlos datos en presencia de una interacción significativa (Howell, 2002, págs. 432, 489; Jaccard, 1998,pág. 20; Keppel y Wickens, 2004, págs. 247; Maxwell y Delaney, 2004, pág. 308; Myers y Well, 2003,pág. 304; Pedhazur y Pedhazur, 1991, pág. 509; etc.). Algo parecido sucede también con las referenciasen castellano (ver, por ejemplo, Ato y Vallejo, 2007, págs. 193, 198-200; Pascual, 1998, pág. 97).

La razón por la cual nos parece conveniente destacar esta idea es por las importantes implicacionesprácticas que se derivan de ella. Imaginemos que el factor A define dos grupos de tratamiento (GE =

Page 39: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 39

pre-0123

4

0123

4

0123

4

post- pre- post- pre- post-

GE

GC

5 5 5GE

GC

GE

GC

pre-0123

4

0123

4

0123

4

post- pre- post- pre- post-

GE

GC

5 5 5GE

GC

GE

GC

experimental y GC = control) y que el factor B representa dos momentos en el tiempo (pre- y postrata-miento). En un diseño de estas características el investigador suele estar interesado en averiguar si eltratamiento tiene algún efecto sobre el grupo experimental; por supuesto, algún efecto distinto del no-tratamiento sobre el grupo control. Para obtener esta información no basta con analizar el efecto prin-cipal del factor A, sino que es necesario comparar lo que ocurre en el postratamiento (efecto simple deA en b2) con lo que ocurre en el pretratamiento (efecto simple de A en b1). Ahora bien, si para realizaresta comparación se recurre al análisis de los efectos simples por separado (estrategia habitualmenteutilizada; ver Pardo y otros, 2007), puede ocurrir que, siendo significativo el efecto de la interacción,no haya diferencias significativas entre GE y GC ni en el pre- ni en el postratamiento (ver Figura 7.5.a),o haya diferencias significativas tanto en el pre- como en el postratamiento (ver Figura 7.5.b). En laestrategia basada en el análisis de los efectos simples por separado, cualquiera de estos dos resultadosllevaría a concluir que no es posible afirmar que exista efecto del tratamiento. Sin embargo, en claradiscrepancia con esta conclusión, la presencia de una interacción significativa estaría indicando que ladiferencia entre GE y GC no es la misma en el pre- y en el postratamiento; lo cual debería llevar aconcluir que existe efecto del tratamiento (pues, en un diseño de estas características, una interacciónsignificativa implica efecto del tratamiento).

También puede ocurrir que, no siendo significativo el efecto de la interacción (es decir, no habien-do diferencias entre lo que ocurre en el pre- y en el postratamiento), la diferencia entre GE y GC en elpretratamiento (efecto simple de A en b1) no sea significativa y sí lo sea la diferencia entre GE y GC enel postratamiento (efecto simple de A en b2). Este resultado podría llevar a afirmar que existe efecto deltratamiento cuando el hecho de que la interacción sea no significativa estaría descartando estaposibilidad (ver Figura 7.5.c).

Figura 7.5. Diferentes pautas de interacción en un diseño 2 × 2 a b c

Por tanto, para poder afirmar que existe efecto del tratamiento no basta con saber que GE y GC no difie-ren en el pre- y sí en el postratamiento, como tampoco basta con saber que GE cambia entre el pre- yel postratamiento mientras que GC no lo hace (de todo esto es de lo que informan los efectos simples).Para poder afirmar que existe efecto del tratamiento, la diferencia observada en el post- hay que refe-rirla a la observada en el pretratamiento (o, de forma equivalente, el cambio observado en GE entre elpre- y el postratamiento hay que referirlo al cambio observado en GC), y esto sólo es posible hacerlocomparando diferencias, que es justamente lo que se hace cuando se analiza el efecto de la interacción.

Aunque una interacción significativa coincidirá, en muchos casos, con la presencia de efectos sim-ples diferenciados (es decir, unos significativos y otros no), esto no tiene por qué ser necesariamenteasí. Por tanto, si bien el análisis de los efectos simples por separado podría llevar a las mismas conclu-siones que la comparación entre ellos, esa estrategia debe ser considerada inapropiada porque puedeconducir a conclusiones incorrectas.

La sentencia LMATRIX

Al margen de las comparaciones que es posible llevar a cabo desde los cuadros de diálogo del SPSS,la sentencia LMATRIX permite efectuar cualquier tipo de comparación mediante sintaxis: permite va-

Page 40: 07_anova_2[1]

40 Análisis de datos (vol. II)

lorar la significación de los efectos simples, realizar comparaciones entre los diferentes niveles de unmismo efecto simple para precisar dónde están las diferencias, realizar comparaciones entre diferentesefectos simples para interpretar el efecto de la interacción, etc.

La sentencia LMATRIX permite llevar a cabo estas comparaciones asignando valores a los coefi-cientes de la matriz L en la hipótesis general LB = 0 (B representa el vector de parámetros). El modeloestadístico correspondiente a un diseño de dos factores completamente aleatorizados (ver Capítulo 1del tercer volumen) adopta la forma

( j se refiere a los niveles del primer factor y k a los niveles del segundo factor). En nuestro ejemplo,el modelo puede representarse mediante

rendimiento jk = constante + dificultad j + ansiedad k + dificultad*ansiedad jk

(con j = 1, 2; k = 1, 2, 3). La parte izquierda de la ecuación recoge los pronósticos del modelo, es decir,el rendimiento que el modelo pronostica para cada combinación entre los niveles de los factores (paracada casilla del deseño). La parte derecha de la ecuación recoge las dos variables independientes y lainteracción entre ambas. El modelo incluye 12 parámetros: la constante, los dos correspondientes a losniveles de dificultad, los tres correspondientes a los niveles de ansiedad y los seis correspondientes alas combinaciones entre los dos niveles de dificultad y los tres de ansiedad. Es decir, el vector deparámetros B incluye los siguientes parámetros:

B N = (constante, dificultad 1, dificultad 2, ansiedad 1, ansiedad 2, ansiedad 3,dificultad*ansiedad 11, dificultad*ansiedad 12, dificultad*ansiedad 13,dificultad*ansiedad 21, dificultad*ansiedad 22, dificultad*ansiedad 23)

Y la matriz de coeficientes L incluye el peso o coeficiente asignado a cada parámetro del modelo:

L = (l1, l2, l3, l4, l5, l6, l7, l8, l9, l10, l11, l12)

Para definir contrastes personalizados basta con especificar los valores que deben tomar los coeficientesde la matriz L en la expresión LB:

LB = l1 constante + l2 dificultad 1 + l3 dificultad 2 + l4 ansiedad 1 + l5 ansiedad 2 + l6 ansiedad 3 +l7 dificultad*ansiedad 11 + l8 dificultad*ansiedad 12 + l9 dificultad*ansiedad 13 +l10 dificultad*ansiedad 21 + l11 dificultad*ansiedad 22 + l12 dificultad*ansiedad 23

Análisis de los efectos simples

La sentencia LMATRIX permite definir contrastes personalizados asignando a cada parámetro los coefi-cientes apropiados. Para comparar, por ejemplo, las dos dificultades (fácil, difícil) en el primer nivelde ansiedad (bajo), a los coeficientes l2 y l7 asociados a los parámetros correspondientes a la primeracategoría de dificultad (dificultad 1) y a la combinación de la primera categoría de dificultad con la pri-mera de ansiedad (dificultad*ansiedad 11) se les asigna un valor de 1; y a los coeficientes l3 y l10 asocia-dos a los parámetros correspondientes a la segunda categoría de dificultad (dificultad 2) y a la combina-ción de la segunda categoría de dificultad con la primera de ansiedad (dificultad*ansiedad 21) se lesasigna un valor de !1. Al resto de coeficientes se les asignan ceros para excluir del contraste los efectosque no intervienen en la comparación. Por tanto, la expresión LB correspondiente a la comparación delas dos dificultades en el primer nivel de ansiedad queda de la siguiente manera:

LB = (1) dificultad 1 + (1) dificultad*ansiedad 11 + (!1) dificultad 2 + (!1) dificultad*ansiedad 21

= (dificultad 1 ! dificultad 2) + (dificultad*ansiedad 11 ! dificultad*ansiedad 21)

Page 41: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 41

En la primera parte de la expresión se están comparando las dos dificultades; en la segunda parte se in-dica que la comparación entre las dos dificultades debe limitarse al primer nivel de ansiedad. De modosimilar, la expresión LB correspondiente a la comparación de las dos dificultades en el segundo nivelde ansiedad adopta la forma

LB = (1) dificultad 1 + (1) dificultad*ansiedad 12 + (!1) dificultad 2 + (!1) dificultad*ansiedad 22

= (dificultad 1 ! dificultad 2) + (dificultad*ansiedad 12 ! dificultad*ansiedad 22)

Por último, la expresión LB correspondiente a la comparación de las dos dificultades en el tercer nivelde ansiedad adopta la forma

LB = (1) dificultad 1 + (1) dificultad*ansiedad 13 + (!1) dificultad 2 + (!1) dificultad*ansiedad 23

= (dificultad 1 ! dificultad 2) + (dificultad*ansiedad 13 ! dificultad*ansiedad 23)

La sentencia LMATRIX permite valorar cualquier comparación entre medias mediante el contraste dehipótesis nulas del tipo LB = 0. Para contrastar estas hipótesis (los datos se encuentran en el archivoTabla 7.5 dificultad ansiedad rendimiento):

' En el cuadro de diálogo Univariante, trasladar la variable rendimiento a la lista Dependiente y lasvariables dificultad (dificultad de la tarea) y ansiedad (nivel de ansiedad) y trasladarlas a la listaFactores fijos.

' Pulsar el botón Pegar para obtener la sintaxis correspondiente a las elecciones hechas.

El Editor de sintaxis muestra el siguiente resultado:

UNIANOVA Rendimiento BY dificultad ansiedad /METHOD = SSTYPE(3) /INTERCEPT = INCLUDE /CRITERIA = ALPHA(.05) /DESIGN = dificultad ansiedad dificultad*ansiedad.

METHOD indica que se van a utilizar las sumas de cuadrados Tipo III; INTERCEPT recuerda que el mo-delo solicitado incluye la constante; CRITERIA establece el nivel de significación que se utilizará paraconstruir los intervalos de confianza; y DESIGN recoge los efectos incluidos en el modelo. Los valoresasignados a estas cuatro sentencias son los que el procedimiento UNIANOVA utiliza por defecto; portanto, no es necesario incluirlos. Para poder efectuar contrastes personalizados es necesario añadir a lasintaxis la sentencia LMATRIX:

UNIANOVA rendimiento BY dificultad ansiedad /LMATRIX = ‘Comparaciones entre las dos dificultades en cada nivel de ansiedad’ dificultad 1 -1 dificultad*ansiedad 1 0 0 -1 0 0; dificultad 1 -1 dificultad*ansiedad 0 1 0 0 -1 0; dificultad 1 -1 dificultad*ansiedad 0 0 1 0 0 -1.

La expresión entre apóstrofos de la sentencia LMATRIX es una etiqueta descriptiva que servirá paraidentificar los resultados en el Visor. A continuación aparecen definidas las tres comparaciones entrelas dos dificultades dentro de cada nivel de ansiedad; es decir, las tres comparaciones correspondientesa los efectos simples del factor A (dificultad ). En la primera línea, los coeficientes de la primera parte(dificultad ) comparan las dos dificultades (estos coeficientes son los que en la expresión LB están aso-ciados a los efectos dificultad 1 y dificultad 2); y los coeficientes de la segunda parte (dificultad* ansie-dad ) indican que esa comparación entre las dos dificultades debe hacerse dentro del primer nivel de

Page 42: 07_anova_2[1]

42 Análisis de datos (vol. II)

Variable dependiente: Rendimiento

6,00 0 6,00 1,58 ,001 2,74 9,262,00 0 2,00 1,58 ,218 -1,26 5,26

-2,00 0 -2,00 1,58 ,218 -5,26 1,26

Contrastea

L1L2L3

Estimacióndel contraste

Valorhipotetizado

Diferencia (Estim.- Hipotetiz.)

Errortípico Sig. Lím. inferior Lím. superior

Intervalo de confianza al 95% para la diferencia

Basada en la matriz de coeficientes de contraste (L') definida por el usuario: comparaciones entre las dosdificultades en cada nivel de ansiedad

a.

ansiedad, pues los coeficientes 1 y !1 se han asignado a los parámetros dificultad*ansiedad 11 y dificul-tad*ansiedad 21 (estos 6 coeficientes se corresponden con las 6 casillas del diseño en el orden 11, 12,13, 21, 22 y 23 ). En la segunda línea, los coeficientes indican que la comparación entre las dos dificul-tades debe hacerse dentro del segundo nivel de ansiedad, pues los coeficientes 1 y !1 se han asignadoa los parámetros dificultad*ansiedad 12 y dificultad*ansiedad 22. En la tercera línea, los coeficientes in-dican que la comparación entre las dos dificultades debe hacerse dentro del tercer nivel de ansiedad,pues los coeficientes 1 y !1 se han asignado a los parámetros dificultad*ansiedad 13 y dificultad*ansie-dad 23.

Ejecutando esta sintaxis se obtienen, entre otros, los resultados que muestra la Tabla 7.22. Estosresultados son idénticos a los ya obtenidos al estudiar los efectos simples con otra estrategia diferente(ver Tabla 7.18), con la diferencia de que ahora no se está aplicando la corrección de Bonferroni al cal-cular los niveles críticos ni al construir los intervalos de confianza. Los niveles críticos (sig.) permitenconcluir que la dificultad de la tarea únicamente afecta al rendimiento cuando el nivel de ansiedad esbajo (contraste L1 ).

Tabla 7.22. Contrastes de los efectos simples de dificultad de la tarea

Comparaciones entre los niveles de un mismo efecto simple

Puesto que la variable dificultad sólo tiene dos niveles, sólo es necesario hacer una comparación entredificultades por cada nivel de ansiedad (tres comparaciones en total); cada una de esas tres comparacio-nes capta el efecto de la dificultad en cada nivel de ansiedad; es decir, cada una de esas tres compara-ciones corresponde a uno de los tres efectos simples del factor dificultad.

Cuando el factor analizado tiene más de dos niveles, además de valorar los efectos simples, puedeinteresar comparar entre sí las medias involucradas en cada efecto simple. Por ejemplo, los efectos sim-ples del factor ansiedad son dos: uno por cada dificultad. Pero cada efecto simple del factor ansiedadincluye tres medias. Para precisar el significado de cada efecto simple del factor ansiedad hay que com-parar por pares las medias correspondientes a sus tres niveles (tres comparaciones por cada dificultad;seis comparaciones en total). Estas comparaciones pueden hacerse utilizando dos sentencias LMATRIX:una con las comparaciones referidas a la primera dificultad (fácil) y otra con las referidas a la segundadificultad (difícil). La sintaxis correspondiente a estas comparaciones es la siguiente:

UNIANOVA rendimiento BY dificultad ansiedad /LMATRIX = ‘Comparaciones entre los niveles de ansiedad en dificultad = fácil’ ansiedad 1 -1 0 dificultad*ansiedad 1 -1 0 0 0 0; ansiedad 1 0 -1 dificultad*ansiedad 1 0 -1 0 0 0; ansiedad 0 1 -1 dificultad*ansiedad 0 1 -1 0 0 0 /LMATRIX = ‘Comparaciones entre los niveles de ansiedad en dificultad = difícil’ ansiedad 1 -1 0 dificultad*ansiedad 0 0 0 1 -1 0; ansiedad 1 0 -1 dificultad*ansiedad 0 0 0 1 0 -1; ansiedad 0 1 -1 dificultad*ansiedad 0 0 0 0 1 -1.

Page 43: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 43

Variable dependiente: Rendimiento

-2,00 0 -2,00 1,58 ,218 -5,26 1,265,00 0 5,00 1,58 ,004 1,74 8,267,00 0 7,00 1,58 ,000 3,74 10,26

Contrastea

L1L2L3

Estimacióndel contraste

Valorhipotetizado

Diferencia (Estim.- Hipotetiz.)

Errortípico Sig. Lím. inferior Lím. superior

Intervalo de confianza al 95% para la diferencia

Basada en la matriz de coeficientes de contraste (L') definida por el usuario: Comparaciones entre losniveles de ansiedad en dificultad = fácil

a.

Variable dependiente: Rendimiento

130,00 2 65,00 10,40 ,001150,00 24 6,25

FuenteContrasteError

Suma decuadrados gl

Mediacuadrática F Sig.

Variable dependiente: Rendimiento

-6.00 0 -6.00 1.58 ,001 -9.26 -2.74-3.00 0 -3.00 1.58 ,070 -6.26 .263.00 0 3.00 1.58 ,070 -.26 6.26

Contrastea

L1L2L3

Estimacióndel contraste

Valorhipotetizado

Diferencia (Estim.- Hipotetiz.)

Errortípico Sig. Lím. inferior Lím. superior

Intervalo de confianza al 95% para la diferencia

Basada en la matriz de coeficientes de contraste (L') definida por el usuario: Comparaciones entre losniveles de ansiedad en dificultad = difícil

a.

Ejecutando esta sintaxis se obtienen los resultados que muestran las Tablas 7.23 a la 7.26. La Tabla 7.23ofrece las comparaciones entre los tres niveles de ansiedad dentro de la primera categoría de dificultad(fácil). La nota a pie de tabla muestra la etiqueta incluida en la sintaxis. En L1 se están comparando losniveles de ansiedad bajo y medio; en L2, los niveles bajo y alto; en L3, los niveles medio y alto. El ni-vel crítico asociado a L2 (sig. = 0,004) indica que, cuando la tarea es fácil, el rendimiento medio de lossujetos con nivel de ansiedad bajo difiere del rendimiento medio de los sujetos con nivel de ansiedadalto. El nivel crítico asociado a L3 (sig. < 0,0005) indica que, cuando la tarea es fácil, el rendimientode los sujetos con nivel de ansiedad medio difiere del rendimiento de los sujetos con nivel de ansiedadalto (no debe olvidarse que al efectuar estas comparaciones no se está aplicando ningún tipo de correc-ción para controlar la tasa de error).

Por tanto, cuando la tarea es fácil, el rendimiento en los tres niveles de ansiedad no es el mismo.La Tabla 7.24 ofrece una valoración del efecto global del nivel de ansiedad en la primera categoría dedificultad (fácil), es decir, una valoración del primero de los dos efectos simples del nivel de ansiedad.El nivel crítico (sig. = 0,001) indica que ese efecto simple es significativamente distinto de cero (confir-mando lo que ya nos ha dicho la Tabla 7.23, es decir, confirmando que, cuando la tarea es fácil, elrendimiento medio no es el mismo en los tres niveles de ansiedad).

Tabla 7.23. Comparaciones entre las medias de nivel de ansiedad en el primer nivel de dificultad (fácil)

Tabla 7.24. Contraste del efecto simple de nivel de ansiedad en el primer nivel de dificultad (fácil)

La Tabla 7.25 ofrece las comparaciones entre los tres niveles de ansiedad dentro del segundo nivel dedificultad (difícil). Ahora sólo es significativa la comparación L1 (sig. = 0,001): cuando la tarea es difí-cil, el rendimiento de los sujetos con nivel de ansiedad bajo difiere del de los sujetos con nivel de ansie-dad medio. El resto de comparaciones no son significativas. Los resultados de la Tabla 7.26 confirmanque el segundo efecto simple de nivel de ansiedad es significativo (sig. = 0,004).

Tabla 7.25. Comparaciones entre las medias de nivel de ansiedad en el segundo nivel de dificultad (difícil)

Page 44: 07_anova_2[1]

44 Análisis de datos (vol. II)

Variable dependiente: Rendimiento

4,00 0 4,00 2,24 ,086 -,62 8,628,00 0 8,00 2,24 ,002 3,38 12,624,00 0 4,00 2,24 ,086 -,62 8,62

Contrastea

L1L2L3

Estimacióndel contraste

Valorhipotetizado

Diferencia (Estim.- Hipotetiz.)

Errortípico Sig. Lím. inferior Lím. superior

Intervalo de confianza al 95% para la diferencia

Basada en la matriz de coeficientes de contraste (L') definida por el usuario: comparaciones entre las dosdificultades en cada nivel de ansiedad

a.

Variable dependiente: Rendimiento

80,00 2 40,00 6,40 ,006150,00 24 6,25

FuenteContrasteError

Suma decuadrados gl

Mediacuadrática F Sig.

Variable dependiente: Rendimiento

90,00 2 45,00 7,20 ,004150,00 24 6,25

FuenteContrasteError

Suma decuadrados gl

Mediacuadrática F Sig.

Tabla 7.26. Contraste del efecto simple de nivel de ansiedad en el segundo nivel de dificultad (difícil)

Análisis del efecto de la interacción

Las sumas de cuadrados de los dos efectos simples de nivel de ansiedad suman 130 + 90 = 220 (ver Ta-blas 7.24 y 7.26), es decir, lo mismo que las sumas de cuadrados correspondientes al efecto principalde nivel de ansiedad y a la interacción: 140 + 80 = 220 (ver Tabla 7.12). Este dato viene a confirmarque los efectos simples incluyen el correspondiente efecto principal y el efecto de la interacción. Estaes la razón por la cual, para aislar e interpretar el efecto de la interacción, no basta con valorar lasignificación de los efectos imples, sino que es necesario compararlos. La sintaxis para comparar entresí los tres efectos simples de dificultad de la tarea con la sentencia LMATRIX es la siguiente:

UNIANOVA rendimiento BY dificultad ansiedad /LMATRIX = 'comparaciones entre las dos dificultades en cada nivel de ansiedad' dificultad*ansiedad 1 -1 0 -1 1 0; dificultad*ansiedad 1 0 -1 -1 0 1; dificultad*ansiedad 0 1 -1 0 -1 1.

Esta sintaxis genera, entre otros, los resultados que muestran las Tablas 7.27 y 7.28. La primera esidéntica a la que hemos obtenido al comparar los efectos simples con el procedimiento ANOVA de unfactor (ver Tablas 7.19 y 7.20); por tanto, se interpreta de idéntica manera. La Tabla 7.28 ofrece unavaloración global de las tres comparaciones de la Tabla 7.27. Estos resultados no tendrían ningún in-terés si no fuera porque permiten comprobar que el efecto global de las tres comparaciones entre efectossimples llevadas a cabo en la Tabla 7.27 para poder asilar e interpretar el efecto de la interacción esidéntico al efecto de la interacción (ver Tabla 7.12). Lo cual está indicando que estas tres comparacio-nes no sólo agotan el efecto de la interacción, sino que no están contaminadas por la presencia de otrosefectos distintos del de la interacción.

Tabla 7.27. Comparaciones entre los efectos simples de dificultad de la tarea

Tabla 7.28. Comparaciones entre los efectos simples de dificultad de la tarea

Page 45: 07_anova_2[1]

Capítulo 7. ANOVA de dos factores 45

Modelos jerárquicos o anidados

En el diseño estudiado en este capítulo (dos factores completamente aleatorizados), los J niveles delfactor A se combinan con los K niveles del factor B. A estos diseños se les llama de clasificación cru-zada. En los diseños de clasificación jerárquica, uno de los factores está anidado en el otro factor; estosignifica que los niveles de uno de los factores no son los mismos en cada nivel del otro factor (puedeencontrarse un tratamiento muy completo de este tipo de diseños en Kirk, 1995, págs. 476-511). La pe-culiaridad de este tipo de diseños es que no permiten valorar el efecto de la interacción. Para ajustarmodelos jerárquicos con el SPSS:

' En el cuadro de diálogo Univariante, trasladar la variable dependiente al cuadro Dependiente y lasvariables independientes a la lista Factores fijos.

' Pulsar el botón Modelo para acceder al subcuadro de diálogo Univariante: Modelo y marcar la op-ción Personalizado.

' Seleccionar Efectos principales dentro del menú desplegable Construir términos y trasladar las dosvariables independientes o factores que aparecen en la lista Factores y covariables a la lista Modelo.

' Pulsar el botón Continuar para volver al cuadro de diálogo principal y el botón Pegar para generarla sintaxis correspondiente a las selecciones hechas.

' Ir al Editor de sintaxis para editar la sintaxis recién pegada. Si, por ejemplo, el nombre del factorno anidado es A y el del anidado es B, la última línea de la sintaxis pegada quedará de esta manera:«Design A B». Modificar esta línea de la sintaxis añadiendo, a continuación del nombre del factorno anidado el nombre del factor anidado, entre paréntesis. La última línea de la sintaxis debe que-dar, por tanto, de la siguiente manera: «Design A(B)».