Análisis de Varianza (ANOVA)

Este artículo se ocupará de la aplicación del análisis de la varianza al problema importante y frecuente que se presenta al determinar la importancia de la diferencia entre los medios.

La varianza, en el sentido habitual, es una medida de dispersión de un conjunto de puntuaciones. Describe en qué medida los puntajes difieren entre sí. Se define como la media de la desviación al cuadrado de las puntuaciones individuales tomadas de la media.

donde x = X - M o desviación de la puntuación de la media, es decir, varianza = cuadrado de SD

o, varianza = σ 2 entonces σ =

Una medida de varianza nos da una idea de la homogeneidad del grupo. La varianza del conjunto de puntuaciones será menor cuando el grupo tenga un rendimiento homogéneo. Por otro lado, la varianza del conjunto de puntuaciones será mayor, si el grupo es heterogéneo en el logro.

El análisis de varianza es un dispositivo muy útil para analizar los resultados de investigaciones científicas, investigaciones en ciencias sociales y físicas. Para obtener respuestas a preguntas de investigación en estudios experimentales o para probar las hipótesis, la varianza se analiza en diferentes componentes y se comparan las varianzas de diferentes fuentes. En la investigación nos encontramos con diferentes diseños experimentales y formulamos hipótesis nulas.

Empleamos la técnica de "análisis de varianza" (ANOVA o ANOVAR) para estudiar si la relación de varianza (F) es significativa o no, y basándonos en su hipótesis nula se acepta o se rechaza.

El concepto de varianza y ANOVA se aclara a través de un ejemplo.

Ejemplo 1:

Calcule la varianza de la siguiente distribución de puntajes 4, 6, 3, 7, 5.

Aquí, la expresión Zx 2 se denomina "Suma de cuadrados de desviación de las puntuaciones de la media" (en pocas palabras, SS). Cuando SS se divide por el número total de puntajes (N), obtenemos el "cuadrado medio" o MS. Así, la varianza también se llama media cuadrática. Simbólicamente,

V = MS, o V = SS / N

Una variación en la terminología de ANOVA a menudo se denomina 'cuadrado medio' (o MS). En el Análisis de la varianza (ANOVA), el cuadrado medio o la varianza se calcula dividiendo SS por df . Así

Componentes de la variación:

Antes de pasar por los cálculos detallados de la varianza, es necesario tener una mirada en dos de sus componentes a saber:

(a) Varianza sistemática, y

(b) Variación de error.

(a) Variación sistemática:

La varianza sistemática, en una configuración experimental, es la parte de la varianza que se puede atribuir a la manipulación de una variable experimental, es decir, una variable independiente.

Por ejemplo, un investigador quiere estudiar el efecto de la motivación, es decir, la recompensa verbal y el reconocimiento en el logro académico de dos grupos iguales. Selecciona dos grupos homogéneos y manipula la recompensa verbal a un grupo y el reconocimiento a otro grupo. Luego administra una prueba a ambos grupos y obtiene sus puntuaciones.

(Aquí, 'Motivación' es la variable independiente y 'puntaje obtenido' es la variable dependiente). Cuando se calcula la varianza de todas las puntuaciones de dos grupos, se denomina varianza total (V t ). La parte de la varianza total que es atribuible a la "manipulación de la motivación" solo se puede designar como "Varianza sistemática". Esta es la varianza entre grupos (o V b ).

(b) Variación de error:

Además del efecto de las variables experimentales, también existen otras fuentes de variación debido a variables extrañas que pueden influir en la variable dependiente.

Por lo tanto, la varianza por error es la parte de la varianza total que puede atribuirse a otras fuentes no controladas de variación en un experimento.

La varianza de error resulta de diferentes fuentes a saber:

1. Fuentes incontroladas de variación resultantes de variables extrañas.

2. Variabilidad inherente en las unidades experimentales.

3. Fluctuaciones aleatorias en el experimento.

4. Errores de medida por falta de

(a) Técnicas experimentales estándar;

(b) Uniformidad en la administración;

(c) Conducta física del experimento;

(d) Estado emocional transitorio de los sujetos, etc.

Simbólicamente la varianza del error se expresa como V e . En el ejemplo anterior, nos ocupamos principalmente de dos variables, a saber, la motivación como variable independiente y las puntuaciones de logros como variable dependiente.

Además de estas dos variables, el investigador encuentra otras variables que influyen en la variable dependiente. Tales otras variables pueden ser el sexo, el nivel de inteligencia, el estado socioeconómico, la edad, la educación, etc., que el investigador no ha atendido.

Tales variables que no están controladas en una configuración experimental e influyen en la ocurrencia de una variable dependiente se denominan "variables extrañas" o "variables irrelevantes".

Cuando estas variables se controlan en un experimento, el error experimental se puede minimizar. Si estas variables extrañas no están controladas, formará parte de la varianza del error. "La función principal del diseño experimental es maximizar la varianza sistemática, controlar las fuentes de varianza extrañas y minimizar la varianza del error". Por lo tanto, cada investigador desea reducir el error experimental.

Para minimizar la varianza del error se pueden utilizar las siguientes formas:

1. Las variables extrañas pueden ser controladas por:

a. Aleatorización,

segundo. Eliminación,

do. Pareo,

re. Introduciendo variables o variables independientes adicionales, y

mi. Por control estadístico.

2. Los errores de medición pueden ser controlados por :

a. Utilizando técnicas experimentales estandarizadas,

segundo. Usando instrumentos de medición confiables,

do. Asegurar la uniformidad en la administración o realización del experimento,

re. Aumentar la confiabilidad de la medición dando instrucciones claras e inequívocas, etc.

La discusión anterior nos confirma para concluir que la varianza total se constituye en dos partes, es decir,

V t = V b + V e

donde V t = varianza total

V b = varianza entre grupos (o varianza sistemática)

V e = varianza del error.

En ANOVA, la varianza sistemática se estudia contra la varianza de error por F-test.

Cuanto mayor sea el valor de F, mayor es la probabilidad de que la varianza sistemática sea mayor que el error experimental (dentro de la varianza grupal o variaciones individuales).

Un ejemplo numérico puede distinguir entre varianza sistemática y varianza de error.

Ejemplo 2:

Un investigador asigna diez estudiantes al azar a dos grupos (cinco en cada grupo) y manipula dos tratamientos de motivación para estos dos grupos al azar.

Luego, el investigador administra una prueba y anota los puntajes de diez estudiantes como se indica a continuación:

Ahora se observa que los medios de dos grupos son diferentes. Es decir, encontramos varianza entre grupos. La varianza entre grupos (V b ) se puede calcular de la siguiente manera. Tomemos los medios 5 y 7 como dos puntuaciones y calculemos la varianza de estas dos puntuaciones.

Luego, calcularemos la varianza total (V t ) tomando las diez puntuaciones de ambos grupos en una columna.

V t contiene todas las fuentes de variación en las puntuaciones. Anteriormente, hemos calculado que V b (o la variación entre grupos) es 1.00.

Calculemos ahora otra varianza calculando la varianza de cada grupo por separado y luego promediándolas.

Como hemos calculado las varianzas por separado y luego promediamos, llamamos a esta varianza como “varianza dentro de los grupos” o V w .

En nuestro ejemplo V w = 3 .8

Entonces 4.8 (V t ) = 1.00 (V b ) + 3.8 (V w )

o V f = V b + V w [Varianza total = entre varianza de grupo + varianza dentro del grupo].

Conceptos básicos encontrados con ANOVA:

Antes de abordar problemas numéricos para probar la hipótesis nula empleando ANOVA, deberíamos conocer dos conceptos, a saber: (a) Suma de cuadrados (SS) y (b) Grado de libertad ( df ), que a menudo encontraríamos en ANOVA.

(a) Cálculo de SS (Suma de cuadrados):

En ANOVA calculamos 'varianza entre grupos' (V b ) y la 'varianza dentro de los grupos' (V w ). Calculamos V b y V w de la siguiente manera:

donde SS b = suma de cuadrados Entre grupos

y SS W = suma de cuadrados dentro de los grupos.

Comparamos estas dos varianzas por una relación llamada F donde F = donde

Aprendamos ahora cómo se calcula la suma de cuadrados (SS) mediante dos métodos.

Ejemplo 3:

Calcule la suma de cuadrados de la siguiente distribución de puntajes.

7, 9, 10, 6, 8

Media = 40/5 = 8

Método II (método corto):

SS puede calcularse directamente a partir de las puntuaciones sin calcular la media y la desviación. Esto se conoce como método corto y SS se calcula utilizando la fórmula,

Aquí no tenemos que calcular la media y las desviaciones de la puntuación individual de la media. El segundo método es preferido cuando hay un gran número de puntajes y la media involucra decimales.

Por lo tanto, en ANOVA, la suma de cuadrados se puede calcular utilizando la fórmula.

Cálculo de la suma de cuadrados entre grupos (SS b ) y la suma de cuadrados dentro de los grupos (SS W )

Se pueden emplear los siguientes dos métodos para calcular SS t, SS b y SS w .

Ejemplo 4:

Se manipulan dos tratamientos diferentes en dos grupos de cinco sujetos cada uno.

Y las puntuaciones obtenidas son las siguientes:

Deje que la "Gran media" (es decir, la media de las diez puntuaciones) se designe como M

Ahora M = 35 + 25/10 = 60/10 = 6

Cálculo de SS t, SS b y SS w (Método largo):

Cálculo de SS t :

Para calcular SS t tendremos que averiguar la suma de los cuadrados de la desviación de cada una de las diez puntuaciones anteriores de la gran media (es decir, 6)

Cálculo de SS b :

Para calcular SS b, suponemos que cada elemento del grupo es igual a la media de su grupo y luego estudiamos la varianza entre diferentes grupos. Aquí calcularemos la suma del cuadrado de la desviación de las medias de varios grupos de la gran media.

El valor de cada elemento del grupo I se toma como 7 y el valor de cada elemento del grupo II se toma como 5 y se calcula la suma de los cuadrados de estos valores a partir de la gran media (M = 6).

Podemos calcular SS b en forma tabular de la siguiente manera:

Cálculo de SS w :

Para el cálculo de SS W, averiguaremos la suma de los cuadrados de la desviación de varias puntuaciones en un grupo de la media de los grupos respectivos.

El cálculo de SS W se presenta en forma tabular:

Suma total de cuadrados o SS W = 10 + 6 = 16

En el cálculo anterior hemos encontrado SS t, = 26, SS b, = 10 y SS W = 16

Así SS t = SS b + SS w

Cálculo de SS t, SS b y SS w (Método corto):

En un método breve, podemos calcular SS t SS b y SS W directamente a partir de las puntuaciones utilizando las tres fórmulas siguientes.

En este método corto no tenemos que calcular la media y las desviaciones. Podemos calcular diferentes variaciones directamente de las puntuaciones. En ANOVA, SS t y SS b se calculan generalmente mediante el método corto.

Mientras abordamos los problemas en ANOVA, calcularemos SS y SS t mediante este método corto.

(b) Grados de Libertad (df):

Cada SS se convierte en una variación cuando se divide por los grados de libertad ( df ) asignados a ella. En ANOVA nos encontraríamos con grados de libertad ( df ). El número de grados de libertad para cada variación es uno menos que la V en la que se basa.

Si N = Número de puntajes en todos y K = Número de categorías o grupos, tenemos para el caso general que:

df para SS total = (N - 1)

df para entre grupos SS = (K - 1)

df para dentro de los grupos SS = (N - K)

También:

(N - 1) = (N - K) + (K - 1)

Análisis de varianza (unidireccional):

Por separado hemos discutido acerca de las pruebas de significación de la diferencia entre los medios Normalmente, la prueba t se emplea cuando queremos determinar si las dos medias de la muestra difieren significativamente.

Cuando nos ocupamos de los experimentos que involucran a dos grupos, podemos comprobar si los dos medios difieren significativamente al emplear la prueba t.

Pero la prueba t no es adecuada cuando se comparan más de dos medios. Por ejemplo hay cuatro medios de cuatro grupos. Para probar si estos cuatro medios difieren significativamente entre sí, tenemos que hacer seis pruebas t.

Si los cuatro medios son M 1, M 2, M 3, M 4, tenemos que comparar la diferencia entre M 1 y M 2, es decir (M 1 - M 2 ), entre M 1 y M 3, es decir (M 1 - M 3 ), entre M 1 y M 4, es decir (M 1 - M 4 ), entre M 2 y M 3, es decir (M 2 - M 3 ), entre M 2 y M 4, es decir (M 2 - M 4 ), entre M 3 y M 4, es decir, (M 3 - M 4 ). De manera similar, para 10 significa que tenemos que hacer 45 pruebas t.

Para K significa que tenemos que hacer K (K - 1) / 2 t-tests y esto implicaría más cálculo y trabajo. Pero al emplear la prueba F a través de ANOVA podemos evaluar la importancia de la diferencia de tres o más de tres medios a la vez.

Suposiciones sobre las que descansa una prueba F:

Como de costumbre, una decisión estadística es acertada en la medida en que se han satisfecho ciertos supuestos en los datos que se utilizan.

En ANOVA hay generalmente cuatro requisitos establecidos:

1. El muestreo dentro de los conjuntos debe ser aleatorio. Los distintos grupos de tratamiento se seleccionan al azar de la población.

2. Las variaciones dentro de los diversos conjuntos deben ser aproximadamente iguales. Esto se refiere al supuesto de homogeneidad de varianza, es decir, los grupos son homogéneos en variabilidad.

3. Las observaciones dentro de conjuntos experimentalmente homogéneos deben ser de poblaciones distribuidas normalmente.

4. Las aportaciones a la varianza total deben ser aditivas.

A. Tomaremos algunos ejemplos y veremos cómo se analiza la varianza cuando los grupos son independientes:

Ejemplo 5:

En un grupo experimental, 16 sujetos se asignan al azar a dos grupos de 8 sujetos cada uno. Estos dos grupos fueron tratados con dos métodos diferentes de instrucción. Probar el significado de la diferencia entre las medias de la muestra.

Solución:

Gran total (es decir, el total de las 16 puntuaciones) = 104 o ∑X = 104

Gran media (M), es decir, la media de todas las 16 puntuaciones = ∑X / N = 104/16 = 6.5

Para el cálculo de la relación F tendremos que seguir los pasos que se detallan a continuación:

Paso 1:

La suma de todas las 16 puntuaciones es 44 + 60 o 104; y la corrección (C) es, en consecuencia,

Paso 2:

Cuando cada puntaje de ambos grupos se ajusta al cuadrado y se suma, el ∑X 2 llega a ser (∑X 1 2 + ∑X 2 2 = 260 + 460) 720.

Luego, la corrección 676 se resta del total usando la fórmula:

Total SS o SS 1 = ∑X 2 - C = 720 - 676 ​​= 44.

o, SS t = 3 2 + 4 2 + 5 2 + …… .. + 9 2 - 676 ​​= 44

Paso 3:

La suma de los cuadrados entre los medios SS b se encuentra al cuadrar la suma de cada columna, dividiendo la primera y la segunda entre 8 por separado y restando C.

Entre grupo SS o SS b

Etapa 4:

La SS dentro de (o SS W ) es la diferencia entre la SS t y la SS b . Así SS W = 44 - 16 = 28.

Paso 5:

Dado que hay 16 puntajes en total

Interpretación de la relación F:

La razón de varianza o F es 16/2 u 8. El df para entre medias es 1 y el df para dentro de los grupos es 14. Al ingresar a la Tabla F con estos df, leemos en la columna 1 y en la fila 14 que el nivel .05 es 4.60 y El nivel .01 es 8.86. Nuestra F calculada es significativa a nivel .05.

Pero no es significativo a nivel .01. O, en otras palabras, el valor observado de F es mayor que el valor de nivel de .05 pero menor que el valor de nivel de .01. Por lo tanto, concluimos que la diferencia de medias es significativa a un nivel de .05 pero no significativa a un nivel de significancia de .01.

Ejemplo 6:

(Cuando los tamaños de los grupos son desiguales) Se realiza una prueba de interés a 6 niños en una clase de formación profesional y a 10 niños en una clase de latín.

¿Es la diferencia de medias entre los dos grupos significativa a nivel .05? Probar el significado de la diferencia a través de ANOVA.

Interpretación de la relación F:

La razón de varianza o F es 135/33 o 4.09. El df para entre medias es 1 y el df para dentro de los grupos es 14. Al ingresar a la Tabla F con estos df, leemos en la columna 1 y en la fila 14 que el nivel .05 es 4.60 y el nivel .01 es 8.86. Nuestra F calculada de 4.09 no alcanza el nivel de .05, por lo que nuestra diferencia media de 6 puntos no debe considerarse significativa. De ahí que se acepte la hipótesis nula.

Cuando solo hay dos medios para ser comparados, como aquí; F = t 2 o t = = √F y las dos pruebas (F y t) dan exactamente el mismo resultado. Para el ejemplo anterior √F = √4.09 = 2.02. De la tabla D encontramos que para 14 df, el nivel de significancia de .05 para esta t es 2.14.

Nuestra t de 2.02 no llega a este nivel y, por lo tanto, (como F) no es significativa.

Ejemplo 7:

(Más de dos grupos)

Aplique ANOVA para comprobar si las medias de cuatro grupos difieren significativamente:

Dado que hay 20 puntuaciones en cuatro grupos:

df para SS total (o SS 1 ) = (N - 1) o 20 - 1 = 19

df para SS b = (K - 1) o 4 - 1 = 3

df para SS w = (N - K) o 20 - 4 = 16

F = 33.33 / 3.5 = 9.52

T = √F = 3.08

Interpretación de la relación F:

La razón de varianza o F es 9.52. El df para entre medias es 3 y el df para dentro de los grupos es 16. Al ingresar a la Tabla F con estos df s leemos la columna 3 y la fila 16 que el nivel .05 es 3.24 y el nivel .01 es 5.29.

Nuestra F calculada de 9.52 es más de 5.29. Por lo tanto, F es significativo. La hipótesis nula se rechaza con la conclusión de que los cuatro medios difieren significativamente en el nivel 01.

(B) Tomaremos otro ejemplo para analizar la varianza cuando el mismo grupo se mida más de una vez, es decir, en el caso de grupos correlacionados:

Cuando se administra una prueba y luego se repite, se puede usar el análisis de varianza para determinar si el cambio promedio es significativo (es decir, la importancia de la diferencia entre medias obtenidas de grupos correlacionados).

Ejemplo 8:

(Para grupos correlacionados)

A cinco sujetos se les dan 4 ensayos sucesivos en una prueba de símbolos de dígitos de los cuales solo se muestran las puntuaciones para los ensayos 1 y 4. Es la ganancia media desde la prueba inicial hasta la final significativa.

Los procedimientos para el análisis de varianza actualmente difieren en al menos dos formas de los métodos discutidos anteriormente.

Primero, dado que existe la posibilidad de correlación entre los puntajes obtenidos por los 5 sujetos en el primer y cuarto ensayos, los dos conjuntos de puntajes no deben tratarse desde el principio como muestras independientes (aleatorias).

En segundo lugar, la clasificación es ahora en términos de dos criterios: (a) ensayos y (b) sujetos.

Debido a estos dos criterios, el SS total debe dividirse en tres partes:

(a) SS atribuibles a juicios;

(b) SS atribuibles a sujetos; y

(c) Una SS residual usualmente llamada "interacción"

Los pasos en el cálculo de estas tres variaciones pueden resumirse como sigue:

Paso 1:

Corrección (C). Como en el procedimiento anterior, C = (∑X) 2 / N. En el ejemplo anterior, C es 90 2/10 u 810.

Paso 2:

Suma total de cuadrados. Nuevamente el cálculo repite el procedimiento empleado en los ejemplos 1, 2 y 3.

SS total o SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 o 230.

Paso 3:

SS entre los medios de prueba. Hay dos ensayos de 5 puntuaciones cada uno.

Por lo tanto,

Etapa 4:

SS entre los medios de asignaturas. Se requiere un segundo SS "entre medios" para ocuparse del segundo criterio de clasificación. Hay 5 estudiantes / asignaturas y cada uno tiene dos ensayos. Las puntuaciones de los ensayos 1º y 4º de cada asignatura / alumno se suman para obtener 17, 23, 9, 26, 15.

Por lo tanto,

Paso 5:

Interacción SS. La variación o interacción residual es lo que queda cuando los efectos sistemáticos de las diferencias de los ensayos y las diferencias de los sujetos se han eliminado del SS total.

La interacción mide la tendencia del rendimiento de los sujetos a variar junto con los ensayos: no mide los factores atribuibles a los sujetos ni a los ensayos que actúan solos, sino que actúan conjuntamente.

La interacción se obtiene debe simplemente restando los ensayos SS más los sujetos SS del SS total.

Así,

Interacción SS = SS t - (SS SS + ensayos SS) = 230 - (90 + 90) = 50.

Paso 6:

Como hay 10 puntajes en total, tenemos (10 - 1) o 9 df para el total de SS. Dos ensayos reciben 1 df y 5 sujetos, 4. Los 4 df restantes se asignan a la interacción. La regla es que el df para la interacción es el producto del df para las dos variables que interactúan, aquí 1 x 4 = 4. En general, N = número total de puntajes, r = filas y K = columnas.

Interpretación de las relaciones F:

La F para las pruebas es 7.2. El valor calculado de F para los ensayos es menor que 7.71 que leemos en la Tabla F para el punto .05 cuando df 1 = 1 y df 2 = 4.

Esto significa que la hipótesis nula con respecto a los ensayos es sostenible y debe ser aceptada. La evidencia es fuerte de que no hubo una mejora significativa desde el ensayo 1 al juicio 4.

La F para los sujetos es 1.8 y es mucho más pequeña que el punto .05 de 6.39 en la Tabla F para df 1 = 4 y df 2 = 4. Es obvio que los sujetos no son siempre mejores que otros.

Esto significa que la hipótesis nula con respecto a los sujetos es sostenible y debe ser aceptada.

ANOVA bidireccional:

Para enseñar cierto concepto geométrico si se aplican diferentes métodos de enseñanza a dos o más de dos grupos de estudiantes, lo llamamos como una variable experimental.

En ANOVA de una vía solo se estudia un factor (es decir, una variable independiente). Por ejemplo, cuando queremos probar si los métodos de enseñanza tienen algún efecto en el logro, estudiamos el efecto de una variable independiente (es decir, los métodos de enseñanza) en la variable dependiente (es decir, el logro).

Los conjuntos de datos se diferencian sobre la base de una sola variación experimental. Solo hay un principio de clasificación, una razón para separar los datos en conjuntos.

Para esto, seleccionemos tres grupos al azar y asignemos tres tratamientos diferentes, a saber, método-1, método-2 y método-3 al azar a estos tres grupos.

Al final, los puntajes de rendimiento de los sujetos de los tres grupos diferentes se pueden obtener a través de una prueba apropiada.

Luego, empleando ANOVA podemos comprobar si los medios de estos tres grupos difieren significativamente.

En una clasificación de dos vías o ANOVA de dos vías, hay dos bases distintas de clasificación. Se permiten dos condiciones experimentales para variar de un grupo a otro. En los laboratorios psicológicos se pueden ver diferentes pistas de aterrizaje de aeródromos artificiales, cada una con un patrón diferente de marcas, a través de una pantalla de difusión para estimular la visión a través de la niebla en diferentes niveles de opacidad.

En un problema educativo, cuatro maestros diferentes pueden aplicar cuatro métodos de enseñanza de un determinado concepto geométrico, cada uno de los cuales utiliza cada uno de los cuatro métodos. Habría pues 20 combinaciones de maestro y método.

La siguiente tabla puede precederte aún más:

En un ejemplo que se cita a continuación, se estudian los efectos de tres métodos de instrucción en las puntuaciones de logros. Pero se espera que los métodos de instrucción tengan un efecto diferente dependiendo del nivel de estatus socioeconómico (SES) de los sujetos.

Por lo tanto, podemos diseñar un estudio en el que se pueda estudiar simultáneamente el efecto de dos variables, es decir, el efecto de los métodos de instrucción y el efecto de los niveles de estado socioeconómico (SES). En este diseño también podemos estudiar el efecto de interacción. Para tales diseños se emplean las técnicas de ANOVA de dos vías.

Ejemplo 9:

Seis grupos de estudiantes (cinco estudiantes en cada uno), se seleccionaron al azar para seis condiciones de tratamiento. Estudie el efecto de dos factores, a saber, factor A (estado socioeconómico) y factor B (métodos de instrucción) para el siguiente ejemplo.

Solución:

En el ejemplo anterior, hemos tomado dos niveles de SES, es decir, SES alto en la categoría A 1 y SES bajo en la categoría A 2 y tres métodos de instrucción: B 1 (conferencia), B 2 (discusión) y B 3 ( play-way).

El número total de tratamientos en el experimento será 2 x 3 = 6. Aquí n = 5 y el número total de observaciones es N = 5 x 6 = 30.

Gran total, ∑X = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Se pueden presentar seis grupos de tratamiento diferentes en una "Tabla de interacción", como se indica a continuación:

Para tres métodos de instrucción hay tres columnas (... c = 3). Los totales de fila se utilizan para el cálculo de SS para A (SES). Los totales de las columnas se utilizan para el cálculo de SS para B (métodos de instrucción).

Los pasos en el cálculo de las variaciones se pueden resumir de la siguiente manera:

Paso 1:

Paso 2:

Total SS o SS t = ∑X 2 - C. Aquí todas las treinta puntuaciones se ajustan al cuadrado y se suman y se resta C.

SS t = 5 2 + 7 2 + ……… + 10 2 + 7 2 - 1687.5 = 1919 - 1687.5 = 231.5

Paso 3:

Entre el Grupo SS o SS b = Total de (∑X) 2 / n para las seis condiciones de tratamiento - C.

Etapa 4:

Dentro de los grupos SS o SS W = SS t - SS b = 231.5 - 87.5 = 144

Paso 5:

Ahora "Entre el Grupo SS" o SS b de 87.5 se puede dividir en tres partes, a saber, SS A, SS B y SS AB, es decir, SS b = SS A + SS B + SS AB

Donde SS A = SS del factor A (SES) que se genera a partir de la desviación de A 1 y A 2 significa de la media de las puntuaciones totales.

SS B = SS del factor B (métodos) generado a partir de las desviaciones de B 1, B 2 y B 3 significa de la media de las puntuaciones totales.

Paso 6:

Grados de libertad para diferentes SS.

En nuestro problema tenemos 6 grupos.

.˙. K = 6

n = 5 y N = 6 xn = 6 x 5 = 30.

En la tabla de interacción hay dos filas y tres columnas.

.˙. r = 2 y C = 3.

La partición de df se puede hacer de la siguiente manera:

df para SS t = N - 1 = 30 - 1 o 29

df para SS b = K - 1 = 6 - 1 o 5

df para SS W = K (n - 1) = 6 x 4 o 24

El df fox SS b, se puede dividir en tres partes:

(i) df para SSA = r - 1 = 2 - 1 o 1

(ii) df para SSB = c - 1 = 3 - 1 o 2

(iii) df para SS AB = (r - 1) (C - 1) = 1 x 2 o 2

Ahora podemos ingresar el cálculo anterior en una tabla de resumen ANOVA de dos vías:

Interpretación de la relación F:

(a) F para SES o F para A

F = MS A / MS W = 7.5 / 6.0 = 1.25

(.052 es menos de uno)

Como F de 1.25 <4.26 a nivel de .05, conservamos la hipótesis nula de que los dos grupos seleccionados al azar no difieren en los puntajes de logro en función del estado socioeconómico.

Como F de 6.67> 5.6 a nivel .01, rechazamos la hipótesis nula. Llegamos a la conclusión de que los tres métodos de instrucción afectan de manera diferente las puntuaciones de logros.

Como F de 0.00 <1, retenemos la hipótesis nula. Aceptamos la hipótesis nula de no interacción. Llegamos a la conclusión de que la eficacia de los métodos no depende del nivel de estatus socioeconómico.