Análise de Variância (ANOVA)

Este artigo se preocupará com a aplicação da análise de variância ao importante e freqüentemente encontrado problema de determinar a significância da diferença entre médias.

A variância, no sentido usual, é uma medida de dispersão de um conjunto de pontuações. Descreve até que ponto as pontuações diferem umas das outras. É definido como a média do desvio ao quadrado dos escores individuais obtidos a partir da média.

onde x = X - M ou desvio do escore da média, ou seja, variância = quadrado de SD

ou, variance = σ 2 so σ =

Uma medida de variância nos dá uma idéia sobre a homogeneidade do grupo. A variação do conjunto de pontuações será menor quando o grupo for homogêneo em conquista. Por outro lado, a variância do conjunto de pontuações será mais, se o grupo for heterogêneo em conquista.

A análise de variância é um dispositivo muito útil para analisar os resultados de investigações científicas, pesquisas em ciências sociais e físicas. Para obter respostas a questões de pesquisa em estudos experimentais ou para testar as hipóteses, a variância é analisada em diferentes componentes e as variações de diferentes fontes são comparadas. Na pesquisa, nos deparamos com diferentes delineamentos experimentais e formulamos hipóteses nulas.

Empregamos a técnica de “análise de variância” (ANOVA ou ANOVAR) para estudar se a razão de variância (F) é significativa ou não e, baseando-se nela, a hipótese nula é aceita ou rejeitada.

O conceito de variância e ANOVA é esclarecido por meio de um exemplo.

Exemplo 1:

Calcule a variância da seguinte distribuição das pontuações 4, 6, 3, 7, 5.

Aqui a expressão Zx 2 é chamada de “Soma dos Quadrados de desvio dos escores da média” (em suma SS). Quando SS é dividido pelo número total de pontos (N), obtemos “Mean square” ou MS. Assim, a variância também é chamada de quadrado médio. Simbolicamente,

V = MS ou V = SS / N

Uma variação na terminologia da ANOVA é freqüentemente chamada de 'Quadrado médio' (ou MS). Em Análise de Variância (ANOVA), a média quadrática ou variância é calculada dividindo SS por df . portanto

Componentes da Variação:

Antes de passar por cálculos detalhados de variância, é necessário dar uma olhada em dois de seus componentes, a saber:

(a) Variação sistemática e

(b) Variação de erro.

(a) Variação Sistemática:

A variância sistemática, em uma montagem experimental, é a parte da variância que pode ser atribuída à manipulação da variável experimental, ou seja, variável independente.

Por exemplo, um investigador quer estudar o efeito da motivação, isto é, recompensa verbal e reconhecimento no desempenho acadêmico de dois grupos iguais. Ele seleciona dois grupos homogêneos e manipula a recompensa verbal para um grupo e reconhecimento para outro grupo. Em seguida, ele administra um teste para ambos os grupos e obtém suas pontuações.

(Aqui, 'Motivação' é a variável independente e 'pontuação obtida' é a variável dependente). Quando a variância de todas as pontuações de dois grupos é calculada, é denominada variância total (V t ). A parte da variância total que é atribuível à "manipulação de motivação" só pode ser designada como "Variação Sistemática". Esta é a variação entre os grupos (ou V b ).

(b) Variação de erro:

Além do efeito das variáveis ​​experimentais, existem também outras fontes de variação devido a variáveis ​​externas que podem influenciar a variável dependente.

Assim, a variância do erro é a parte da variância total que pode ser atribuída a outras fontes de variação descontroladas em um experimento.

Resultados de variação de erro de diferentes fontes, a saber:

1. Fontes de variação não controladas resultantes de variáveis ​​estranhas.

2. Variabilidade inerente nas unidades experimentais.

3. Flutuações aleatórias no experimento.

4. Erros de medição devido à falta de

a) Técnicas experimentais padrão;

(b) uniformidade na administração;

(c) Conduta física do experimento;

(d) estado emocional transitório dos sujeitos, etc.

Simbolicamente, a variação do erro é expressa como V e . No exemplo acima, estamos principalmente preocupados com duas variáveis, a saber, a motivação como variável independente e os escores de realização como variável dependente.

Além dessas duas variáveis, o investigador encontra outras variáveis ​​que influenciam a variável dependente. Essas outras variáveis ​​podem ser como sexo, nível de inteligência, status socioeconômico, idade, educação, etc., das quais o investigador não cuidou.

Tais variáveis ​​que não são controladas em uma montagem experimental e influenciam a ocorrência da variável dependente são chamadas de variáveis ​​estranhas ou variáveis ​​irrelevantes.

Quando essas variáveis ​​são controladas em um experimento, o erro experimental pode ser minimizado. Se essas variáveis ​​estranhas não forem controladas, elas formarão a parte da variação do erro. “A principal função do projeto experimental é maximizar a variância sistemática, controlar fontes externas de variância e minimizar a variância do erro.” Assim, todo investigador deseja reduzir o erro experimental.

Para minimizar a variação de erros, siga as maneiras que podem ser usadas:

1. Variáveis ​​estranhas podem ser controladas por:

uma. Randomização,

b. Eliminação,

c. Coincidindo,

d. Introduzindo variáveis ​​ou variáveis ​​independentes adicionais, e

e. Por controle estatístico.

2. Erros de medição podem ser controlados por :

uma. Usando técnicas experimentais padronizadas,

b. Usando instrumentos de medição confiáveis,

c. Garantir uniformidade na administração ou condução de experimentos,

d. Aumentar a confiabilidade da medição, fornecendo instruções claras e inequívocas, etc.

A discussão acima nos confirma a conclusão de que a variância total constitui em duas partes, ie,

V t = V b + V e

onde V t = variância total

V b = variância entre grupos (ou variância sistemática)

V e = variância do erro.

Na ANOVA, a variância sistemática é estudada contra a variância do erro pelo teste F.

Quanto maior o valor de F, maior é a probabilidade de que a variância sistemática seja maior que o erro experimental (dentro da variação do grupo ou variações individuais).

Um exemplo numérico pode distinguir entre variância sistemática e variância de erro.

Exemplo 2:

Um investigador designa dez alunos aleatoriamente para dois grupos (cinco em cada grupo) e manipula aleatoriamente dois tratamentos de motivação para esses dois grupos.

Em seguida, o investigador administra um teste e anota as pontuações de dez alunos, conforme indicado abaixo:

Observa-se agora que os meios de dois grupos são diferentes. Ou seja, encontramos variância entre grupos. A variação entre grupos (V b ) pode ser calculada da seguinte forma. Vamos tomar os 5 e 7 como dois escores e calcular a variância desses dois escores.

Em seguida, calcularemos a variância total (V t ), tomando todas as dez pontuações de ambos os grupos em uma coluna.

Vt contém todas as fontes de variação nas pontuações. Anteriormente, calculamos Vb (ou variação entre grupos) como sendo 1, 00.

Vamos agora calcular ainda outra variância calculando a variância de cada grupo separadamente e depois calculando a média deles.

Como calculamos os desvios separadamente e, em seguida, calculamos a média, chamamos essa variação de "dentro da variação dos grupos" ou V w .

Em nosso exemplo V w = 3 .8

Então 4, 8 (V t ) = 1, 00 (V b ) + 3, 8 (V w )

ou Vf = V b + V w [Variação total = entre variação do grupo + variação dentro do grupo].

Conceitos Básicos Encontrados com ANOVA:

Antes de assumir problemas numéricos para testar a hipótese nula empregando ANOVA, devemos estar familiarizados com dois conceitos: (a) Soma dos Quadrados (SS) e (b) Grau de liberdade ( df ) que freqüentemente encontraríamos na ANOVA.

(a) Computação de SS (Soma dos Quadrados):

Na ANOVA, calculamos a 'variância entre os grupos' (V b ) e a 'variância dentro dos grupos' (V w ). Calculamos V b e V w como segue:

onde SS b = Soma entre grupos de quadrados

e SS W = soma dos quadrados dentro dos grupos.

Nós comparamos essas duas variâncias por uma razão chamada F onde F = onde

Vamos agora aprender como a soma dos quadrados (SS) deve ser calculada através de dois métodos.

Exemplo 3:

Calcule a soma dos quadrados da seguinte distribuição de pontuações.

7, 9, 10, 6, 8

Média = 40/5 = 8

Método II (método curto):

O SS pode ser calculado diretamente das pontuações sem computar a média e o desvio. Isso é conhecido como método curto e SS é calculado usando a fórmula,

Aqui não temos que calcular a média e os desvios do escore individual da média. O segundo método é preferido quando há grande número de pontuações e a média envolve decimais.

Assim, em ANOVA, a soma dos quadrados pode ser calculada usando a fórmula.

Cálculo de soma de quadrados entre grupos (SS b ) e soma de quadrados dentro de grupos (SS W )

Seguindo dois métodos podem ser empregados para calcular SS t, SS be SS w .

Exemplo 4:

Dois tratamentos diferentes são manipulados em dois grupos de cinco indivíduos cada.

E as pontuações alcançadas são as seguintes:

Deixe que a "grande média" (ou seja, a média de todas as dez pontuações) seja designada como M

Agora M = 35 + 25/10 = 60/10 = 6

Cálculo de SS t, SS be SS w (Long Method):

Cálculo do SS t :

Para calcular SS t teremos que descobrir a soma dos quadrados do desvio de cada uma das dez pontuações acima da grande média (ou seja, 6)

Cálculo do SS b :

Para calcular SS b, presumimos que cada item do grupo é igual à sua média de grupo e depois estudamos a variância entre diferentes grupos. Aqui nós calcularemos a soma do quadrado do desvio de meios de vários grupos da grande média.

O valor de cada item no grupo-I é considerado como sendo 7 e o valor de cada item do grupo-II é considerado como sendo 5 e a soma dos quadrados desses valores da grande média (M = 6) será calculada.

Nós podemos calcular SS b em uma forma tabular como segue:

Cálculo da SS w :

Para o cálculo de SS W, vamos descobrir a soma dos quadrados do desvio de várias pontuações em um grupo a partir da média dos respectivos grupos.

O cálculo do SS W é apresentado em forma de tabela:

Soma total de quadrados ou SS W = 10 + 6 = 16

No cálculo acima, encontramos SS t, = 26, SS b, = 10 e SS W = 16

Assim SS t = SS b + SS w

Cálculo de SS t, SS be SS w (Short Method):

No método curto, podemos calcular SS t SS be SSW diretamente das pontuações facilmente usando as três fórmulas seguintes.

Nesse método curto, não precisamos calcular a média e os desvios. Podemos calcular diferentes variações diretamente das pontuações. Na ANOVA, SS t e SS b são calculados geralmente pelo método curto.

Ao assumir problemas no ANOVA, calcularemos SS e SS t por esse método curto.

b) Graus de liberdade (df):

Cada SS se torna uma variação quando dividido pelos graus de liberdade ( df ) alocados a ele. Na ANOVA, encontramos graus de liberdade ( df ). O número de graus de liberdade para cada variação é um a menos que o V no qual se baseia.

Se N = Número de pontuações em todos e K = número de categorias ou grupos, temos para o caso geral que:

df para total SS = (N - 1)

df para entre os grupos SS = (K - 1)

df para dentro dos grupos SS = (N - K)

Além disso:

(N - 1) = (N - K) + (K - 1)

Análise de Variância (One Way):

Separadamente discutimos sobre testes de significância da diferença entre médias. Normalmente, o teste t é empregado quando queremos determinar se as duas médias da amostra diferem significativamente.

Quando nos preocupamos com os experimentos envolvendo dois grupos, podemos testar se as duas médias diferem significativamente empregando o teste t.

Mas o teste t não é adequado quando mais de dois meios devem ser comparados. Por exemplo, existem quatro meios de quatro grupos. Para testar se essas quatro médias diferem significativamente uma da outra, temos que fazer seis testes-t.

Se as quatro médias são M 1, M2, M 3, M 4, temos que comparar a diferença entre M 1 e M 2, ou seja, (M 1 - M 2 ), entre M 1 e M 3, ou seja, (M 1 - M 3 ), entre M 1 e M 4 ie (M 1 - M 4 ), entre M 2 e M 3 ie (M 2 - M 3 ), entre M 2 e M 4 ie (M 2 - M 4 ), entre M 3 e M 4, isto é, (M3 - M4). Da mesma forma para 10 significa que temos que fazer 45 testes-t.

Para K significa que temos que fazer testes K (K - 1) / 2 t e isso envolveria mais computação e mão de obra. Mas, empregando o teste F através da ANOVA, podemos avaliar a significância da diferença de três ou mais de três médias ao mesmo tempo.

Suposições sobre as quais um teste F se baseia:

Como de costume, uma decisão estatística é válida na medida em que certas suposições foram satisfeitas nos dados que são usados.

Na ANOVA há geralmente quatro requisitos declarados:

1. A amostragem dentro de conjuntos deve ser aleatória. Os vários grupos de tratamento são selecionados aleatoriamente da população.

2. As variações de dentro dos vários conjuntos devem ser aproximadamente iguais. Isso se refere à suposição de homogeneidade da variância, ou seja, os grupos são homogêneos na variabilidade.

3. As observações dentro de conjuntos experimentalmente homogêneos devem ser da população normalmente distribuída.

4. As contribuições para a variância total devem ser aditivas.

A. Vamos pegar alguns exemplos e ver como a variância é analisada quando os grupos são independentes:

Exemplo 5:

Em uma montagem experimental, 16 indivíduos são designados aleatoriamente para dois grupos de 8 indivíduos cada. Esses dois grupos foram tratados com dois métodos diferentes de instrução. Teste a significância da diferença entre as médias da amostra.

Solução:

Total Geral (ou seja, total de todas as 16 pontuações) = 104 ou ∑X = 104

Grande média (M) ie Média de todas as 16 pontuações = ∑X / N = 104/16 = 6, 5

Para o cálculo da relação F, teremos que seguir os passos indicados abaixo:

Passo 1:

A soma de todas as 16 pontuações é de 44 + 60 ou 104; e a correção (C) é, consequentemente,

Passo 2:

Quando cada pontuação de ambos os grupos é quadrada e somada, o ∑X 2 passa a ser (1X 1 2 + ∑X 2 2 = 260 + 460) 720.

Em seguida, a correção 676 é subtraída do total usando a fórmula:

Total SS ou SS 1 = ∑X 2 - C = 720 - 676 ​​= 44.

ou, SS t = 3 2 + 4 2 + 5 2 + …… .. + 9 2 - 676 ​​= 44

Etapa 3:

A soma dos quadrados entre as médias SS b é encontrada ao se quadrar a soma de cada coluna, dividindo o primeiro e o segundo por 8 separadamente e subtraindo C.

Entre o grupo SS ou SS b

Passo 4:

O SS dentro (ou SS W ) é a diferença entre o SS te SS b . Assim SS W = 44 - 16 = 28.

Passo 5:

Como existem 16 pontuações em todas

Interpretação da Razão F:

A razão de variância ou F é 16/2 ou 8. O df para entre médias é 1 e df para dentro de grupos é 14. Inserindo a Tabela F com estes df's lemos na coluna 1 e linha 14 que o nível .05 é 4.60 e o nível de 0, 01 é 8, 86. Nosso F calculado é significativo no nível 0, 05.

Mas não é significativo no nível 0, 01. Ou em outras palavras, o valor observado de F é maior que o valor de nível de 0, 05, mas menor que o valor de nível de 0, 01. Portanto, concluímos que a diferença média é significativa no nível 0, 05, mas não significativa no nível 0, 01 de significância.

Exemplo 6:

(Quando os tamanhos dos grupos são desiguais) Um Teste de Interesse é administrado a 6 meninos em uma classe de Treinamento Vocacional e a 10 meninos em uma aula de latim.

A diferença média entre os dois grupos é significativa no nível 0, 05? Teste a significância da diferença através da ANOVA.

Interpretação da Razão F:

A taxa de variação ou F é 135/33 ou 4, 09. O df para entre médias é 1 e o df para dentro de grupos é 14. Inserindo a Tabela F com estes df's, lemos na coluna 1 e na linha 14 que o nível .05 é 4.60 e o nível .01 é 8.86. Nosso F calculado de 4, 09 não atinge o nível 0, 05, de modo que nossa diferença média de 6 pontos deve ser considerada como não significativa. Daí a hipótese nula é aceita.

Quando há apenas dois meios a serem comparados, como aqui; F = t 2 ou t = = √F e os dois testes (F et) dão exatamente o mesmo resultado. Para o exemplo acima, =F = √4.09 = 2.02. A partir da tabela D, descobrimos que, para 14 df, o nível de significância de 0, 05 para este t é 2, 14.

Nosso t de 2.02 não chega a esse nível e, portanto, (como F) não é significativo.

Exemplo 7:

(Mais de dois grupos)

Aplique ANOVA para testar se as médias de quatro grupos diferem significativamente:

Como existem 20 pontuações em quatro grupos:

df para SS total (ou SS 1 ) = (N - 1) ou 20 - 1 = 19

df para SS b = (K - 1) ou 4 - 1 = 3

df para SS w = (N - K) ou 20 - 4 = 16

F = 33, 33 / 3, 5 = 9, 52

T = √F = 3, 08

Interpretação da razão F:

A razão de variância ou F é 9, 52. O df para entre médias é 3 e o df para dentro de grupos é 16. Inserindo a Tabela F com estes df s lemos a coluna 3 e linha 16 que o nível .05 é 3.24 e o nível .01 é 5.29.

Nosso F calculado de 9, 52 é superior a 5, 29. Portanto, F é significativo. A hipótese nula é rejeitada com a conclusão de que as quatro médias diferem significativamente no nível 01.

(B) Vamos tomar outro exemplo na análise de variância quando o mesmo grupo é medido mais de uma vez, ou seja, no caso de grupos correlacionados:

Quando um teste é dado e depois repetido, a análise de variância pode ser usada para determinar se a mudança média é significativa (isto é, a significância da diferença entre médias obtidas de grupos correlacionados).

Exemplo 8:

(Para grupos correlacionados)

Cinco sujeitos recebem 4 tentativas sucessivas com um teste de símbolo de dígitos, do qual apenas são mostradas as pontuações dos ensaios 1 e 4. O ganho médio do primeiro para o julgamento final é significativo?

Os procedimentos para a análise de variância atualmente diferem em pelo menos duas maneiras dos métodos discutidos acima.

Primeiro, como há possibilidade de correlação entre os escores obtidos pelos 5 sujeitos no primeiro e quarto ensaios, os dois conjuntos de escores não devem, no início, ser tratados como amostras independentes (aleatórias).

Em segundo lugar, a classificação é agora em termos de dois critérios: (a) ensaios e (b) assuntos.

Por causa desses dois critérios, o SS total deve ser dividido em três partes:

(a) SS atribuíveis a julgamentos;

(b) SS atribuíveis aos sujeitos; e

(c) Um SS residual geralmente chamado de “interação”

As etapas no cálculo dessas três variações podem ser resumidas da seguinte forma:

Passo 1:

Correção (C). Como no procedimento anterior, C = (∑X) 2 / N. No exemplo acima, C é 90 2/10 ou 810.

Passo 2:

Soma Total de Quadrados. Novamente, o cálculo repete o procedimento empregado nos exemplos 1, 2 e 3.

Total SS ou SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 ou 230

Etapa 3:

SS entre os meios de tentativas. Existem duas tentativas de 5 pontos cada.

Assim sendo,

Passo 4:

SS entre os meios dos sujeitos. Um segundo “meio intermediário” SS é necessário para cuidar do segundo critério de classificação. Existem 5 estudantes / sujeitos e cada um tem dois ensaios. As pontuações de 1ª e 4ª tentativas de cada sujeito / aluno são adicionadas para obter 17, 23, 9, 26, 15.

Conseqüentemente,

Passo 5:

Interação SS. A variação ou interação residual é o que sobra quando os efeitos sistemáticos das diferenças dos testes e das diferenças dos sujeitos foram removidos do SS total.

A interação mede a tendência para o desempenho do sujeito variar com as tentativas: ele mede os fatores atribuíveis não aos sujeitos nem aos julgamentos agindo sozinhos, mas a ambos atuando juntos.

A interação é obtida simplesmente subtraindo os testes SS mais os sujeitos SS do total de SS.

Portanto,

Interação SS = SS t - ( Assuntos SS + Ensaios SS) = 230 - (90 + 90) = 50.

Passo 6:

Como há 10 pontos em todos temos (10 - 1) ou 9 df para o total de SS. Dois ensaios recebem 1 df e 5 sujeitos, 4. Os restantes 4 df são atribuídos à interação. A regra é que o df para interação é o produto do df para as duas variáveis ​​que interagem, aqui 1 x 4 = 4. Em geral, N = número total de pontuações, r = linhas e K = colunas.

Interpretação das relações F:

O F para tentativas é 7.2. O valor calculado de F para tentativas é menor que 7, 71 que lemos na Tabela F para o ponto 0, 05 quando df 1 = 1 e df 2 = 4.

Isso significa que a hipótese nula com relação aos julgamentos é sustentável e deve ser aceita. A evidência é forte de que não houve melhora significativa desde o julgamento 1 até o julgamento 4.

O F para sujeitos é 1, 8 e é muito menor que o ponto 0, 05 de 6, 39 na Tabela F para df 1 = 4 e df 2 = 4. É óbvio que os assuntos não são consistentemente melhores que outros.

Isso significa que a hipótese nula com relação aos sujeitos é sustentável e deve ser aceita.

Two Way ANOVA:

Para ensinar certos conceitos geométricos se diferentes métodos de ensino são aplicados a dois ou mais de dois grupos de estudantes, nós o chamamos de variável experimental.

No one-way ANOVA, apenas um fator (isto é, uma variável independente) é estudado. Por exemplo, quando queremos testar se os métodos de ensino têm algum efeito sobre a realização, estudamos o efeito de uma variável independente (isto é, ensino de métodos) na variável dependente (isto é, realização).

Os conjuntos de dados são diferenciados com base em apenas uma variação experimental. Existe apenas um princípio de classificação, uma razão para segregar dados em conjuntos.

Para isso, vamos selecionar três grupos aleatoriamente e atribuir três tratamentos diferentes, a saber, o método-1, o método-2 e o método-3 aleatoriamente a esses três grupos.

Ao final, os escores de aproveitamento dos sujeitos dos três diferentes grupos podem ser obtidos por meio de um teste apropriado.

Então, empregando ANOVA, podemos testar se as médias desses três grupos diferem significativamente.

Em uma classificação bidirecional ou ANOVA de duas vias, há duas bases distintas de classificação. Duas condições experimentais podem variar de grupo para grupo. Nos laboratórios de psicologia, diferentes pistas de pouso artificiais, cada uma com um padrão diferente de marcações, podem ser vistas através de uma tela de difusão para estimular a visão através da neblina em diferentes níveis de opacidade.

Em um problema educacional, quatro métodos de ensinar um certo conceito geométrico podem ser aplicados por cinco professores diferentes, cada um usando cada um dos quatro métodos. Haveria, portanto, 20 combinações de professor e método.

A tabela a seguir pode preceder você mais:

Em um exemplo citado abaixo, os efeitos de três métodos de instrução nos escores de desempenho são estudados. Mas espera-se que os métodos de instrução tenham efeito diferente, dependendo do nível de status socioeconômico (SES) dos sujeitos.

Assim, podemos projetar um estudo no qual o efeito de duas variáveis, ou seja, efeito de métodos de instrução e efeito de níveis de status socioeconômico (SES), pode ser estudado simultaneamente. Neste projeto também podemos estudar o efeito de interação. Para tais projetos, as técnicas de ANOVA de duas vias são empregadas.

Exemplo 9:

Seis grupos de estudantes (cinco estudantes em cada) foram selecionados aleatoriamente para seis condições de tratamento. Estude o efeito de dois fatores, ou seja, o fator A (status socioeconômico) e o fator B (métodos de instrução) para o exemplo a seguir.

Solução:

No exemplo acima, tomamos dois níveis de SES: High SES na categoria A 1 e Low SES na categoria A 2 e três métodos de instrução, B 1 (palestra), B 2 (discussão) e B 3 ( jeito de brincar).

O número total de tratamentos no experimento será 2 x 3 = 6. Aqui n = 5 e o número total de observações sendo N = 5 x 6 = 30.

Total geral, ∑X = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Seis grupos de tratamento diferentes podem ser apresentados em uma "Tabela de interação", conforme abaixo:

Para três métodos de instrução existem três colunas (... c = 3). Os totais da linha são usados ​​para o cálculo de SS para A (SES). Os totais da coluna são usados ​​para o cálculo de SS para B (métodos de instrução).

Etapas no cálculo de desvios podem ser resumidas da seguinte forma:

Passo 1:

Passo 2:

Total SS ou SS t = ∑X 2 - C. Aqui todas as trinta pontuações são quadradas e adicionadas e C é subtraído.

SS t = 5 2 + 7 2 + ……… + 10 2 + 7 2 - 1687, 5 = 1919 - 1687, 5 = 231, 5

Etapa 3:

Entre o Grupo SS ou SS b = Total de (∑X) 2 / n para todas as seis condições de tratamento - C.

Passo 4:

Dentro dos Grupos SS ou SS W = SS t - SS b = 231, 5 - 87, 5 = 144

Passo 5:

Agora, “Entre o Grupo SS” ou SS b de 87, 5 pode ser dividido em três partes, SS, SS B e SS AB, ou seja, SS b = SSA + SSB + SS AB

Onde SS A = SS do fator A (SES) gerando a partir do desvio de A 1 e A 2 significa a média das pontuações totais.

SS B = SS do fator B (métodos) gerado a partir dos desvios de B 1, B 2 e B 3 significa a partir da média dos escores totais.

Passo 6:

Graus de liberdade para diferentes SS

No nosso problema nós temos 6 grupos

.˙. K = 6

n = 5 e N = 6 xn = 6 x 5 = 30.

Na tabela de interação existem duas linhas e três colunas

.˙. r = 2 e C = 3.

O particionamento do df pode ser feito da seguinte maneira:

df para SS t = N - 1 = 30 - 1 ou 29

df para SS b = K - 1 = 6 - 1 ou 5

df para SS W = K (n - 1) = 6 x 4 ou 24

O df fox SS b, pode ser particionado em três partes:

(i) df para SSA = r - 1 = 2 - 1 ou 1

(ii) df para SSB = c - 1 = 3 - 1 ou 2

(iii) df para SS AB = (r - 1) (C - 1) = 1 x 2 ou 2

Agora podemos inserir o cálculo acima em uma tabela de resumo de ANOVA bidirecional:

Interpretação da razão F:

(a) F para SES ou F para A

F = MS A / MS W = 7, 5 / 6, 0 = 1, 25

(.052 é menor que um)

Como F de 1, 25 <4, 26 no nível 0, 05, retemos a hipótese nula de que os dois grupos selecionados aleatoriamente não diferem nos escores de desempenho com base no status socioeconômico.

Como F de 6, 67> 5, 6 no nível 0, 01, rejeitamos a hipótese nula. Concluímos que os três métodos de instrução afetam os escores de desempenho de maneira diferente.

Como F de 0, 00 <1, retemos a hipótese nula. Aceitamos a hipótese nula de não interação. Concluímos que a eficácia dos métodos não depende do nível de status socioeconômico.