Buscar

CAP 4

Prévia do material em texto

123 
 
 
 
 
 
 
 
4 
ANÁLISE DE VARIÂNCIA E 
TESTES DE HIPÓTESES 
 
 
Um problema que se apresenta com maior freqüência do que qualquer 
outro na análise estatística é o de avaliar se duas ou mais amostras diferem 
significativamente com relação a alguma variável. 
Este tipo de problema ocorre tão freqüentemente porque os 
pesquisadores muitas vezes propõem experimentos para comparar dois ou 
mais tratamentos (amostras) entre si. Por exemplo, uma nova técnica de 
aplicação de vermífugo em caprino é comparada com a técnica tradicional, 
diferentes tipos de adubos orgânicos são avaliados na cultura do tomate, 
diferentes variedades de milho forrageiro são avaliadas numa determinada 
região, etc.. 
Em função disso, é necessário um método estatístico para solucionar 
problemas dessa natureza. Um dos métodos mais utilizados para resolver tais 
problemas é conhecido como análise de variância. 
 
4.1 Análise de Variância 
 
A análise de variância foi introduzida por Fisher e é essencialmente 
um processo baseado na decomposição da variação total existente entre uma 
série de observações, em partes que podem ser atribuídas a causas conhecidas 
e numa parte devida a causas desconhecidas ou não suscetíveis de controle. 
Como exemplo das causas conhecidas, pode-se citar o efeito de diferentes 
inseticidas no controle do pulgão em batata (Solanum tuberosum L.) cv. 
RADOSA, e como exemplo das causas desconhecidas, as diferenças existentes 
entre as plantas (parcelas), condicionando um tipo diferente de resposta a um 
mesmo inseticida. Os efeitos dessas causas desconhecidas, ou não 
controláveis, contribuem para uma porção da variação total, que é isolada na 
análise de variância, recebendo a denominação de Erro ou Resíduo. 
 
 
 
124 
A variação que contribui para o erro experimental pode ser de dois 
tipos: 
a) Inerente à própria variabilidade do material experimental; 
b) Proveniente da falta de uniformidade do ambiente em que é 
conduzido o experimento. 
Na análise de variância, quando a variação total é decomposta, as 
causas conhecidas e desconhecidas representam, respectivamente, a variação 
entre amostragens (tratamentos) e a variação dentro de amostragens (erro ou 
resíduo). 
Como a variação total é medida em termos de variância, é calculada a 
soma de quadrados total, bem como o número de graus de liberdade, as quais 
representam, respectivamente, o numerador e o denominador de equação da 
variância. Através do desdobramento da soma de quadrados total de duas ou 
mais amostras de dados, obtém-se as suas respectivas somas de quadrados 
entre amostragens e dentro de amostragens. 
Tais somas de quadrados divididas pelos seus respectivos graus de 
liberdade fornecem os quadrados médios (variâncias) entre amostragens e 
dentro de amostragens, respectivamente, os quais são confrontados através de 
um teste de hipótese (por exemplo, o teste F) para verificar se as amostras 
avaliadas diferem significativamente ou não com relação a alguma variável. 
Os dados relativos às somas de quadrados e aos graus de liberdade, 
bem como os quadrados médios serão colocados numa tabela, chamada de 
Quadro de Análise de Variância. A composição desta tabela está explicitada 
na TABELA 4.1. 
 
TABELA 4.1 – QUADRO DA ANÁLISE DE VARIÂNCIA SEGUNDO UM ÚNICO 
CRITÉRIO* 
 
 
Causa de 
Variação 
 
 
Graus de 
Liberdade (GL) 
 
Soma de 
Quadrados (SQ) 
 
Quadrados 
Médios (QM) 
 
 
F Calculado 
 
Entre 
Amostragens 
 
t – 1 
 
SQ1 
 
QM1 = SQ1/ 
 t – 1 
 
F = QM1/ 
 QM2 
 
 
Dentro de 
Amostragens 
 
 
t (r – 1) 
 
SQ2 = SQ Total 
 – SQ1 
 
QM2 = SQ2/ 
 t (r – 1) 
 
 
 
Total 
 
t . r – 1 
 
SQ Total 
 
 
*: A análise de variância é denominada “segundo um único critério”, porque, no caso 
apresentado, foi levado em consideração apenas um critério, representado pelos efeitos 
das várias amostragens (tratamentos). Os experimentos planejados com base neste tipo de 
análise são denominados “experimentos inteiramente casualizados”. 
 
 
125 
As fórmulas matemáticas e o processo de análise de variância para 
cada tipo de experimento, serão vistos em capítulos posteriores, quando for 
feita uma abordagem sobre cada delineamento estatístico. 
 
4.1.1 Suposições da análise de variância 
 
Além de aprender as regras para levar a cabo uma análise de variância, 
todo pesquisador deve buscar o domínio e a compreensão dos princípios 
inerentes a mesma, para não defrontar-se com sérios problemas, como por 
exemplo, chegar a conclusões que não têm justificativas ou não alcançar 
conclusões importantes porque os dados não foram analisados adequadamente. 
Desse modo, para que a análise de variância possa ter validade, o 
pesquisador deve atender às seguintes suposições: 
a) Os efeitos principais devem ser aditivos – Nos experimentos, os 
vários efeitos devem ser aditivos, tanto é que para cada delineamento 
estatístico existe um modelo matemático denominado modelo linear aditivo. 
Para o delineamento inteiramente casualizado, este modelo é Xij = mˆ + ti + eij, 
onde expressa que o valor de qualquer unidade experimental é resultante de 
uma média geral, mais um efeito de tratamentos e mais um efeito do erro 
experimental. O modelo correspondente ao delineamento em blocos 
casualizados é: Xij = mˆ + ti + bj + eij, onde o valor de qualquer unidade 
experimental é resultante de uma média geral, mais um efeito de tratamentos, 
mais um efeito de blocos e mais um efeito do erro experimental. Para o 
delineamento em quadrado latino, este modelo é: Xijk = mˆ + t(k)ij + lj + cj + eijk, 
onde o valor de qualquer unidade experimental é resultante de uma média 
geral, mais um efeito de tratamentos, mais um efeito de linhas, mais um efeito 
de colunas e mais um efeito do erro experimental. O aspecto importante, que 
deve notar-se nestes modelos, é que os efeitos se somam; daí o nome de 
modelo linear aditivo. 
O modelo para o delineamento em blocos casualizados, por exemplo, 
implica que um efeito de tratamento é o mesmo para todos os blocos e que o 
efeito de bloco é o mesmo para todos os tratamentos. Em outras palavras, 
encontra-se que um tratamento aumenta a produção em certa quantidade acima 
da média geral, supomos que este tenha o mesmo efeito tanto nos blocos de 
alta produção como nos blocos de baixa produção. 
Caso o que foi exposto acima não se verifique, é necessário 
transformar os dados experimentais para ajustá-los ao modelo aditivo. 
b) Os erros de observação devem ser independentes – Cada 
observação possui um erro que deve ser independente dos demais. O princípio 
da casualização assegura a validade da estimativa do erro experimental, pois 
permite uma distribuição independente do mesmo. A casualização evita que 
 
 
126 
todas as parcelas que recebem o mesmo tratamento ocupem posições 
adjacentes na área experimental, visto que as parcelas adjacentes, 
principalmente no campo, tendem a estar mais relacionadas entre si do que as 
parcelas distribuídas aleatoriamente. 
c) Os erros de observação devem ser normalmente distribuídos – 
A única fonte de variação dentro de amostragens são os erros aleatórios. Estes 
devem ter distribuição normal (ou aproximadamente normal) com média igual 
a zero e variância igual a S
2
. Felizmente, as variações da suposição de 
normalidade não afetam muito seriamente a validade da análise de variância. 
A normalidade dos dados pode ser verificada por um teste de 
normalidade, como por exemplo, o teste do quiquadrado, desde que o número 
de amostrascom as quais estão trabalhando seja definitivamente grande. 
Quando se verifica que falta normalidade aos dados, usam-se as 
transformações para que os mesmos sejam normalmente distribuídos. De 
modo geral, dados médios de parcelas têm distribuição normal. 
d) As variâncias das diferentes amostras devem ser homogêneas – 
Na análise de variância, o valor do Quadrado Médio do Resíduo, que 
corresponde à estimativa da variância do erro experimental, é utilizado nas 
fórmulas matemáticas dos testes de hipóteses. Tais testes são utilizados para 
verificar se existe ou não diferença significativa entre os tratamentos 
avaliados. O Quadrado Médio do Resíduo nada mais é que a média das 
variâncias de cada tratamento (amostra). Assim sendo, é importante que as 
variâncias das diferentes amostras sejam homogêneas, de modo que os 
resultados obtidos dos testes de hipóteses tenham validade. 
Entre os vários testes estatísticos utilizados para verificar a 
homogeneidade de variâncias, tem-se o teste F-máximo, proposto por Hartley. 
O teste F-máximo é simples e rápido, porém apresenta menor precisão 
quando as amostras têm graus de liberdade diferentes. 
A fórmula do referido teste é a seguinte: 
 
F-máximo = 
mínimas
máximas
2
2 
 
onde: 
s
2
 máxima = maior valor das estimativas das variâncias entre as amostras; 
s
2
 mínima = menor valor das estimativas das variâncias entre as amostras. 
 
O valor calculado de F-máximo é confrontado com o valor de F-
máximo tabelado, com K = número de estimativas das variâncias das 
diferentes amostras e (N – 1) graus de liberdade associados a cada estimativa 
 
 
127 
de variância, sendo N = número de observação de cada amostra (TABELA 
A.1). 
Logo tem-se: 
F-máximo calculado > F-máximo tabelado (1%) - ** (as estimativas 
das variâncias são estatisticamente diferentes no nível de 1% de probabilidade, 
isto é, não há homogeneidade de variâncias); 
F-máximo calculado < F-máximo tabelado (1%) - recorre-se no nível 
de 5% de probabilidade; 
F-máximo calculado > F-máximo tabelado (5%) - * (as estimativas 
das variâncias são estatisticamente diferentes no nível de 5% de probabilidade, 
isto é, não há homogeneidade de variâncias); 
F-máximo calculado < F-máximo tabelado (5%) - ns (as estimativas 
das variâncias não diferem estatisticamente entre si no nível de 5% de 
probabilidade, isto é, as variâncias são homogêneas). 
Quando os graus de liberdade para cada amostra são diferentes, toma-
se a média aritmética dos mesmos para usar a TABELA A.1. 
Exemplo 1: Verificar se as variâncias são homogêneas pelo teste F-
máximo a partir dos dados da TABELA 4.2. 
 
TABELA 4.2 – PESOS DE 20 CAPULHOS, EM GRAMAS, DE VARIEDADES DE 
ALGODÃO HERBÁCEO NO MUNICÍPIO DE VIÇOSA-AL 
 
 
Variedades 
 
I 
 
II 
 
III 
 
IV 
 
V 
 
VI 
 
Totais de Variedades 
 
 
1 – ALLEN - 333/57 
 
78 
 
90 
 
90 
 
75 
 
70 
 
88 
 
491 
 
 
2 – AFC - 65/5236 
 
100 
 
65 
 
78 
 
92 
 
85 
 
90 
 
510 
 
 
3 – IAC - 13.1 
 
 102 
 
95 
 
102 
 
85 
 
80 
 
98 
 
562 
 
 
4 – IPEANE - SU – 01 
 
98 
 
70 
 
85 
 
85 
 
88 
 
80 
 
506 
 
 
FONTE: FERREIRA (1977). 
 
As variâncias de cada variedade são: 
 
   








5
6
491
553.40
1
22
2
2
1
N
N
X
X
s 74,5667 
 
 
 
128 
   








5
6
510
098.44
1
22
2
2
2
N
N
X
X
s 149,6000 
 
   








5
6
562
062.53
1
2
2
2
2
3
N
N
X
X
s 84,2667 
 
   








5
6
506
098.43
1
22
2
2
4
N
N
X
X
s 85,0667 
 
F-máximo = 

mínimas
máximas
2
2 149,6000/74,5667  2,01 
 
F-máximo tabelado (K = 4; N – 1 = 5): 1% = 28,0; 5% = 13,7. 
Logo, F-máximo = 2,01 ns. Assim, chega-se à conclusão de que as 
estimativas das variâncias do peso de 20 capulhos de variedades de algodão 
herbáceo são homogêneas. 
Uma regra prática e rápida para verificar a homogeneidade de 
variâncias é que a relação entre a maior e a menor delas não pode ser superior 
a mais de quatro vezes para que elas sejam homogêneas. 
Quando as variâncias das diferentes amostras não são homogêneas, 
tem-se diversos cursos a seguir. Primeiro, pode-se separar as amostras em 
grupos, de modo que as variâncias dentro de cada grupo sejam homogêneas. 
Assim, a análise de variância poderá ser efetuada para cada grupo. Segundo, 
pode-se utilizar um método descrito em textos mais avançados de estatística, o 
qual contempla um procedimento bastante complicado para ponderar médias 
de acordo com suas variâncias. Terceiro, pode-se transformar os dados de tal 
forma que eles fiquem homogêneos. Este método é o mais utilizado na prática. 
 
4.1.2 Transformações de dados 
 
Como foi visto, na análise de variância, algumas condições são 
exigidas para que os testes de hipóteses tenham validade. Contudo, como tais 
condições raramente são verificadas na prática, vários procedimentos são 
utilizados com o fim de reparar (pelo menos aproximadamente) a falta de 
verificação dessas condições. Dentre os procedimentos, geralmente utilizam-
se transformações de dados. 
 
 
129 
Uma transformação é qualquer alteração sistemática num conjunto de 
dados onde certas características são mudadas e outras permanecem 
inalteradas. 
As principais transformações são: 
a) Raiz quadrada – Própria para certos tipos de dados em que a 
média é aproximadamente igual à variância, ou seja, para dados oriundos de 
uma distribuição de Poisson (tipo de distribuição em que os dados apresentam 
uma probabilidade muito baixa de ocorrência em qualquer indivíduo – os 
fenômenos naturais são os exemplos mais óbvios desse tipo de ocorrência). 
Tais tipos de dados ocorrem quando as variáveis são oriundas de contagem 
como: sementes por parcela, período de enraizamento de bulhos, insetos por 
planta, carrapatos por animal, etc.. Os dados provenientes de uma escala de 
notas também devem ser transformados através da raiz quadrada. Também os 
dados de porcentagens, referentes à contagens, quando variam de 0 a 20% ou 
de 80 a 100%, podem ser transformados através da raiz quadrada. Neste caso, 
as porcentagens entre 80 e 100% devem ser, de preferência, subtraídos de 100, 
antes de se fazer a transformação. A transformação da raiz quadrada é, ainda, 
indicada no caso de porcentagens, fora dos limites acima considerados, 
quando as observações estão claramente numa escala contínua. 
Neste caso tem-se: 
x
. 
Quando nesse tipo de transformação os dados variam de 0 a 10, 
trabalha-se com 
5,0x 
 ou 
1x 
, em lugar de 
x
. 
b) Logarítmica – É usada sempre que tem-se dados em que os 
desvios padrões das amostras são aproximadamente proporcionais às médias, 
ou seja, todas as amostras apresentam o mesmo coeficiente de variação. 
Também quando os efeitos principais são multiplicativos, em vez de aditivos, 
os dados devem ser transformados através desse tipo de transformação. Essas 
transformações é satisfatória quando os dados se referem à contagem de 
bactérias, de esporos, de grãos de pólen, etc.. Dados provenientes de adição de 
vitaminas em animais também devem ser transformados através da 
transformação logarítmica. É utilizada, ainda, quando os dados são 
apresentados por porcentagens que abrangem uma grande amplitude de 
variação. 
Nesse caso tem-se: log x. 
Na transformação logarítmica, quando a amostra possuidados iguais a 
zero ou muito próximos de zero, trabalha-se com log (x + 1). 
Essa transformação deve ser usada quando as variâncias de cada 
amostra possuem, no mínimo, 12 observações. 
c) Arcoseno ou angular – Própria para dados em que a média é 
proporcional à variância, ou seja, para dados oriundos de uma distribuição 
binomial (tipo de distribuição em que os dados apresentam uma probabilidade 
 
 
130 
calculável de ocorrência ou não em qualquer indivíduo). Tais tipos de dados 
ocorrem quando as variáveis são oriundas de proporção como: porcentagem de 
germinação de sementes, porcentagem de mortalidade de plantas infectadas 
com vírus, porcentagem de sobrevivência de bezerros da raça Nelore, etc.. 
Nesse caso tem-se: arco seno 
(%)x
. 
Na transformação arco seno, quando todos os dados estão entre 30 e 
70% não precisa usar a transformação. Se os dados extrapolam esta amplitude, 
usa-se então a transformação. 
Quando o número de observações for menor que 50 (N < 50), a 
proporção 0% deve ser substituída por 1/4 N e a proporção 100% para 100 – 
1/4 N , antes de transformar os dados em arco seno 
(%)x
. 
Existe uma tabela própria para esta transformação (TABELA A.2). 
 
4.1.2.1 Escolha da melhor transformação 
 
Em alguns casos fica-se sem saber qual seria a transformação mais 
adequada. Quando defrontar-se com tais situações, tem-se várias maneiras 
para escolher a melhor transformação. Entre as várias maneiras, uma das mais 
simples é por meio de gráficos, onde se coloca no eixo dos x e y as médias e 
variâncias respectivas de cada amostra para cada transformação e seleciona-se 
a que apresentar menor dispersão. 
Outro procedimento é aplicar cada transformação para o maior e o 
menor dado de cada amostra. A amplitude dentro de cada amostra é 
determinada e a razão entre a maior e a menor amplitude é calculada. A 
transformação que produz a menor razão é a selecionada. 
Exemplo 2: Escolher a melhor transformação a partir de dados da 
TABELA 4.3. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
131 
TABELA 4.3 – PERÍODO DE ENRAIZAMENTO (EM DIAS) DE CULTIVARES DE 
CEBOLA (Allium cepa L.) DE DIAS CURTOS. PIRACICABA – SP 
 
 
Cultivares 
 
I 
 
II 
 
Totais de Cultivares 
 
 
01 – BAIA PERFORME 
 
48,0 
 
33,4 
 
81,4 
02 – BAIA DO CEDO SMP-V 18,4 10,2 28,6 
03 – BAIS TRIUNFO SMJ-II 46,6 42,8 89,4 
04 – BARREIRO SMJ-II 14,0 32,0 46,0 
05 – COJUMATLAN L. 2691 10,6 2,4 13,0 
06 – CREOLA CATARINENSE 64,0 44,7 108,7 
07 – EXCEL BEMUDAS 986 31,0 14,8 45,8 
08 – IPA – 2 17,0 10,8 27,8 
09 – PIRA OURO A/R 16,8 26,8 43,6 
10 – PIRA TROPICAL A/C 15,2 9,8 25,0 
11 – TEXAS GRANO 11,4 2,5 13,9 
12 – WHITE CREOLE 26,0 18,4 44,4 
13 – BAIA DO CEDO SMJ-III 24,2 8,4 32,6 
14 – BAIA SETE VOLTAS 19,4 18,2 37,6 
15 – BARREIRO ROXA SMP-IV 8,0 14,2 22,2 
16 – BARREIRO SMP-III 22,0 36,2 58,2 
17 – CIGANINHA 4,6 6,2 10,8 
18 – CREOLA 19,8 28,4 48,2 
19 – PIRA COUTO 16,2 22,2 38,4 
20 – PIRA GRANA 32,6 21,4 54,0 
21 – PIRA LOPES A/R 25,8 5,0 30,8 
22 – PIRA PERA A/C 19,4 16,0 35,4 
23 – PIRA LOPES A/C 18,6 8,0 26,6 
24 – ROXA CHATA SMP – IV 13,0 5,4 18,4 
25 – TUBARÃO 19,2 13,2 32,4 
 
 
FONTE: FERREIRA (1982). 
 
Os resultados estão contidos no quadro a seguir: 
 
 
 
 
 
 
 
 
 
 
 
 
 
132 
 
 
Cultivares 
 
 
 Raiz Quadrada 
 
 
 Logarítmica 
 
Maior 
 
Menor 
 
Amplitude 
 
Maior 
 
Menor 
 
Amplitude 
 
 
1 
2 
3 
4 
5 
6 
7 
8 
9 
10 
11 
12 
13 
14 
15 
16 
17 
18 
19 
20 
21 
22 
23 
24 
25 
 
6,9282 
4,2895 
6,8264 
5,6569 
3,2558 
8,0000 
5,5678 
4,1231 
5,1769 
3,8987 
3,3764 
5,0990 
4,9193 
4,4045 
3,7683 
6,0166 
2,4900 
5,3292 
4,7117 
5,7096 
5,0794 
4,4045 
4,3128 
3,6056 
4,3818 
 
5,7793 
3,1937 
6,5422 
3,7417 
1,5492 
6,6858 
3,8471 
3,2863 
4,0988 
3,1305 
1,5811 
4,2895 
2,8983 
4,2661 
2,8284 
4,6904 
2,1448 
4,4497 
4,0249 
4,6260 
2,2361 
4,0000 
2,8284 
2,3238 
3,6332 
 
1,1489 
1,0958 
0,2842 
1,9152 
1,7066 
1,3142 
1,7207 
0,8368 
1,0781 
0,7682 
1,7953 
0,8095 
2,0210 
0,1384 
0,9399 
1,3262 
0,3452 
0,8795 
0,6868 
1,0836 
2,8433 
0,4045 
1,4844 
1,2818 
0,7486 
 
1,6812 
1,2648 
1,6684 
1,5052 
1,0253 
1,8062 
1,4914 
1,2304 
1,4281 
1,1818 
1,0569 
1,4150 
1,3838 
1,2878 
1,1523 
1,5587 
0,7924 
1,4533 
1,3464 
1,5132 
1,4116 
1,2878 
1,2695 
1,1139 
1,2833 
 
1,5237 
1,0086 
1,6314 
1,1461 
0,3802 
1,6503 
1,1703 
1,0334 
1,2253 
0,9912 
0,3979 
1,2648 
0,9243 
1,2601 
0,9031 
1,3424 
0,6628 
1,2967 
1,2095 
1,3304 
0,6990 
1,2041 
0,9031 
0,7324 
1,1206 
 
0,1575 
0,2562 
0,0370 
0,3591 
0,6451 
0,1559 
0,3211 
0,1970 
0,2028 
0,1906 
0,6590 
0,1502 
0,4595 
0,0277 
0,2492 
0,2163 
0,1296 
0,1566 
0,1369 
0,1828 
0,7126 
0,0837 
0,3664 
0,3815 
0,1627 
 
 
Razão = Amplitude 
Máxima/Amplitude 
Mínima 
 
 
 
2,8433/0,1384 

20,54 
 
 
0,7126/0,0277 

25,73 
 
Pelos resultados apresentados acima, verifica-se que a transformação 
mais adequada é a raiz quadrada, pois a mesma apresentou o menor 
coeficiente entre as amplitudes (20,54). 
 
4.1.2.2 Coeficiente de variação como indicativo para o uso de 
transformações 
 
Uma indicação razoável do efeito favorável das transformações de 
dados é o coeficiente de variação (CV). Quando o valor do CV dos dados 
transformados for menor que o valor do CV dos dados originais ou não 
 
 
133 
transformados, indica que a transformação foi válida. Em caso contrário, não 
se justifica o seu uso. 
Considerando os dados do Exemplo 2, tem-se: 
 
Dados originais CV = 38,26% 
 
Dados transformados em 
x
 CV = 21,35% 
 
Dados transformados em log x CV = 32,49% 
 
Realmente, as transformações de dados foram válidas, pois houve uma 
redução muito significativa nos coeficientes de variação em relação aos dados 
originais, indicando que os dados experimentais foram ajustados de acordo 
com as exigências da análise de variância. Contudo, a transformação da raiz 
quadrada foi novamente confirmada como sendo a melhor transformação para 
tais dados. 
 
4.1.2.3 Algumas considerações 
 
Quando é utilizada uma transformação de dados, todas as 
comparações entre médias de tratamentos são feitas na escala transformada. 
Quando se achar preferível não apresentar os resultados na escala 
transformada, os dados finais devem ser transformados novamente para a 
escala original. Isto é feito elevando-se ao quadrado, no caso de 
x
; achando 
o antilogarítmo, no caso de log x; e procurando o valor correspondente na 
tabela de arco seno 
(%)x
, no caso de transformação angular. 
Em certos casos, não existe nenhuma transformação que possibilite o 
uso da análise de variância. Isto ocorre quando: 
a) As médias são aproximadamente iguais e as variâncias 
heterogêneas; 
b) As variâncias são homogêneas porém os níveis dos tratamentos são 
heterogêneos em forma; 
c) As médias variam independentementedas variâncias. 
Se alguns destes casos ocorrem, a análise dos dados é feita através de 
métodos não paramétricos. 
 
4.2 Testes de Hipóteses 
 
A retirada de conclusões sobre uma ou mais populações é feita através 
da estimação de parâmetros ou pelos testes de hipóteses. A estimação de 
parâmetros (a média, o desvio padrão, etc.) é feita por diversos métodos, os 
 
 
134 
quis já foram vistos no Capítulo 3. Quanto aos testes de hipóteses, os mesmos 
são usados pelos pesquisadores para decidir sobre a aceitação ou rejeição de 
hipóteses. Hipóteses são suposições acerca dos parâmetros de uma ou mais 
populações. Por exemplo, pode-se estar interessado em testar a hipótese de 
que não há diferença entre a produção média de duas variedades do sorgo 
granífero sujeitas às mesmas condições climáticas, ou testar se três tipos de 
rações proporcionam o mesmo ganho de peso em bezerros da raça Nelore. Os 
referidos testes são utilizados para tomar tais decisões, das quais são tiradas as 
conclusões. 
Antes de aplicar tais testes, deve-se formular as hipóteses estatísticas. 
Pode-se considerar duas hipóteses, são elas: H0 é a hipótese que determina a 
ausência de efeito de tratamentos, ou seja, indica que não existe diferença 
significativa entre os tratamentos (ela é chamada de hipótese de nulidade); e 
H1, chamada de hipótese alternativa, é a que determina a presença de efeito de 
tratamentos, ou seja, indica a existência de diferença significativa entre os 
tratamentos. A rejeição de H0 implica a aceitação da hipótese alternativa H1. 
Considerando o exemplo das variedades de sorgo granífero, tem-se: 
 
H0 : mˆ A = mˆ B 
 
H1: mˆ A  mˆ B  
 
H1 : mˆ A > mˆ B 
 
ou 
 
H1 : mˆ A < mˆ B 
 
Ao testar-se as hipóteses pode-se cometer geralmente dois tipos de 
erros, os quais são: rejeitar H0, quando ela é verdadeira (erro tipo I); aceitar 
H0, quando ela é falsa (erro tipo II). 
Dos dois tipos de erros o mais importante é o do tipo I. Esse tipo de 
erro, nos procedimentos de comparações múltiplas, pode ser medido de duas 
maneiras, a saber: A primeira, refere-se à avaliação da probabilidade de se 
rejeitar uma hipótese verdadeira em todas as possíveis combinações dos níveis 
dos tratamentos tomados dois a dois, sendo conhecida por taxa de erro tipo I 
por comparação. A segunda, refere-se à medida do erro tipo I como a 
probabilidade de se realizar pelo menos uma inferência errada por 
experimento e é conhecida por taxa de erro tipo I por experimento. A 
probabilidade de cometer-se o erro tipo I é chamada nível de significância 
(

). Os níveis de significâncias mais usados na prática são 5 e 1%. 
 
 
135 
Existe um outro tipo de erro, quase nunca considerado, que seria 
classificar um nível de tratamento como superior ao outro, quando de fato o 
segundo nível supera o primeiro (erro tipo III). Esse tipo de erro tem muita 
importância para a área do melhoramento genético de plantas, pois poderá 
alterar a classificação dos genótipos e fazer com que o fitomelhorista 
recomende uma linhagem ou cultivar de pior desempenho. 
Para que um teste de hipótese seja considerado um bom teste deve-se 
ter uma pequena probabilidade de rejeitar H0 se esta for verdadeira, mas 
também, uma grande probabilidade de rejeitá-la se ela for falsa. A 
probabilidade de rejeitar H0, quando ela for falsa, é chamada poder do teste. 
O quadro seguinte resume a natureza dos erros tipo I e tipo II 
envolvidos no processo de decisão quando se testam as hipóteses: 
 
 
H0 Verdadeira 
 
 
H0 Falsa 
 
Rejeição H0 
 
Erro Tipo I 
 
Decisão Correta 
 
 
Aceitação H0 
 
Decisão Correta 
 
Erro Tipo II 
 
 
Na execução de um teste de hipótese estatística, para que o mesmo 
tenha validade, deve-se levar em consideração as seguintes etapas: 
a) Formulação das hipóteses – Deve-se, inicialmente, formular as 
hipóteses de nulidade e alternativa. 
b) Especificação do nível de significância (

) – A escolha do nível 
de significância deve ser feita antes de realizar os experimentos. Usa-se, 
geralmente, 

 igual a 5 ou 1% de probabilidade, de maneira a ter-se o erro 
tipo I o menor possível. Salvo em algumas situações usam-se outros níveis. 
c) Escolha do teste estatístico – Em função das hipóteses que vão ser 
testadas, pode-se usar o teste t, F, x
2
, etc., a partir dos dados de observação. O 
teste escolhido deve ser adequado ao material e ao tipo de dados. 
d) Determinação da região crítica – Dependendo do teste escolhido 
determinam-se às regiões de aceitação e rejeição da hipótese de nulidade. 
Geralmente quando o valor calculado for menor que a probabilidade específica 
por 

 na tabela, aceita-se a hipótese de nulidade, enquanto que quando o valor 
calculado for igual ou maior que a probabilidade específica por 

 na tabela, 
rejeita-se a hipótese de nulidade. 
e) Decisão final – Baseados no valor obtido pelo teste estatístico e no 
valor tabelado, toma-se à decisão final com respeito às hipóteses. Geralmente 
as conclusões sobre os tratamentos são feitas observando-se as médias 
identificadas ou não por mesma letra. Quando não há um tratamento controle 
ou testemunha convém responder as seguintes perguntas: (1) Qual é o melhor 
 
 
136 
tratamento? (2) Quais são os tratamentos que não diferem significativamente 
do melhor? (3) Qual é o pior tratamento? (4) Quais são os tratamentos que não 
diferem significativamente do pior? Por outro lado, quando um dos 
tratamentos é o controle ou testemunha as conclusões são feitas em relação a 
este tratamento e, em geral, procura-se responder às seguintes perguntas: (1) 
Quais são os tratamentos melhores que o controle? (2) Quais são os 
tratamentos que não diferem significativamente do controle? (3) Quais são os 
tratamentos piores que o controle? 
 
4.2.1 Teste F 
 
O teste F tem seu maior emprego nas análises de variância dos 
delineamentos experimentais. Ele é usado para comparar variâncias. 
Como foi visto anteriormente, o F calculado é o quociente do 
quadrado médio de tratamentos (QMT) pelo quadrado médio do resíduo 
(QMR), ou seja: 
 
F = 
QMR
QMT
 
 
Por que o teste F é o quociente entre o QMT pelo QMR? 
Se se calcular, por exemplo, a esperança matemática dos quadrados 
médios [E (QM)] da análise de variância de um delineamento inteiramente 
casualizado, admitindo-se o modelo matemático aleatório, tem-se: 
 
Quadro da ANAVA 
 
 
Causa de Variação 
 
GL 
 
QM 
 
E(QM) 
 
 
Tratamentos 
 
Resíduo 
 
t – 1 
 
t (r – 1) 
 
s
2
1
 
s
2
2
 
 
s
2
 + r. s
2
t
 
s
2
 
 
 
Total 
 
t . r – 1 
 
 
 
De onde obtém-se: 
 
s
2
 = s
2
2
 que é a estimativa da variância do erro experimental; 
 
s
2
 + r . s
2
t
 = s
2
1
  
 
 
 
137 
s
2
t
 = 
r
ss 221 
 que é a estimativa da variância de tratamentos. 
 
Por essa observação vê-se o porquê do teste F ser o quociente entre 
QMT pelo QMR, ou seja, 
 
F = 
QMR
QMT
 = 
2
2
2
1
s
s
 = 
2
2
t
2
s
s.rs  
 
Nesta expressão está-se comparando a variância de tratamentos com a 
variância do erro experimental. 
Verifica-se, portanto, que tanto o QMT como o QMR estimam 
variâncias, e interpreta-se: 
QMR = variância do erro experimental; 
QMT = variância do erro experimental acrescida de uma possível 
variância devida aos tratamentos. 
O valor de F calculado é comparado com o valor de F tabelado 
(F > 1), com n1 = graus de liberdade de tratamentos e n2 = graus de liberdadedo resíduo (TABELAS A.3 e A.4). 
Logo, tem-se: 
F calculado > F tabelado (1%) - ** (existe diferença significativa entre 
os tratamentos no nível de 1% de probabilidade, ou seja, com mais de 99% de 
probabilidade deve existir pelo menos um contraste entre médias de 
tratamentos que difere de zero); 
F calculado < F tabelado (1%) - recorre-se no nível de 5% de 
probabilidade; 
F calculado > F tabelado (5%) - * (existe diferença significativa entre 
os tratamentos no nível de 5% de probabilidade, ou seja, com mais de 95% de 
probabilidade deve existir pelo menos um contraste entre médias de 
tratamentos que difere de zero); 
F calculado < F tabelado (5%) - ns (não existe diferença significativa 
entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade não existe nenhum contraste entre médias de tratamentos que 
difere de zero). 
Quando se aplica o teste F na análise de variância está-se testando as 
seguintes hipóteses: 
a) H0 : os tratamentos não diferem entre si; 
b) H1: pelo menos dois deles diferem entre si. 
No teste, sempre se aceita uma hipótese e rejeita-se a outra. 
 
 
138 
Obviamente, se não há efeito de tratamentos, os dois quadrados 
médios estimam a mesma variância e, consequentemente, qualquer diferença 
em ordem de grandeza entre eles será devido ao acaso. 
Exemplo 3: Verificar pelo teste F se existe ou não diferença 
significativa entre os tratamentos referentes aos dados da TABELA 4.4. 
 
TABELA 4.4 – ANÁLISE DA VARIÂNCIA E COEFICIENTE DE VARIAÇÃO DA 
REAÇÃO DE RESISTÊNCIA DE POPULAÇÕES DE Cucurbita ssp. A 
Colletotrichum gloeosporioides f. sp. cucurbitae. DADOS 
TRANSFORMADOS EM 
x
. PIRACICABA, SP 
 
 
Causa da Variação 
 
GL 
 
SQ 
 
QM 
 
F 
 
 
Populações 
Resíduos 
 
12 
26 
 
1,188133 
0,794191 
 
0,099011 
0,030546 
 
 
3,24 
 
Total 
 
38 
 
1,982327 
 
 
 
Coeficiente de Variação: % 
 
 10,09 
 
 
 
FONTE: MELO e FERREIRA (1983). 
 
As tabelas de F com n1 = 12 e n 2 = 26 fornecem os seguintes valores: 
1% = 2,96 e 5% = 2,15. 
Logo, F calculado (3,24) > F tabelado (1%) (2,96) - **. Assim, chega-
se à conclusão que existe diferença significativa, no nível de 1% de 
probabilidade, pelo teste F, na reação de populações de Cucurbita ssp. a 
Colletotrichum gloeosporioides f. sp. cucurbitae. 
Quando se faz a análise de variância de um experimento com apenas 
dois tratamentos, pelo próprio teste F pode-se chegar ao melhor deles, 
simplesmente observando as médias dos mesmos. Quando, porém, tem-se 
mais de dois tratamentos, não se pode chegar ao melhor deles pelo referido 
teste. Neste caso, há necessidade de aplicação de um teste de comparação de 
médias de tratamentos para chegar-se a tal conclusão. 
Como foi visto, espera-se quase sempre na análise de variância que 
todos os quadrados médios de tratamentos obtidos sejam iguais ou superiores 
ao que se obtém do resíduo. Nestas condições, só se justifica o uso das tabelas 
de limites unilaterais de F (TABELAS A.3 e A.4). Quando, porém, esta 
situação não se verifica, ou seja, quando o quadrado médio de tratamentos é 
menor que o quadrado médio do resíduo, aconselhar-se-á o uso das tabelas de 
limites bilaterais de F (TABELAS A.5 e A.6). 
 
 
139 
Este fato, embora não deva ser esperado, pode ocorrer, e às vezes é 
sintoma de defeitos na análise da variância. Uma das explicações possíveis é a 
presença de erros grosseiros no cálculo das somas de quadrados ou dos 
números de graus de liberdade. Outra explicação bem comum é a de que o 
resíduo inclua alguma importante causa de variação que foi controlada, mas 
não foi isolada na análise da variância. 
Às vezes, porém, nenhuma destas explicações serve, mas isto não é 
causa de preocupação porque, do ponto de vista do Cálculo de Probabilidades, 
o caso, embora pouco provável, não é impossível, logo deverá ocorrer uma 
vez ou outra. 
Neste caso, quando se comparar o valor de F calculado com o valor de 
F tabelado ( F < 1), com n1 = graus de liberdade de tratamentos e n2 = graus de 
liberdade do resíduo (TABELAS A.5 e A.6), basta apenas inverter os sinais do 
caso anterior, ou seja: 
F calculado < F tabelado (1%) - ** (existe diferença significativa entre 
os tratamentos no nível de 1% de probabilidade, ou seja, com mais de 99% de 
probabilidade deve existir pelo menos um contraste entre médias de 
tratamentos que difere de zero); 
F calculado > F tabelado (1%) - recorre-se no nível de 5% de 
probabilidade; 
F calculado < F tabelado (5%) - * (existe diferença significativa entre 
os tratamentos no nível de 5% de probabilidade, ou seja, com mais de 95% de 
probabilidade deve existir pelo menos um contraste entre médias de 
tratamentos que difere de zero); 
F calculado > F tabelado (5%) - ns (não existe diferença significativa 
entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade não existe nenhum contraste entre médias de tratamentos que 
difere de zero). 
Exemplo 4: Verificar pelo teste F se existe ou não diferença 
significativa entre os tratamentos referentes aos dados da TABELA 4.5. 
 
 
 
 
 
 
 
 
 
 
 
 
 
140 
TABELA 4.5 – ANÁLISE DA VARIÂNCIA E COEFICIENTE DE VARIAÇÃO DA 
REAÇÃO DE POPULAÇÕES SEGREGANTES DE PIMENTÃO 
(Capsicum annuum L.) EM RELAÇÃO AO VÍRUS Y. DADOS 
TRANSFORMADOS EM
5,0x 
 . PIRACICABA, SP 
 
 
Causa da Variação 
 
GL 
 
SQ 
 
 QM 
 
 F 
 
 
Populações 
Resíduos 
 
 1 
18 
 
0,0092681 
0,2794557 
 
 0,0092681 
 0,0155253 
 
 
 0,597 
 
Total 
 
19 
 
0,2887238 
 
 
 
Coeficiente de Variação: % 
 
13,90 
 
 
 
FONTE: FERREIRA e MELO (1983). 
 
As tabelas de F com n 1 = 1 e n2 = 18 fornecem os seguintes valores: 
1% = 0,0000404 e 5% = 0,0010. 
Logo, F calculado (0,597) > F tabelado (5%) (0,0010) - ns. Assim, 
chega-se à conclusão de que não existe diferença significativa, no nível de 5% 
de probabilidade, pelo teste F, na reação de populações segregantes de 
pimentão em relação ao vírus Y. 
O teste F também pode ser utilizado quando se quer comparar as 
variâncias de duas amostras (s
2
1
 e s
2
2
), supostas independentes. 
Assim, admitindo-se s
2
1
, calculada com N1 dados e s 2
2
, com N2 dados. 
Diz-se, então, que s
2
1
 tem N1 – 1 graus de liberdade e, analogamente, s 2
2
 tem 
N2 – 1 graus de liberdade. 
O F neste caso é o quociente entre as duas variâncias, ou seja: 
 
F = 
2
2
2
1
s
 s
 
 
Admite-se sempre s
2
1
 > s
2
2
, de modo que tem-se F > 1. 
O valor de F calculado é comparado com o F tabelado, o qual é obtido 
em função dos números de graus de liberdade N1 – 1 e N2 – 1, 
respectivamente, de s
2
1
 e s
2
2
. 
Neste caso, quando se aplica o teste F está-se testando as seguintes 
hipóteses: 
a) H0: S 2
1
 = S
2
2
, isto é, a hipótese de nulidade admite que as duas 
populações têm a mesma variância; 
 
 
141 
b) H1: S 2
1
 > S
2
2
, isto é, a hipótese alternativa admite que a população 1 
tem maior variância do que a população 2. 
Exemplo 5: Verificar pelo teste F se existe ou não diferença 
significativa entre as variâncias dos dois tratamentos a partir de dados da 
TABELA 4.6. 
 
TABELA 4.6 – GANHOS DE PESO (kg), DE LEITOAS DUROC JERSEY 
ALIMENTADAS COM FENO DE ALFAFA E FENO DE QUICUIO 
POR UM PERÍODO DE TRÊS MESES 
 
 
Feno de Alfafa 
 
Feno de Quicuio 
 
 
67,5 kg 
70,5 kg76,0 kg 
67,5 kg 
 
 65,0 kg 
 58,5 kg 
 65,0 kg 
 64,0 kg 
 
 
Médias 70,4 kg 
 
 63,1 kg 
 
 
FONTE: GOMES (1985). 
 
Logo, tem-se: 
 
s
2
 = 
 
1
2
2



N
N
X
X
 
 
2
1s
 = 
       
 
3
4
5,281
5,670,765,705,67
2
2222
 = 16,062333 
 
s
2
2
 = 
       
 
3
4
5,252
0,640,655,580,65
2
2222
 = 9,729000 
 
F = 
2
2
2
1
s
s
 = 
729000,9
062333,16
 

 1,65 
 
As tabelas de F com n1 = 3 e n2 = 3 fornecem os seguintes valores: 
1% = 29,46 e 5% = 9,28. 
 
 
142 
Desse modo, F calculado (1,65) < F tabelado (5%) (9,28) - ns. Assim, 
chega-se à conclusão de que não existe diferença significativa, no nível de 5% 
de probabilidade, pelo teste F, entre as variâncias dos tratamentos, ou seja, as 
duas rações proporcionam o mesmo ganho de peso em leitoas Duroc Jersey. 
 
4.2.2 Teste t 
 
O teste t é um teste clássico usado para comparar médias de 
tratamentos. É mais complexo que o teste de Scheffé, porém é o teste de 
menor rigor. Para a sua aplicação o pesquisador deve levar em conta os 
seguintes requisitos: 
a) As comparações feitas pelo teste t devem ser escolhidas antes de 
serem examinados os dados experimentais; 
b) As comparações feitas devem ser, no máximo, iguais ao número de 
graus de liberdade de tratamentos; 
c) O teste t exige que as comparações definidas sejam contrastes 
ortogonais. 
Mas o que se deve entender por contraste e o que são contrastes 
ortogonais? 
Se 
,mˆ1 ,mˆ2 3mˆ
 e 
4mˆ
 são as médias de quatro tratamentos de um 
experimento, 
1Yˆ
= 
1mˆ
– 
,mˆ2
 
2Yˆ
 = 
1mˆ
 + 
2mˆ
 – 2
3mˆ
 e 
3Yˆ
 = 
1mˆ
+ 
2mˆ
 + 
3mˆ
 – 
3
4mˆ
 são exemplos de contrastes. O que caracteriza um contraste é que se as 
médias que nele ocorrem forem todas iguais, o contraste deverá ser nulo. Para 
que isto aconteça, a soma algébrica dos coeficientes das médias deve ser nula. 
 De fato, com 
1mˆ
 = 
2mˆ
 = 
3mˆ
 = 
4mˆ
 = 1, tem-se: 
 
1Yˆ
 = 1 – 1 = 0 
„ 
2Yˆ
 = 1 + 1 – 2 (1) = 0 
 
3Yˆ
 = 1 + 1 + 1 – 3 (1) = 0 
 
Os contrastes podem ser: 
a) simples – quando envolve apenas dois tratamentos; 
b) múltiplos – quando mais de dois tratamentos estão envolvidos. 
Os contrastes são ortogonais quando o somatório da multiplicação dos 
coeficientes de cada média em cada contraste é igual a zero. 
Considerando o exemplo a seguir, tem-se: 
 
 
 
143 
_______________________________________________________________ 
 
Yˆ
 
 
 
1mˆ
 
 
2mˆ
 
 
3mˆ
 
 
4mˆ
 
 
 
1Yˆ
 
2Yˆ
 
3Yˆ
 
 
 1 
 
 1 
 
 1 
 
–1 
 
 1 
 
 1 
 
 0 
 
–2 
 
 1 
 
 0 
 
 0 
 
–3 
 
 

= 
 
 1 
 
–1 
 
 0 
 
0 = 0 
 
__________________________________________________________________________ 
 
Diz-se então que os contrastes 
1Yˆ
, 
2Yˆ
 e 
3Yˆ
 são ortogonais. 
Pode-se tolerar o uso do teste t para alguns contrastes não ortogonais, 
desde que o seu número não exceda o número de graus de liberdade de 
tratamentos. 
Na análise de variância, quando se tem mais de dois tratamentos e o 
teste F for significativo, pode-se utilizar o teste t na comparação de médias de 
tratamentos, cuja fórmula é a seguinte: 
 
t = 
 Yˆs
0Y
2

 
 
onde: 
Y = é um constante qualquer; 
s
2
 
 Yˆ
 = é a estimativa da variância da estimativa de um contraste. 
 
O valor de s
2 
 Yˆ
 é obtido através da seguinte fórmula: 
a) Para o caso do delineamento inteiramente casualizado, tem-se: 
 
s
2
 
 Yˆ
 = 
2
22
2
2
1 ...
21
s
rN
CN
r
C
r
C









 
 
onde: 
C = é o coeficiente do contraste; 
r = é o número de repetições da média; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
 
144 
Como, geralmente, na área da agropecuária os pesquisadores têm mais 
interesse pelos contrastes simples, a fórmula de s
2
 
 Yˆ
 fica da seguinte 
maneira: 
 
s
2
 
 Yˆ
 = 
2s
2r
1
1r
1







 
 
onde: 
r = é o número de repetições da média; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
b) Para o caso do delineamento em blocos casualizados, tem-se: 
b.1) Quando nos contrastes simples as médias dos tratamentos 
avaliados apresentam o mesmo número de repetições (sem parcela perdida), a 
fórmula de s
2
 
 Yˆ
 fica da seguinte maneira: 
 
s
2
 
 Yˆ
 = 
2s
r
2






 
 
onde: 
r = é o número de repetições da média; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
b.2) Quando se tem apenas uma parcela perdida, a fórmula de s
2
 
 Yˆ
 
fica assim: 
 
s
2
 
 Yˆ
 = 
  
2s
1t1rr
t
r
2








 
 
onde: 
t = é o número de tratamentos do experimento; 
r = é o número de repetições do experimento; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
 
 
145 
Esta fórmula é usada para comparar contrastes envolvendo a média do 
tratamento com uma parcela perdida e a média de qualquer um dos 
tratamentos sem parcela perdida. 
b.3) Quando se tem mais de uma parcela perdida, a fórmula de s
2
 
 Yˆ
 
fica assim: 
 
s
2
 
 Yˆ
 = 
2s
2r
1
1r
1







 
 
onde: 
r = é o número efetivo de repetições; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
Os valores de r, número efetivo de repetições, são obtidos através da 
regra prática de Taylor, ou seja, considerando-se o contraste 
u1 mˆmˆYˆ 
, 
entre as médias dos tratamentos i e u . O tratamento i terá o seguinte número 
efetivo de repetições: valor 1 para os blocos onde os tratamentos i e u 
aparecem; valor t – 2/t – 1 nos blocos onde o tratamento i aparece e o 
tratamento u não aparece, sendo t = número de tratamentos do experimento; 
valor 0 nos blocos onde o tratamento i não aparece (o tratamento u pode 
aparecer ou não). A soma dos valores de todos os blocos constituirá o número 
efetivo de repetições do tratamento i. Para o tratamento u segue-se a mesma 
regra. 
Esta fórmula é usada para comparar contrastes envolvendo a média do 
tratamento com uma parcela perdida e a média de qualquer um dos 
tratamentos sem parcela perdida, bem como contraste envolvendo duas médias 
de tratamentos com parcelas perdidas. 
c) Para o caso do delineamento em quadrado latino, tem-se: 
c.1) Quando nos contrastes simples as médias dos tratamentos 
avaliados apresentam o mesmo número de repetições (sem parcela perdida), a 
fórmula de s
2
 
 Yˆ
 fica da seguinte maneira: 
 
s
2
 
 Yˆ
 = 
2s
r
2






 
 
onde: 
r = é o número de repetições da média; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
 
146 
c.2) Quando se tem apenas uma parcela perdida, a fórmula de s
2
 
 Yˆ
 
fica assim: 
 
s
2
 
 Yˆ
 = 
  2s
2r1r
1
r
2








 
 
onde: 
r = é o número de repetições do experimento; 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo. 
 
Esta fórmula é usada para comparar contrastes envolvendo a média do 
tratamento com uma parcela perdida e a média de qualquer um dos 
tratamentos sem parcela perdida. 
c.3) Quando se tem mais de uma parcela perdida, deve-se seguir o 
mesmo procedimento visto para o delineamento em blocos casualizados. 
Para verificar a significância estatística dos contrastes, compara-se o 
valor de t calculado de cada contraste com o valor de t tabelado, com n1 = 
nível de significância (o nível de 5% de probabilidade é o mais utilizado na 
prática) e n2 = graus de liberdade do resíduo (TABELA A.7). 
Logo, tem-se: 
t calculado 

 t tabelado (5%) - * (existe diferença significativa entre 
os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade 
acima de 95% de que o contraste seja diferente de zero); 
t calculado < t tabelado (5%) - ns (não existe diferença significativa 
entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade o contraste não difere de zero). 
Quando se aplica o teste t está-se testando as seguintes hipóteses: 
a) H0 : Y = 0 (tratamentos semelhantes); 
b) H1 : Y  0 (tratamentos diferentes). 
Exemplo 6: Verificar pelo teste t se existe ou não diferença 
significativa em um grupo escolhido de contrastes ortogonais a partir de dados 
da TABELA 4.7. 
 
 
 
 
 
 
 
 
147 
TABELA 4.7 – PRODUÇÃO MÉDIA (kg DE AÇÚCAR/t DE CANA), E VALORES DE 
GLR, QMR E F DE VARIEDADES DE CANA-DE-AÇÚCAR 
(Saccharum officinarum L.). PIRACICABA-SP 
 
 
Variedades 
 
Médias 1/ 
 
 
1 – Co 775 
2 – Co 740 
3 – Co 421 
4 – Co 678 
5 – Co 419 
6 – Co 413 
 
133,75 
133,10 
120,43 
118,46 
114,77 
113,92 
 
 
GLR 
 
 18 
 
 
QMR 
 
 83,3753 
 
 
F 
 
 3,77 * 
 
 
FONTE: CAMPOS (1984). 
NOTA: (1/) Dados médios provenientes de quatro repetições no delineamento inteiramente 
casualizado. 
 
Pode-se organizar diversos grupos de contrastes ortogonais com os 
seis tratamentos, sendo que cada grupo deverá ter, no máximo, cinco 
contrastes. 
Por exemplo, pode-se ter os seguintes contrastes ortogonais: 
 
1Yˆ
 = 
654321 mˆmˆmˆmˆmˆmˆ 
 
 
2Yˆ
 = 
653 mˆmˆmˆ2 
 
 
3Yˆ
 = 
65 mˆmˆ 
 
 
4Yˆ
 = 
421 mˆ2mˆmˆ 
 
 
5Yˆ
 = 
21 mˆmˆ 
 
 
Considerando-se que eles foram estabelecidos a priori, isto é, não 
foram sugeridos pelos próprios resultados, então se pode aplicar o teste t. 
Os resultados estão contidos na tabela a seguir: 
 
 
 
 
 
148 
 
Contraste 
 
Valor 
 
S
2 
(
Yˆ
) 
 
t calculado 
 
 
Yˆ 1 
 
36,19 
 
125,0630 
 
 3,24 * 
Yˆ 2 
12,17 125,0630 1,09 ns 
Yˆ 3 
 0,85 41,6877 0,13 ns 
Yˆ 4 
29,93 125,0630 2,68 * 
Yˆ 5 
 0,65 41,6877 0,10 ns 
 
 
t tabelado (5%) 
 
 2,10 
 
 
 De acordo com os resultados obtidos pode-se chegar às seguintes 
conclusões: 
a) O contraste 
Yˆ 1 foi significativo no nível de 5% de probabilidade, 
ou seja, a média dos rendimentos das variedades Co 775, Co 740 e Co 678 é 
significativamente maior do que a média dos rendimentos das demais 
variedades. 
b) O contraste 
Yˆ 2 não foi significativo no nível de 5% de 
probabilidade, ou seja, o rendimento médio da variedade Co 421 não difere da 
média do rendimento das variedades Co 419 e Co 413. 
c) O contraste 
Yˆ 3 não foi significativo no nível de 5% de 
probabilidade, ou seja, as variedades Co 419 e Co 413 apresentam rendimento 
médios semelhantes. 
d) O contraste 
Yˆ 4 foi significativo no nível de 5% de probabilidade, 
ou seja, a média dos rendimentos das variedades Co 775 e Co 740 é 
significativamente maior do que o rendimento médio da variedade Co 678. 
e) O contraste 
Yˆ 5 não foi significativo no nível de 5% de 
probabilidade, ou seja, as variedades Co 775 e Co 740 apresentam 
rendimentos médios semelhantes. 
O teste t também pode ser utilizado quando se quer comparar as 
médias de duas amostras (
mˆ 1 e mˆ 2). 
Assim, 
mˆ 1 é calculada com N1 dados e mˆ 2 , com N2 dados. Diz-se, 
então, que 
mˆ 1 tem N1 – 1 graus de liberdade e, analogamente, mˆ 2 tem N2 – 1 
graus de liberdade. 
O valor de t é dado pela fórmula: 
 









21
2
mˆ
21
N
1
N
1
s
mˆmˆ
t
 
 
 
 
149 
onde: 
s
2
mˆ
= é a média das variâncias das duas amostras (s
2
1
e s
2
2
). 
 
O valor de s
2
mˆ
é dado pela fórmula: 
 
s
2
mˆ
= 
2
s s 22
2
1
 = 
   
2
11 2
2
2
2
1
1
2
2
































 



N
N
X
X
N
N
X
X
 
 
Neste caso, o valor de t calculado é comparado com o de t tabelado da 
mesma forma como foi visto anteriormente. Contudo, o valor de t tabelado é 
obtido na tabela (TABELA A.7) com n1 = nível de significância (o nível de 
5% de probabilidade é o mais utilizado na prática) e n2 = graus de liberdade, 
que é igual a N1 + N2 – 2. 
Quando se aplica o teste t, nesta situação, está-se testando as seguintes 
hipóteses: 
a) H0 : 
1mˆ
= 
2mˆ
, isto é, a hipótese de nulidade admite que as duas 
populações têm a mesma média; 
b) H1 : 
2mˆ
 

2mˆ
, isto é, a hipótese alternativa admite que as duas 
populações têm médias diferentes. 
Exemplo 7: Verificar pelo teste t se existe ou não diferença 
significativa entre as médias dos dois tratamentos a partir de dados da 
TABELA 4.8. 
 
TABELA 4.8 – PRODUÇÃO MÉDIA (quintais/acre) DE DUAS VARIEDADES DE 
BATATINHA DURANTE CINCO ANOS 
 
 
Variedades 
 
 Ano 
 
 Médias 
1
o
 2
o 
 3
o
 4
o
 5
o
 
 
 
 A 
 
34 
 
30 
 
41 
 
 25 
 
 45 
 
 35 
 B 30 17 33 25 25 26 
 
 
FONTE: CENTENO (1982). 
 
Logo, tem-se: 
 
 
150 
 
1
2
2
2





N
N
X
X
s 
 
         
 



4
5
175
4525413034
s
2
22222
2
1
 65,5 
 
         
 



4
5
130
2525331730
s
2
22222
2
2
 37,0 
 



2
0,375,65
s2m
 51,25 
 
1mˆ
 = 
5
175
 = 35 
 
2mˆ
= 
5
130
 = 26 
 









21
2
mˆ
21
N
1
N
1
s
mˆmˆ
t
 
 










5
1
5
1
25,51
2635
t
 1,99 ns 
 
t tabelado (5%) = 2,31 
 
De acordo com o resultado obtido pode-se concluir que o contraste 
não foi significativo no nível de 5% de probabilidade, ou seja, as duas 
variedades de batatinha são igualmente produtivas. 
 
4.2.3 Teste de Bonferroni (tB) 
 
O teste de Bonferroni é um aperfeiçoamento do teste t e para a sua 
aplicação o pesquisador deve levar em conta os mesmos requisitos deste. 
 
 
151 
Esse aperfeiçoamento se deve ao fato de que o teste t aplicado para 
dois ou mais contrastes num mesmo experimento não é exato. Por exemplo, na 
aplicação do teste t, onde se usaram os dadosda TABELA 4.7 (Exemplo 6), 
foi de 5% o nível de significância adotado para cada um dos cinco contrastes. 
A probabilidade de que um, pelo menos, seja significativo, por simples acaso, 
é, aproximadamente, de 5 X 5 = 25%. No geral, se o nível de probabilidade for 
 para cada contraste, a probabilidade de que um pelo menos de n contrastes 
ortogonais seja significativo é de n. 
Para resolver esse problema, o teste de Bonferroni indica o uso, para 
cada contraste, de um nível de probabilidade ‟ = /n, pois então, para o 
conjunto tem-se n‟ = . No Exemplo 6, com  = 5% e n = 5, o valor de tB 
para cada contraste deve corresponder a uma probabilidade de 5/5 = 1%. O 
resultado efetivo desse procedimento é a alteração do nível de significância 
para a determinação do valor tabelado de t (TABELA A.7), dividindo-se o 
nível nominal (o nível de 5% de probabilidade é o mais utilizado na prática) 
pelo número de contrastes ortogonais. 
Na análise de variância, quando se tem mais de dois tratamentos e o 
teste F for significativo, pode-se utilizar o teste de Bonferroni na comparação 
de médias de tratamentos, cuja fórmula é a seguinte: 
 
tB = 
 Yˆs
0Y
2

 
 
onde: 
Y = é um constante qualquer; 
s
2
 
 Yˆ
 = é a estimativa da variância da estimativa de um contraste (ver teste t). 
 
Para verificar a significância estatística dos contrastes, compara-se o 
valor de tB calculado de cada contraste com o valor de tB tabelado, com n1 = 
nível de significância ‟ = /n e n2 = graus de liberdade do resíduo 
(TABELA A.7). 
Logo, tem-se: 
tB calculado  tB tabelado (‟) - existe diferença significativa entre os 
tratamentos no nível ‟ de probabilidade, ou seja, há uma probabilidade acima 
de x% de que o contraste seja diferente de zero; 
tB calculado < tB tabelado (‟) - ns (não existe diferença significativa 
entre os tratamentos no nível ‟ de probabilidade, ou seja, com x% de 
probabilidade o contraste não difere de zero). 
Quando se aplica o teste tB está-se testando as seguintes hipóteses: 
a) H0 : Y = 0 (tratamentos semelhantes); 
 
 
152 
b) H1 : Y  0 (tratamentos diferentes). 
Considerando os dados do Exemplo 6, têm-se os seguintes resultados 
que estão contidos na tabela a seguir: 
 
 
 
 
Contraste 
 
Valor 
 
S
2 
(
Yˆ
) 
 
tB calculado 
 
 
Yˆ 1 
 
36,19 
 
125,0630 
 
 3,24 ** 
Yˆ 2 
12,17 125,0630 1,09 ns 
Yˆ 3 
 0,85 41,6877 0,13 ns 
Yˆ 4 
29,93 125,0630 2,68 ns 
Yˆ 5 
 0,65 41,6877 0,10 ns 
 
 
tB tabelado (1%) 
 
 2,88 
 
 
 De acordo com os resultados obtidos pode-se chegar às seguintes 
conclusões: 
a) O contraste 
Yˆ 1 foi significativo no nível de 1% de probabilidade, 
ou seja, a média dos rendimentos das variedades Co 775, Co 740 e Co 678 é 
significativamente maior do que a média dos rendimentos das demais 
variedades. 
b) O contraste 
Yˆ 2 não foi significativo no nível de 1% de 
probabilidade, ou seja, o rendimento médio da variedade Co 421 não difere da 
média do rendimento das variedades Co 419 e Co 413. 
c) O contraste 
Yˆ 3 não foi significativo no nível de 1% de 
probabilidade, ou seja, as variedades Co 419 e Co 413 apresentam rendimento 
médios semelhantes. 
d) O contraste 
Yˆ 4 não foi significativo no nível de 1% de 
probabilidade, ou seja, a média dos rendimentos das variedades Co 775 e Co 
740 não difere do rendimento médio da variedade Co 678. 
e) O contraste 
Yˆ 5 não foi significativo no nível de 5% de 
probabilidade, ou seja, as variedades Co 775 e Co 740 apresentam 
rendimentos médios semelhantes. 
Observa-se o rigor do teste de Bonferroni neste exemplo em relação 
ao teste t, pois ele detectou diferença significativa entre os tratamentos apenas 
no contraste 
Yˆ 1, enquanto que o teste “t” encontrou diferença significativa 
nos contrastes 
Yˆ 1 e Yˆ 4. 
 
 
 
 
 
153 
4.2.4 Teste LSD 
 
O teste da diferença mínima significativa (LSD), apesar de sujeito a 
severas restrições, ainda é um teste bastante empregado na comparação de 
médias de tratamentos. Apesar desse teste se basear no teste t, sua aplicação é 
muito mais simples, por ter apenas um valor do LSD para comparar com todos 
os contrastes, o que não ocorre com o teste t. Desde que seja utilizado com 
cuidado, não conduz a erros demasiados. 
Na análise de variância, quando o teste F for significativo e se tem 
mais de dois tratamentos, o teste LSD é o mais utilizado quando se deseja 
fazer comparações planejadas (são comparações definidas antes de serem 
examinados os dados experimentais) de médias pareadas. Neste caso, cada 
média aparece em somente uma comparação. 
Sua fórmula é a seguinte: 
 
LSD (5%) = t (5%) . s (
Yˆ
) = t (5%) 
r
s.2 2 
 
onde: 
t (5%) = é o valor tabelado do teste t no nível de 5% de probabilidade 
(TABELA A.7); 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo; 
r = é o número de repetições do experimento e/ou da média. 
 
Quando as médias dos tratamentos avaliados apresentarem número de 
repetições diferentes (caso de parcelas perdidas) o valor de s (
Yˆ
), que é a raiz 
quadrada da estimativa da variância da estimativa de um contraste, depende do 
delineamento estatístico utilizado (ver teste “t”). 
O valor de cada contraste (
Yˆ
) é comparado com o valor de LSD. 
Logo, tem-se: 
Yˆ 
 LSD (5%) - * (existe diferença significativa entre os tratamentos 
no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% 
de que o contraste seja diferente de zero); 
Yˆ
 < LSD (5%) - ns (não existe diferença significativa entre os 
tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade o contraste não difere de zero). 
Quando se aplica o teste LSD, está-se testando as seguintes hipóteses: 
a) H0 : Yˆ = 0 (tratamentos semelhantes); 
b) H1 : Yˆ  0 (tratamentos diferentes). 
 
 
154 
Exemplo 8: Verificar pelo teste LSD se existe ou não diferença 
significativa entre as médias pareadas a partir de dados da TABELA 4.9. 
 
TABELA 4.9 – EFEITO DA CEROSIDADE FOLIAR NA REAÇÃO DE VARIEDADES 
DE CEBOLA (Allium cepa L.) A HERBICIDAS DE PÓS-EMERGÊNCIA 
EM PLANTAS AVALIADAS AOS 54 DIAS APÓS A SEMEADURA, 
EXPRESSO ATRAVÉS DE UMA ESCALA DE NOTAS, E VALORES DE 
GL RESÍDUO, QM RESÍDUO, F E CV. PIRACICABA-SP 
 
 
Variedades 
 
 BENTAZON 1/ 
________________________ 
 A B 
 
 PROMETRIN 1/ 
________________________ 
 A B 
 
 
BARREIRO SMP-IV 
ROXA CHATA SMP-IV 
BAIA PERIFORME 
RED CREOLE 
 
 2,7 + 4,1 
 3,0 3,6 
 2,9 4,0 
 3,1 4,4 
 
 3,2 4,3 
 3,2 3,9 
 3,1 4,0 
 3,2 4,4 
 
 
GL Resíduo 
 
 
 
 60 
 
 
QM Resíduo 
 
 
 
 0,17154 
 
 
F Variedades 
 
 14,07 ** 
 
 
Coeficiente de Variação: % 
 
 11,50 
 
 
FONTE: FERREIRA e COSTA (1982). 
NOTAS: ( **) Significativo no nível de 1% de probabilidade. 
(1/) Herbicidas de pós-emergência. 
(A) Cerosidade foliar mantida. 
(B) Cerosidade foliar removida. 
(+) Dados médios provenientes de quatro repetições no delineamento inteiramente 
casualizado. 
 
Considerando-se queos contrastes foram estabelecidos a priori, então 
se pode aplicar o teste LSD, cujos resultados estão na tabela a seguir: 
 
 
 
 
 
 
 
 
 
 
 
155 
 
Variedades 
 
 BENTAZON 
 
 PROMETRIN 
 A B 
Yˆ
 A B 
Yˆ
 
 
 
BARREIRO SMP-IV 
ROXA CHATA SMP-IV 
BAIA PERIFORME 
REF CREOLE 
 
2,7 4,1 1,4 * 
3,0 3,6 0,6 * 
2,9 4,0 1,1 * 
3,1 4,4 1,3 * 
 
3,2 4,3 1,1 * 
3,2 3,9 0,7 * 
3,1 4,0 0,9 * 
3,2 4,4 1,2 * 
 
 
LSD (5%) 
 
 0,586 
 
 0,586 
 
 
NOTA: (*) Significativo no nível de 5% de probabilidade pelo teste DMS. 
 
De acordo com os resultados obtidos pode-se chegar às seguintes 
conclusões: 
a) Com relação ao herbicida de pós-emergência BENTAZON, todos 
os contrastes foram significativos no nível de 5% de probabilidade, ou seja, 
em todas as variedades de cebola avaliadas, a cerosidade foliar mantida 
apresentou menor índice de injúrias foliares do que a cerosidade foliar 
removida. 
b) Com relação ao herbicida de pós-emergência PROMETRIN, todos 
os contrastes foram significativos no nível de 5% de probabilidade, ou seja, 
em todas as variedades de cebola avaliadas, a cerosidade foliar mantida 
apresentou menor índice de injúrias foliares do que a cerosidade foliar 
removida. 
O teste LSD pode também ser utilizado na comparação de todas as 
médias com um tratamento controle ou testemunha, ou na comparação de 
todas as médias entre si. Porém, recomenda-se o uso do teste LSD em 
comparações planejadas de médias pareadas, visto que têm testes específicos 
para os outros tipos de comparações. 
 
4.2.5 Teste de Dunnett 
 
O teste de Dunnett (d‟) é usado na análise de variância quando se 
procura comparar todas as médias de tratamentos com um controle ou 
testemunha, desde que o teste F seja significativo e se tenha mais de dois 
tratamentos. Sua aplicação é muito simples, por ter apenas um valor de d‟ para 
comparar com todos os contrastes. 
Sua fórmula é a seguinte: 
 
d‟(5%) = t (5%) . s (
Yˆ
) 
 
 
 
156 
= t (5%) 
r
s.2 2 
 
onde: 
t (5%) = é o valor tabelado do teste de Dunnett no nível de 5% de 
probabilidade (TABELAS A.8 e A.9); 
s
2
 = é a estimativa da variância do erro experimental, que corresponde ao 
quadrado médio do resíduo; 
r = é o número de repetições do experimento e/ou da média. 
 
No caso de se querer usar o teste de Dunnett no nível de 1% de 
probabilidade, tem-se as mesmas tabelas (TABELAS A.8 e A.9) para se obter 
o valor de t. A TABELA A.8 é usada para as comparações unilaterais, ou seja, 
quando todas as médias dos tratamentos forem inferiores ou superiores ao 
controle, enquanto a TABELA A.9 é usada para comparações bilaterais, ou 
seja, quando algumas médias de tratamentos forem inferiores e outras 
superiores ao controle. 
Quando as médias dos tratamentos avaliados apresentarem número de 
repetições diferentes (caso de parcelas perdidas) o valor de s (
Yˆ
), que é a raiz 
quadrada da estimativa da variância da estimativa de um contrates, depende do 
delineamento estatístico utilizado (ver teste “t”). 
O valor de cada contraste (
Yˆ
) é comparado com o valor de d‟. Logo, 
tem-se: 
Yˆ 
 d‟(5%) - * (existe diferença significativa entre os tratamentos no 
nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de 
que o contraste seja diferente de zero); 
Yˆ
< d‟(5%) - ns (não existe diferença significativa entre os 
tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade de 
95% de que o contraste não difere de zero). 
Quando se aplica o teste de Dunnett, está-se testando as seguintes 
hipóteses: 
a) H0 : Yˆ = 0 (tratamento semelhante ao controle); 
b) H1 : Yˆ  0 (tratamento diferente do controle). 
Exemplo 9: Verificar pelo teste de Dunnett se existe ou não diferença 
significativa dos tratamentos em relação ao controle a partir de dados da 
TABELA 4.10. 
 
 
 
 
 
 
157 
TABELA 4.10 – GANHOS DE PESO (kg), E VALORES DE GL RESÍDUO, QM 
RESÍDUO E F DE PORCOS ALIMENTADOS COM QUATRO 
RAÇÕES 
 
 
Rações 
 
Média 1/ 
 
 
 A (Controle) 
 B 
 C 
 D 
 
 26,0 
 39,0 
 32,0 
 22,0 
 
 
GL Resíduo 
 
 16 
 
 
QM Resíduo = s
2
 
 
 68,75 
 
 
F 
 
 3,99 * 
 
 
FONTE: GOMES (1985). 
NOTA: (1/) Dados médios provenientes de cinco repetições no delineamento inteiramente 
casualizado. 
 
Logo, tem-se: 
 
d‟(5%) = t 5%
r
s 22 
 
 = 2,63 
5
75,68.2
12,2
  13,79 
 
 0,390,26mˆmˆYˆ BA1
 13,0 ns 
 
 0,320,26mˆmˆYˆ CA2
 6,0 ns 
 
 0,220,26mˆmˆYˆ DA3
 4,0 ns 
 
De acordo com os resultados, pode-se concluir que todos os contrastes 
foram não significativos no nível de 5% de probabilidade, ou seja, as rações B, 
C e D não diferem da ração A (controle) quanto ao ganho de peso em porcos. 
 
4.2.6 Teste de Tukey 
 
O teste de Tukey (

) é usado na análise de variância para comparar 
todo e qualquer contraste entre duas médias de tratamentos. É o teste de 
 
 
158 
comparação de médias de tratamentos mais usado na experimentação 
agropecuária, por ser bastante rigoroso e de fácil aplicação. Ele é mais exato 
quando o número de repetições das médias dos tratamentos avaliados são 
iguais. 
Quando o teste F não for significativo, é norma geral não se aplicar o 
teste de Tukey ou qualquer teste de comparação de médias de tratamentos (se 
estiver próximo da significância é aconselhável a aplicação). Por outro lado, 
pode ocorrer que o teste F tenha sido significativo e o teste de Tukey não 
acuse nenhum contraste significativo. Nestes casos tem-se três alternativas a 
seguir, são elas: 
a) Substitui-se o teste de Tukey pelo teste de Duncan que é menos 
rigoroso; 
b) Aplica-se o teste de Tukey no nível de 10% de probabilidade; 
c) Simplesmente aceita-se o resultado (não significativo) admitindo-se 
que o (s) contraste(s) significativo(s) que o teste F diz existir, envolve mais de 
duas médias, sendo portanto, geralmente, de pouco interesse prático. 
Quando as médias de tratamentos apresentam o mesmo número de 
repetições, sua fórmula é a seguinte: 
 

(5%) = q 
r
s
 
 
onde: 
q = é o valor da amplitude total estudentizada no nível de 5% de probabilidade 
(TABELA A.10); 
s = é a estimativa do desvio padrão do erro experimental, que corresponde à 
raiz quadrada do quadrado médio do resíduo; 
r = é o número de repetições do experimento e/ou da média. 
 
No caso de querer-se usar o teste de Tukey no nível de 1% de 
probabilidade, tem-se a TABELA A.11 para obter-se o valor de q. 
O valor de cada contraste (
Yˆ
) é comparado com o valor de 

. Logo, 
tem-se: 
Yˆ
 (5%) - * (existe diferença significativa entre os tratamentos no 
nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de 
que o contraste seja diferente de zero); 
Yˆ
< 

 (5%) - ns (não existe diferença significativa entre os 
tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade o contraste não difere de zero). 
a) H0 : Yˆ = 0 (tratamentos semelhantes); 
 
 
159 
b) H1 : Yˆ  0 (tratamentos diferentes). 
Exemplo 10: Verificarpelo teste de Tukey se existe ou não diferença 
significativa entre os tratamentos a partir dos dados da TABELA 4.11. 
 
TABELA 4.11 – NÚMERO TOTAL DE FOLHAS POR PLANTA EM TRÊS 
CULTIVARES DE ALFACE (Lactuca sativa L.), E VALORES DE 
GL RESÍDUO, QM RESÍDUO E F 
 
 
Cultivares 
 
Número total de folhas por planta 1/ 
 
 
1. MARAVILHA DE QUATRO ESTAÇÕES 
2. MARAVILHA DE INVERNO 
3. REPOLHUDA SEM RIVAL 
 
25,80 
29,53 
25,73 
 
 
GL Resíduo 
 
 11 
 
 
QM Resíduo 
 
 6,673264 
 
 
F 
 
 5,69 * 
 
 
FONTE: SILVA e FERREIRA (1985). 
NOTA: (1/) Dados médios provenientes de oito repetições no delineamento em blocos 
casualizados. 
 
Logo, tem-se: 
 
8
673264,6
82,3%)5( 
r
s
q
  3,49 
 
 53,2980,25mˆmˆYˆ 211
 3,73 * 
 
 73,2580,25mˆmˆYˆ 312
 0,07 ns 
 
 73,2553,29mˆmˆYˆ 323
 3,80 * 
 
De acordo com os resultados do teste de Tukey, pode-se concluir: 
a) Apenas um contraste foi não significativo no nível de 5% de 
probabilidade, ou seja, as cultivares de alface MARAVILHA DE QUATRO 
ESTAÇÕES e REPOLHODA SEM RIVAL são semelhantes quanto ao 
número de folhas por planta. 
b) Os demais contrastes foram significativos no nível de 5% de 
probabilidade, ou seja, a cultivar de alface MARAVILHA DE INVERNO 
 
 
160 
apresenta um maior número de folhas por planta do que as cultivares 
MARAVILHA DE QUATRO ESTAÇÕES e REPOLHUDA SEM RIVAL. 
Quando as médias de tratamentos apresentam número de repetições 
diferentes (caso de parcelas perdidas), a fórmula do teste de Tukey é a 
seguinte: 
 
 
2
Yˆs
q%)5(
2

 
 
onde: 
q = é o valor da amplitude total estudentizada no nível de 5% ou de 1% de 
probabilidade (TABELAS A.10 e A.11); 
s
2
 = é a estimativa da variância da estimativa de um contraste, que dependerá 
do delineamento estatístico utilizado (ver teste “t”). 
 
4.2.7 Teste de Duncan 
 
O teste de Duncan (D) é também usado na análise de variância para 
comparar todo e qualquer contraste entre duas médias de tratamentos. É, 
porém, menos rigoroso do que o teste de Tukey, pois detecta diferença 
significativa entre duas médias quando o teste de Tukey não o faz. Além disso, 
sua aplicação é um pouco mais trabalhosa, pois, levando em conta o número 
de médias abrangidas em cada contraste, deve-se calcular um valor de D para 
cada contraste. Na sua aplicação deve-se ordenar as médias de tratamentos em 
ordem crescente ou decrescente. Quando o número de médias de tratamentos 
for elevado, por exemplo superior a dez, a aplicação do referido teste se torna 
muito trabalhosa. É um teste bastante usado em trabalhos de sementes e de 
laboratório. Tal como o teste de Tukey, ele exige, para ser exato, que todos os 
tratamentos tenham o mesmo número de repetições. 
Quando as médias de tratamentos apresentam o mesmo número de 
repetições, sua fórmula é a seguinte: 
 
D (5%) = z
r
s
 
 
onde: 
z = é o valor da amplitude total estudentizada no nível de 5% de probabilidade 
(TABELA A.12); 
s = é a estimativa do desvio padrão do erro experimental, que corresponde à 
raiz quadrada do quadrado médio do resíduo; 
r = é o número de repetições do experimento e/ou da média. 
 
 
161 
No caso de querer-se usar o teste de Duncan no nível de 1% de 
probabilidade, tem-se a TABELA A.13 para obter-se os valores de z. 
Como se deve ter vários valores de D, os valores dos contrastes com o 
mesmo número de médias abrangidas pelos mesmos são comparados com o 
seu respectivo valor de D. Logo, tem-se: 
Yˆ 
 D (5%) - * (existe diferença significativa entre os tratamentos no 
nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de 
que o contraste seja diferente de zero); 
Yˆ
< D (5%) - ns (não existe diferença significativa entre os 
tratamentos no nível de 5% de probabilidade, ou seja, com 95% de 
probabilidade o contraste difere de zero). 
Quando se aplica o teste de Duncan, está-se testando as seguintes 
hipóteses: 
a) H0 : Yˆ = 0 (tratamentos semelhantes); 
b) H1 : Yˆ  0 (tratamentos diferentes). 
Exemplo 11: Verificar pelo teste de Duncan se existe ou não diferença 
significativa entre os tratamentos a partir dos dados da TABELA 4.12. 
 
TABELA 4.12 – GERMINAÇÃO DE SEMENTES ESCARIFICADAS DE SEIS 
ESPÉCIES DE Stylosanthes, E VALORES DE GL RESÍDUO, QM 
RESÍDUO E F. DADOS TRANSFORMADOS EM ARCO SENO 
100/%
 
 
 
Espécies 
 
Médias 1/ 
 
 
1 – Stylosanthes humilis 
 
 67,54 
2 – Stylosanthes scabra 83,74 
3 – Stylosanthes leiocarpa 84,75 
4 – Stylosanthes hamata 87,97 
5 – Stylosanthes viscosa 88,98 
6 – Stylosanthes debilis 90,00 
 
 
GL Resíduo 
 
 72 
 
 
QM Resíduo 
 
 20,6518 
 
 
F 
 
 300,32 ** 
 
 
FONTE: REIS (1984). 
NOTA: (1/) Dados médios provenientes de oito repetições no delineamento inteiramente 
casualizado. 
 
Logo, tem-se: 
 
 
162 
D2 (5%) = 

8
6518,20
821,2
r
s
z2
 4,53 
 
 74,8354,67mˆmˆYˆ 211
 16,20 * 
 
 75,8474,83mˆmˆYˆ 322
 1,01 ns 
 
 97,8775,84mˆmˆYˆ 433
 3,22 ns 
 
 98,8897,87mˆmˆYˆ 544
 1,01 ns 
 
 00,9098,88mˆmˆYˆ 655
 1,02 ns 
 
D3 (5%) = 

8
6518,20
971,23
r
s
z
 4,77 
 
 75,8454,67ˆˆ 316 mmY
 17,21 * 
 
 97,8774,83ˆˆˆ 427 mmY
 4,23 ns 
 
 98,8875,84ˆˆˆ 538 mmY
 4,23 ns 
 
 00,9097,87ˆˆˆ 649 mmY
 2,03 ns 
 
D4 (5%) = 

8
6518,20
071,32
r
s
z
 4,93 
 
 879754,67ˆˆˆ 4110 mmY
 20,43 * 
 
 98,8874,83ˆˆˆ 5211 mmY
 5,24 * 
 
 00,9075,84ˆˆˆ 6312 mmY
 5,25 * 
 
D5 (5%) = 

8
6518,20
134,32
r
s
z
 5,04 
 
 
 
163 
 98,8854,67ˆˆˆ 5113 mmY
 21,44 * 
 
 00,9074,83ˆˆˆ 6214 mmY
 6,26 * 
 
D6 (5%) = 

8
6518,20
194,32
r
s
z
 5,13 
 
 00,9054,67ˆˆˆ 6115 mmY
 22,46 * 
 
De acordo com os resultados do teste de Duncan, pode-se concluir: 
 
a) Apenas sete contrastes foram não significativos no nível de 5% de 
probabilidade, ou seja, a germinação de sementes escarificadas foi semelhante 
entre as seguintes espécies de Stylosanthes: S. scabra com S. leiocarpa e S. 
hamata, S. leiocarpa com S. hamata e S. viscosa, S. hamata com S. viscosa e 
S. debilis, e S. viscosa com S. debilis. 
b) Os demais contrastes foram significativos no nível de 5% de 
probabilidade, ou seja, a germinação de sementes escarificadas foi diferente 
entre as seguintes espécies de Stylosanthes: S. humilis com todas as outras, S. 
scabra com S. viscosa e S. debilis, e S. leiocarpa com S. debilis. 
c) A espécie Stylosanthes humilis apresentou a menor germinação de 
sementes escarificadas. 
d) A espécie Stylosanthes debilis apresentou a maior germinação de 
sementes escarificadas, apesar de não diferir estatisticamente das espécies 
Stylosanthes viscosa e Stylosanthes hamata. 
Quando as médias de tratamentos apresentam número de repetições 
diferentes (caso de parcelas perdidas), a fórmula do teste de Duncan é a 
seguinte: 
 
 
2
ˆ
%)5(
2 Ys
zD 
 
 
onde: 
z = é o valor da amplitude total estudentizada no nível de 5% ou de 1% de 
probabilidade (TABELAS A.12 e A. 13); 
s
2
 
)ˆ(Y
 = é a estimativa da variância da estimativa de um contraste, que 
dependerá do delineamento estatístico utilizado (ver teste “t”). 
 
 
 
164 
4.2.8 Teste de Student-Newman-Keuls (SNK)

Continue navegando