Buscar

FREDERICO PIMENTEL GOMES. Curso De Estatística Experiment al. Ed.13. ESALQ. 1990 (O.C.R.) (1)

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

( 
( 
c 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
c 
c 
( 
( 
c 
Univenidadtz de S. Paulo 
Escola Superior de Agricultura "'luix dtz Oueirox" 
CURSO DE 
ESTATISTICA EXPERIMENTAL 
139 Edição 
por 
Frederico Pimentel Gomes 
(Engenheiro Agrônomo) 
Proftzssor Catedr.3tico de Matem.!tica e Estatística 
da 
Escold Superior de Agricultura ''Luiz de Oueiroz" 
1990 
Piracicaba 
Estado de Seio Paulo, Brasil 
UVRARIA NOBEL S.A. 
EDITORA- DISTRIBUIDORA 
LQJA 1: R.DACONSOLAÇÂ0,41·CEP01:Jl1 
LQJA 2: R. MAR1AANT0NlA, 1fll· CEP01222 
EDITORA: RUA DA BALSA, 1111· CEP 02910 
FONES: tPABXI: 257-2144 elli7·9444 · SP 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
( 
( 
PREFÁCIO DA llA. EniÇAO 
A 1 ':- edição deste meu "Curso de Estatística Experi-
mental" veio a lume em 1960, há 25 anos, portanto. Nest.e 
quarto de século, ele vem sendo constantemente atualiza-
do e ampliado. Os 13 capítulos da 1? edição, passaram a 
16 na 3?, a 18 na 4q. e, agora, chegam a 21. Por outro 
lado, em todas as ediçÕes houve atualizaçÕes, corrige~ 
das e acréscimos, tanto nos caoítulos mais novos, como 
nos mais antigos, de tal sorte que o livro se vem manten 
do sempre atual e dinâmico. 
Os três novos capítulos agora acrescentados tratam 
da Analise da Variância !1ultidimensional, das Superfí-
cies de Resposta e dos Métodos Não-Paramétricas. Embora 
se trate de assuntos profundos e difíceis, são eles apre 
sentados de modo simples e intuitivo, de tal forma que 
ficam ao alcance dos leitores que j â antes utilizavam os 
capítulos mais antigos. Para compLetá-los, foram incluí 
das novas tabelas, especialmente adaptadas, pois a Esta=-
tística sem tabelas é como uma espingarda sem pólvora: 
não se pode usar . . Alem disso, a apresentação gráfica 
f o i consideravelmente melhorada, o que facilitará a lei-
tura desta nova edição. 
Para terminar, renovo,ao Conselho Nacional de Pes-
quisas (hoje Conselho Nacional do Desenvolvimento Cientí 
fico e Tecnológico), ao Instituto de Genética da USP e ã 
Fundação Rockefeller, os meus agradecimentos, pois sem 
o auxílio deles este livro jamais teria sido publicado 
e, pois, jamais teria chegado a esta 11<;1 edição, sinal 
evidente da boa aceitação que tem tido, tanto no Brasil 
como no Exterior. 
Piracicaba, 07 de setembro de.l985 
F. Pimentel Gomes. 
,...,..,.._,_,.,~~·..o..••:--!" •••-l~~.~:·• ··" ~~~''iNf"''" '";'':: ,.,,_. .... . ,,.., '' ,...==.......,···~· ~'"~- '~'""- """!"__.. .... _,..... _,. ,)...,.~~·':"..,; ... r("•-- iíiííííííli--- ~- -~:"'"'"-!~:::;:::.,:,. •. -T 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
ÜBRAS :00 t'ES/'10 AUfOR 
Curso de Estadística Experimental, por F. Pimentel Gomes. 
Editorial Hemisferio Sur, Buenos Aires - Versão em 
Espanhol da 6~ edição brasileira, 1978. 
Iniciação à Estatística, 6~ edição, por F. Pimentel Go 
mes. Liv. Nobel, S. Paulo (esgotado), 1978. 
,Iniciaciôn a la Estadística Experimental, por F. Pimen-
tel Gomes, Editorial Hemisferio Sur, Buenos Aires-
Versão em Espanhol da 6~ edição brasileira do livro 
anterior, 1979. 
Análise Matemática, 2~ edição, por F. Pimentel Gomes 
I.R. Nogueira. ESALQ, Piracicaba, 1980. e 
A Estatística MOderna na Pesquisa Agropecuária, 3? ed i-ç~o, por F. Pimentel Gomes. Assoc iaç~o Brasileira 
para Pesquisa da Potassa e do Fosfato (POTAFOS), Pi 
racicaba, 1987. 
Formação do Gado Canchim Pelo Cruzamento Charolês - Ze-
bu, 2? ediç~o, por A. Teixeira Vianna, M. Santiago 
e F. Pimentel Gomes. Liv. Nobel, S. Paulo, 1978 . 
\ . 1. 
INDICE 
Prefácio . · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · 
INTRODUÇÃO .. · · · · · · · · · · · · · · · · · · · ' ...... ' . 
1.1. A Variação do Acaso .. ·:· ··········· 
1. 2 . A Hédia e 0 Desvio Padrao .. · .. · · · · · 
1. 3. Graus de Liberdade : · · · · · · .. · · ...... 
1. 4. Uma FÓrmula t1ais Pratica Para Cal~u-
lar a Soma dos Quadrados ~os Desv~os 
1.5. Erro Padrão da Hédia ..:. ... · .. ·· ...... 
l.6. Coeficiente de Variaçao · ··· ······ ·· 
1. 7. Exercí cios .... . ..... · . · · · · · · · · · · · -· 
1. 8. Bibliografia .......... · · · · · · · · · · · · · 
PRINCÍPIOS BÁSICOS DE EXPERDíENTAÇÃO .... 2. l 
2 .1. Unidade Experimental ou p ar:e a .. .: . 
2.2. Princípios Básicos de Expe:~~entaçao 
2.3. Ex:i.p,ências do t1odelo ~atemat~co .... 
2.4 • Um Exemplo de Aplicaçao do Hodelo Ma-
t emático ...... .. . · . · · · · · · · · · · · ·: · · · 
2. 5. Experimentação Intensiva e Expenme~ 
ração Ex tensi va ··· ··· · ·· ··· · ·· ····· 
2 . 6 . Bibliografia ... .. ... · . .. · ......... . 
3. OS TESTES OU PROVAS DE SIGNIFICÂt~CIA . ... 
3.1. Os Testes F e v · · · •· · •·• · · • · • · •··•• 
3.2. O Teste t ..... • . ·· .. · ... ··· ·· ······ 
··, 3.3. o Teste de Tukey .................. . 
3.4. o Teste de Duncan · · · · ·· · · · · · · · · · · · · 
""3.5. o Teste de Scheffê · • · •· · · · · · · · · · · • · 
3. 6. o Teste de Bonferroni · · · · · · · · · · · · · · 
3.7. Propriedades dos Novos Testes ······ 
3.8. Interpolação Harmônica ....... ······ 
3.9. Intervalos de Confiança .. · .. .: ·: .. · · 
3.10. Determinação do NÚmero Necessar~o de 
Rept'tÍç<-;L's • • • • • • • • • • •• • • • • • • • • • • • • 
3.1l.Bibliogratia ··· ··· ·· · ··· ··· ········ 
4. EXPERIMENTOS INTEIRAMENTE CASUALIZADOS .. 
4.1. Generalidades ....... · ··· ··· · ······· 
Página 
1 
1 
2 
4 
5 
6. 
7 
7 
8 
9 
9 
9 
12 
14 
15 
16 
18 
18 
20 
24 
26 
29 
30 
31 
32 
34 
36 
3!:> 
42 
42 
(--~~------~~--~~---
( 
( 
( 
c 
( 
( 
( 
( 
( 
( 
(' 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
4. 2. Um Exemplo ..... o ••••••••••••••••••• o. 
4.3. Um Exemplo com Parcela Perdida ...... . 
4.4. Um Ensaio de Alimentação de Leitoas .. 
4. 5. Bibliografia •........................ 
,,., 5. EXPERIMENTOS EM BLOCOS CASUALIZADOS ...... . 
5 .1. Generalidades .....•.................. 
5.2. Um Exemplo ...................... ' .... . 
5.3. Outro Exemplo .......... ~ ............ . 
5.4. Um Exemplo com Parcela Perdida ...... . 
5.5. O Caso de Duas Parcelas Perdidas ..... . 
5.6. Outros Tipos de Ensaios em Blocos Ca-
sualizados .......................... . 
5.7. O Caso de um Bloco ou Tratamento Perdi 
do .................................. -:-
5.8. Exercícios .......................... . 
5.9. Bibliografia ........................ . 
6. EXPERIMENTOS EM QUADRADOS LATINOS ........ . 
6 .l. Generalidades ....................... . 
6.2. Um Exemplo ....................... o ••• 
6. 3. Outro Exemplo ....................... . 
6.4. Um Exemplo com Parcela Perdida ...... . 
6.5. Quadrados Latinos com Tratamentos, Li-
nhas ou Colunas Perdidos ............ . 
6.6. Exercícios ............ · .............. . 
6.7. Bibliografia ........................ . 
7. EXPERIMENTOS FATORIAIS ................... . 
7 .1. Generalidades ....................... . 
7.2. Um Exemplo .......................... . 
7. 3. Outro Exemplo ....................... . 
7.4. Um Exemplo com Interação Significativa 
7. 5. Confundimen to ....................... . 
7.6. Um Ensaio Fatorial 3x3x3 com Duas Repe 
tiçÕes .............................. :-
7.7. Um Ensaio Fatorial 3x3x3 com Uma SÓ Re 
petição .......•...................•. :-
7.8. Um Ensaio Fatorial de 6x3x3 ......... . 
7. 9. Exercícios .......................... . 
?.lO. Bibliografia··~···················· .. 
Página 
!+J 
5U 
53 
54 
56 
56 
57 
61 
63 
67 
72 
74 
74 
76 
77 
77 
78 
81 
87 
9l 
94 
94 
96 
96 
97 
102 
104 
107 
111 
116 
120 
123 
123 
* ~ li 
::it 
~A 
:.~
· · r~ 
tr 
.c 
8. At'lÁLLSE DE (;!WPOS DE EXPERH1ENTOS ...... . 
8.1. Generalidades ..........•...... · · · · · 
8. 2. Como Fazer a Análise ....... : . . ·. · · · 
8. 3. Um Grupo de Ensaios de Batat~nha . · · 
8.4. Outro Examplo ..................... . 
8.5. Ainda Outro Exemplo ........... ·. · · · 
8.6. Outro Método de Análise ........... . 
8. 7. O Método de Cochran ........... ·. · · · 
8.8. Bibliografia ...................... . 
*lg, EXPERIMENTOS EM PARCELAS SUBDIVIDIDAS; E! 
FERIMENTOS EM FAIXAS .............. ······ 
9 .1. Generalidades .... o o ••••••••• • • • • • • • 
') .2. Um Exemplo ... o •••• o •••••• •••••••••• 
9. 3. Outro Exemplo o •••••••••.••••• • ••• • • • 
9. 4. Ainda Outro Exemplo .............. .. 
9.5. Exoerimentos em Faixas ..... ·· ······ 
9.6. Um.Exemplo com Subparcela Perdida·· 
9. 7. Bibliografia ........... · · ·. · · · · · · · · 
lO. BLOCOS INCOMPLETOS EQUILIBRADO~ ...... ··· 
10.1. 
10.2. 
10. 3. 
10.4. 
10.5. 
10.6. 
10.7. 
lO. 3. 
10.9. 
Generalidades ................... · · 
Análise Intr . .lb1ocos de um Experíme~ 
to do Tino III .......... o ••••••• •• 
Análise Intrab1ocos de um Experime~ 
to do Tino I ................ · .. · · · 
Análise Intrab1ocos de um Experime~ 
to do Tipo li ................... · . 
Análise com Recuneração da Inform<t-
ção Interblocos ···: .... ········:·· 
Análise de um Exper~mento de T~po 
III com Recuperação da Informaçao 
Interb1oeos ••......••.••.. • · · • · · · · 
Analise de Experimentos dos Tipos 
I e II com Recuperação da Informa-
çio Interhlocos ........•....•.•... 
Decomposição dos Graus de Liberdade 
para Tratamentos ................ · · 
Bibliografia ..................... . 
11. RETICULADOS QUADRADOS .................. . 
11.1. Generalidades .......... · .. · · • · · · · · 
11.2. Delineamentos Robustos ........... . 
Página 
126 
126 
128 
134 
137 
138 
145 
146 
150 
151 
151. 
156 
164 
168 
170 
172 
174 
175 
175 
179 
184 
187 
189 
193 
198 
201 
205 
206 
206 
208 
( 
( 
( 
( 
( 
( 
.( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
12. 
13. 
14. 
11. 3. 
11.4. 
11.5. 
11.6. 
11.7. 
11.8. 
11.9. 
o uso 
12.1. 
12.2. 
12. 3. 
12.4. 
12.5. 
12.6. 
Análise Intrablocos 
Um Exemplo de Anális~.Í~~~~bÍ~~~~··· 
~alise com Recuperação da Inform~~ 
çao Interblocos •..••..•............ 
Um ~xemplo de Análise com Recupe-
raçao da !nformação Inte~blocos .... 
A Repetiçao de um Delineamento Reti-
culado 
O Retic~i~d~.Q~~d;~d~·~~~·~~···~;~~~ 
menta Comum em Todos os Blocos .... ~ 
Bibliografia ............•.......... 
DA REGRESSÃO NA ANÁLISE DA VARIÂNCIA 
Regressão Linear .. 
Os Polinômios Ortog~~~i~·::::::::::: 
A Regressão Polinomial Aplicada a Da 
dos Sem Repetição . ; ............... ~ 
Os Coeficientes de Correlação e de 
Determinação ...................... . 
Bibliografia ...................... . 
C?e!i~ientes para Interpolação de Po 
llnomlos Ortogonais ............... ~ 
O USO DA LEI DE MITSCHERLICH NA ANÁLISE DE 
EXPERIMENTOS DE ADUBAÇÃO ................ . 
13.1. Generalidades 
13.2. o Caso de Três ·~f~~i~ .... · .. · .. · .. · · 
13.3. O Caso de Quatro NÍvei~·:::::::::::: 
13.4. O Caso de Cinco Níveis 
13.5. Um Exemplo com um Grupo·d~···E;;~~i~ 
mentos ............................ . 
13.6. Bibliografia ...... ~ ............... . 
ENSAIOS COM ANIMAIS 
....................... 
14.1. 
14.2. 
14. 3. 
14.4. 
Generalidades .......•.•.........•.. 
Ensaios com Aves ................... . 
Ensaios Contínuos em Blocos Casuali-
zados com Vacas Leiteiras ....•..... 
Ensaios Rotativos com Vacas Leitei-
ras ............................... . 
14.5. Ensaios de Reversão ..............•. 
14.6. Bibliografia .•...•.....•••....••... 
Página 
208 
212 
217 
220 
224 
225 
226 
227 
22.7 
229 
235 
237 
242 
243 
252 
252 
254 
256 
261 
261 
266 
267 
267 
268 
270 
272 
278 
285 
15. O TESTE DE QUI-QUADRADO E SUAS APLICA-
ÇÕES .......................... · · · · · · · · · 
15 .1. Introdução ...................... . 
15.2. Tabelas de Contingência de 2xn .. . 
15.3. Tabelas de Contingência de 2x2 .. . 
15.4. O Teste de Fisher .............. .. 
15.5. Graus de Liberdade Individuais em 
Tabelas de Contingência ......... . 
15.6. Outras AplicaçÕes do Teste de Qui-
Quadrado ........................ . 
15.7. Bibliografia .................... . 
16. ANÁLISE DE COVARIÂNCIA ................ . 
16 .1. Generalidades ................... . 
16.2. Um Exemplo ...................... . 
16.3. Outro Exemplo ................... . 
16.4. Bibliografia .................... . 
17. Al."l'ÁLISE CONJUNTA DE EXPERH1ENTOS El1 BLO-
COS AO ACASO COM ALGUNS TRATAr1ENTOS CO-
MUNS .................................. . 
17 .1. Generalidades ................... . 
17.2. Esquema da Análise da Variância .. 
1 7 . 3 . Um Exemp 1 o ...................... . 
17.4. Um Exemplo Hais Complexo ........ . 
17.5. Uma Dificuldade Que Pode Ocorrer 
17.6. Exercício ....................... . 
17.7. Bibliografia .................... . 
;:~ 18. EXPERIMENTOS FATORIAIS COH TRATAMENTOS 
ADICIONAIS ............................ . 
18.1. Generalidades ................... . 
18.2. Um Exemplo ....•...............•.. 
18.3. Bibliografia .......•............. 
19. A ANÁLISE DA VARIÂNCIA HULTIDI11ENSIONAL. 
19 .1. Genera-lidades .......•...•........ 
19.2. Um Ensaio Inteiramente Casualizado 
19.3. Um Ensaio em Blocos Casualizados . 
19.4. Noções de Álgebra de Matrizes 
19.5. Sistemas de EquaçÕes Lineares .... 
Pâgina 
287 
287 
290 
294 
296 
297 
298 
300 
300 
300 
308 
314 
316 
316 
316 
320 
326 
333 
333 
333 
334 
334 
334 
337 
338 
338 
339 
348 
351 
361 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
19.6. Função Discriminante ou Variável Ca 
nônica ......... . 
19.7. O Teste de Roy .. ::::::::::::::::::: 
19.8. Bibliografia ..•.•..•... ; .•......... 
20. SUPERFÍCIES DE RESPOSTA 
.................. 
20 .1. Int redução ...•...........•......... 
20.2. Um Exemplo com um Fatorial de 3x3 •. 
20.3. Outros Delineamentos Apropriados pa-
r~ Superfícies de Resposta ........ . 
20.4. B1bliografia ..............••....... 
21. TESTES NÃO-PAR.AME:TRICOS 
.................. 
21.1. Introdução 
21.2. O Teste do ~i~;i···· ················ 
21.3. Intervalos de Confi~~~~-~~~~-~~~;~~~ 
21.4. 
21.5. 
21.6. 
21.7. 
21. 8. 
centagem_ ..•........................ 
Comparaçao de PorcentagensObservadas 
O Teste de Kruskal-Wallis ......... . 
Comparação de Médias nos Ensaios In-
teiramente Casualizados ........... . 
O Teste de Friedman ............... . 
Bibliografia ...................... . 
22. TABELAS 
.................................. 
Pâgina 
364 
372 
373 
374 
374 
375 
379 
381 
383 
383 
384 
387 
389 
391 
395 
397 
401 
403 
CURSO DE ESTATÍSTICA EXPERIMENTAL 
1. INTRODUÇJlD 
1.1. A VARIAÇÃO 00 ACASO 
Seguindo o exemplo de R.A. Fisher, podemos definir 
a Estatística como a Matemática aplicada aos dados de ob 
servação. Mas tais dados são, em muitos casos, colhidos 
através de trabalhos feitos propositalmente e em condi-
çÕes previamente especificadas: temos então dados expe-
rimentais, obtidos de experimentos. O estudo dos experi 
mentes, seu planejamento, execução e análise, é que cons 
titui o objeto da Estatística Experimental. 
O que dificulta o trabalho do experimentador e exi-
ge a análise estatística é a presença, em todos os dados 
obtidos, de efeitos de fatores não controlados (que po-
dem ser controláveis ou não), pequenas diferenças de ,fer 
tilidade do
solo, variaçÕes ligeiras no es"Paçaiiiento, na 
profundidade de semeadura, na constituição genética dos 
animais ou plantas, etc. t Esses efeitos, sempre presen-
tes, não podem ser conhecidos individualmente e alteram, 
pouco ou muito, os resultados obtidos . .;. Eles são indica-
dos pela designação geral de variação do acaso ou varia-
ção aleatória. O efeito dessa variação do acaso é tal 
que pode alterar completamente os resultados experimen 
tais. Assim, ao comparar no campo duas variedades de ca 
fé, a pior das duas poderá, por simples acaso, por ter 
sido favorecida por uma série de pequenos fatores não 
controlados, exceder a melhor variedade. E ao comparar 
experimentalmente a produção de leite obtida com duas ra 
çÕes basicamente equivalentes, com certeza quase absolu= 
ta obteremos para uma delas resultado melhor do que para 
a outra, por exemplo 12,5 kg por vaca num caso, 11,8 kg 
noutro:. a diferença observada deve-se à variação do aca-
so. Cabe ao experimentador, pois, verificar se as dife-
renças observadas num exp.erimentó têm ou não têm valor, 
--------------=---=--=-----~---- "- " -~- -
- - --~===~"":!",_...., ~==~===========:.;;,;o~~=-·· ôiiilljj""iíi' .~.-•• ~.""li!"''ll' iil' íl'íi··· -·"'""'iii'""""ii'i' .. ~~--~~"i~"'i"'in"O.i'""'íi' ... ~."lG •. .-.• - ~ --~~· ··· ·····~ .... , ...................... ~: ·ôiíi·>.-~<-· *:;,;~ --~,;;ii;;::'..;;, \;,:ii~l;~:.l);'ii:';:l·' ;l-~i.íli}?}~~iO;r."~,~~i:;· <:l:fi>ni::::i>::•"':J:!""""'i:' l!:l•;;;;':;:~[;:,-•~-[i~~-2!l11!2li:"J.>#;:,;· ;"f±,; ·:.;:ll!; l:'i~ .:\i!!j.ti:'l'~-~li!JZ<+~i::i:.5;1.;,..i/l\;!.8j.':ft~· ---· ~~F-~-Jl'Uo1t-~~.l' I f f ~ ;.;;~_.:..:.:w · • .; f._-.• ; ·· .•. ~;.<Pl~-·"'~'1'-~.,.,.,...,~ 4 . a i<OL . ~tfn~l"-5-,..'l''H;">": .. "'!'~"N.":fi "''-T'.--"'\."M:I;'o\<; -.-":'C'"' .,," \·. •' " .... ,,_.c._.,.,_,.,, ,,-,- . : · · • · ... ·' ""t- -"·' ~~ ·.-. ' . , , .. , ···-r ·"":'ti ' ·-· -· • . -- - ,--.:_- ----~ I 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
2 
isto é, ~e ~ao ou nao significativas. Uma Jifercnça nao 
-significativa se aceita como possivelmente devida ao aca 
so, e e deixada de lado, ate que novos resultados venham 
confirmá-la ou negá-la. Já um resultado significativo de 
monstra que os e lementos ensaiados (variedades, raçÕes-; 
metodos de análise química, etc.) " não são equivalentes, 
dão resultados que aceitamos como realmente diferentes. 
1.2. A ~IA E o DESVIO PADRÃO 
o seguinte problema, bem simples, e bem ilustrati-
VO e nos permitirá introduzir alguns conceitos fundamen-
tais da Estatística. Suponhamos, por exemplo, que dese-
jamos determinar o peso médio de uma cana de uma certa 
variedade no canavial de uma usina. Podemos começar por 
tomar várias canas, ao acaso, em diversos pontos da la-
voura. Os pesos dessas canas são anotados, em quilogra= 
mas, como a seguir: 
1,58 
1,76 
1,38 
1' 71 
1,50 
1,32 
1,51 
1,55 
1,54 
1,67 
A media aritmética desses 10 dados e a soma dividi-
da por 10, e dá 1,55-2 kg. Has este resultado apenas es-
tima o verdadeiro peso médio de uma cana, desconhecido. 
Tanto e assim que se repetirmos o experimento e- pesar 
mos outras 10 canas, quase com certeza obteremos resulta 
do diferente: 1,720 kg, por exemplo. -
A influência dos fatores não controlados resumidos 
sob o nome de acaso se poderia avaliar através da dife-
rença, chamada desvio ou afastamento ou erro, entre os 
valores observados e a media verdadeira. Se esta, supos 
ta conhecida, fosse, por exemplo, 1,50 kg, o de~vió do 
primeiro valor observado seria 1,58 - 1,50 ::· 0,08. 
Os desvios todos constam da tab(da seguinte, 
os 10 pesos observados·. 
0,08 
0,26 
-0,12 
0,21 
o,oo 
-0,18 
0,01 
0,05 
0,04 
0,17 
para 
3 
Como vemos, os clesvi.os podem ser positivo~ ou nega-
tivos. 
Conhecidos os desvios em relação à verdadeira me-
dia, po~emos calcular um nume:o positivo s c~amado des 
vio padrao ou afastamento padrao, dado pela formula 
_, ISQD" 
s -v --N-- • 
onde S Q D indica a sóma dos quadrados dos desvios, e N 
e o numero de observaçÕes, isto é, o numero de canas pe-
sadas, no caso presente. Quanto maiores os desvios, em 
valor absoluto, tanto maior será o valor de s. Mas o 
desvio padrão s apenas estima um valor exato desconheci-
do a (a ê a letras no alfabeto grego), que obterÍamos 
se repetíssemos infinitas vezes as pesagens. 
No caso presente temos: 
S Q D "' (O , O 8) 2 + (O, 2 6) 2 + ••• + (O , 1 7) 2 "' O, 19 80 
logo 
s = I o , 19 80 I 1 o = o , 14 1 . 
Poderíamos então dizer que a estimativa do p~so me-
dio de uma cana é 1!552 kg e que o desvio padrao dos 
valores observados e 0,141 kg . Se este desvio fosse, 
por exemplo, 1,41 em vez de 0,141, a variação entre os 
pesos das canas colhidas seria evidentemente muito maior. 
E se o desvio padrão fosse igual a zero, todos os des-
vios seriam nulos, e não haveria variação do acaso. O 
cálculo do desvio padrão permite, pois, estimar a varia-
ção não controlada, isto e, a variação do acaso ou alea-
tória ou casual. 
Na ' prática, porém, a média veradeira m nao e conhe-
cida; temos apenas sua estimativa m = 1,552. Como cal-
cular o desvio padrão nestas cond~.çÕes? Demonstra-se que 
tal e possível se calcularmos os desvios em relação ã e~ 
timativa da media, desde que se substitua na fÓrmula .N 
por N - 1. ass1m: 
s ='ISQD V----N-1 
No caso que estamos estudando, os desvios em rela-
çao à estimativa da média são: 
/----------------------------~~------~----------------~~----------------------------------~------------
~--~'~.~1(10 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
4 
0,028 
0,208 
-0,172 
0,158 
-0,052 
-0,232 
-0,042 
-0,002 
-0,012 
0,118 
Agora obtemos: 
logo 
SQD (0,028) 2 + (0,208) 2 + ••• + (0,118)2 
= 0,170960, 
s = , lo, 1 70960 v- 9 . 10,018996 = 0,138 . 
Para evitar a extração da raiz quadrada, não raro 
se usa a estimativa da variância' s 2 = O 018996 ou apr_o 
. 2 , -' XLmadamente, s = 0,0190, em Lugar do desvio padrao s 
= O, 138. A estimativa da variância frequentemente se cha-
ma também quadrado médio. 
1.3. GRAUS DE LIBERDADE 
O leitor terá decerto reparado que não são iguais 
as duas estimativas de s obtidas na seção anterior. Mas-
isto não deve causar admiração, pois as estimativas, não 
sendo valores exatos, variam mesmo. De uma maneira ge-
ral, qu~nto maior o número de observaçÕes, mais preci-
sas serao as estimativas, embora isto não obste que em 
um ou outro caso um experimento com menor número de da-
dos dê estimativas mais próximas dos valores verdadeiros 
(geralmente desconhecidos) do que outro com dados mais 
abundantes. 
Na seção anterior, quando admitimos como média ver-
dadeira o valor m = 1,50, achamos s = O, 141. Este va-
lor, calculado com 10 desvios em relação à média verda-
deira, é certamente menos digno de confiança do que se, 
nas mesmas condiçÕes, tivéssemos tomado 20 ou 30 obser-
vaçÕes. O nÚmero N de ob,servaçÕes em que se baseia o câl 
culo de 8 quando se conhece a média verdadeira m da-
- . pois, uma indicaçao sobre a precisão da estimativa 8 ob~ 
tida, e constitui o seu número de graus de liberdade. As 
sim, a estimativa s • 0,141 tem 10 graus de liberdade:-
,, 
, ... , 
5 
Quando, porém, como acontece quase sempre, a média verda 
deira m não é conhecida e fazemos o cálculo de s a par-
tir de uma estimativa m, prova a teoria que isto 
equivale exatamente à perda de um" das observaçÕes. As-
sim, o cálculo de s com. 10 observaçÕes sem o conhecimen-
to de m nos deu s = O, 138 e esta estimativa tem 10 - 1 = 
= 9 graus de liberdade, pois o uso da estimativa da média, 
em vez de seu valor exato, nos faz obter uma estimativa 
de s menos precisa, aliás de precisão equivalente à
que 
teríamos com 9 observaçÕes, se conhecessemos a média ve~ 
dadeira m. No caso geral, com N observaçÕes, se utili-
zarmos uma estimativa de m para calcular s, este terá 
N - 1 graus de liberdade. 
1.4. UMA FóRMULA MA1S PRATICA PARA CALCULAR A SoMA oos 
QuADRADOS DOS DESVIOS 
Vimos acima que a soma dos quadrados dos desvios 
(S Q D), geralmente designada apenas por soma de quadra-
dos, pode ser calculada desde que se obtenham o~ desvios 
todos em relação ã média verdadeira ou em relaçao à sua 
estimativa. Na prática, porém, é preferível evitar o 
calculo dos desvios, pois é trabalhoso e geralmente exi-
ge o uso de maior número de decimais do que o dos dados 
orlglnais. Ora, demonstra-se com facilidade que, no ca-
so de usarmos a estimativa da média, temos, 
onde L:x 2 indica a soma dos quadrados dos dados a 
analisados, L:x e a soma desses mesmos dados e N 
seu numero. 
serem 
e o 
-No caso das pesagens de 10 canas, referido na seçao 
1.2, temos: 
logo 
zx2 = (1,58)2 + (1,76) 2 + •.• + (1,67) 2 = 24,2580 
Ex= 1,58 + 1,76 + •.• + 1~67 • 15,52, 
S QD = 24,2580- (1/10).(15,52) 2 
- 24,2580 - 24,087040 
= 0,17~960 ·. 
. I! 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
6 
Obtemos, pois, o mesmo valor calculado anteriormen-
te por outro método. O termo subtrativo (1/10) (15,52)/ 
recebe o nome de correção, e é geralmente indicado com a 
letra C. Em geral, porém, não há interesse em calcular 
C com número de decimais maior~ que o de l:x2 • No caso aci 
ma, pois, o valor de C deve ser aproximado para 24,0870-:- }; 
de sorte que obtemos: 
S QD = 24,2580- 24,0870 = 0,1710 
0,1710 
9 0,0190 • 
s 10,0190 0,138 . 
Esta estimativa do desvio padrão tem 9 graus de li- i_~ 
herdade. 
1.5. ERRO PADRÃO DA MÉDIA 
;~ 
·~ 
;t 
~ 
Pesadas as 10 canas do canavial de uma usina, obti-
vemos os dados acima referidos na seção 1.2, e para eles- • 
ca~culamos a estimativa da média m = 1,552 e o desvio pa ~ 
drao 0,138, este com 9 graus de liberdade. Se colhêsse=- i 
-m: 
mos várias amostras de 10 canas teríamos diversas estima !e 
tivas para a média e poderíamos calcular com elas novo i 
desvio padrão, que serLa o erro padrão da média s(m). 
Mas há uma fÓrmula simples que permite obter o erro pa-
drão da média s (m) sem ser preciso colher novas amos-
tras. Com efeito, demonstra-se que 
2 
s
2 <ffi> = v<ffi> = ~ . 
AÍ o sÍmbolo V indica estimativa da variância. No caso 
vertente temos pois: 
vem.> 
s(m) 
0,0190 
10 
lo,oo19 
= 0,0019 
= 0,044 . 
Dizemos então que a estimativa obtida para a media 
e m = 1,552 ± 0,044. O erro padrão da média evidentemen 
te dá uma idéia da precisão da estimativa para ela obti= 
·da. Por exemplo, uma estimativa m1 "' 1,552 !... 0,500 te-
ria evidentemente muito menor p.recisão do que a que de-
mos acima, pois o seu erro padrão é maior. 
.. 
. , 
' 'IJ,,· 
7 
1.5. CoEFICIENTE DE VARIAçÃO 
Chama-se coeficiente de variação (C.V.) o numero da 
do pela fÓrmula seguinte: 
100 9 
fll c. v. = 
No exemplo da seção 1.2. tÍnhamos m 1,552 e s 
=0,138,logo o coeficiente de variação e: 
c. v. lÜÜ X Ü, 138 1,552 = 8,9% . 
O coeficiente de variação dá uma idéia da precis-ão 
do experimento. Tendo em vista os coeficientes de va-
riação obtidos comumente nos ensaios agrícolas de campo, 
podemos considerá-los baixos, quando inferiores a 10%, 
médios, quando de 10 a 20%, altos, quando de 20 a 30%, 
muito altos, quando superiores a 30%. 
1. 7. ExERCÍCIOS 
(1.7.1) Os pesos ao nascer de 12 bezerros machos da ra 
ça Charolesa são os seguintes, em quilogramas: 
47 
41 
34 
45 
45 
46 
25 
48 
37 
47 
40 
40 
Calcular as estimativas da média e do desvio padrão 
desses dados. Calcular também o erro padr.ão da média e 
o coeficiente de variação~ 
(1. 7.2) Admitindo-se que seja de 20% o coeficiente de 
variação relativo ao peso de cabeças de repolho, pergun-
ta-s~ quantos repolhos devemos pesar para obter um erro 
padrao da media igual a 5% dela. 
Resposta: E! suJicien te pesar 16 cabeças de repolho. 
(1.7.3) Para determinar a produção média de um cana-
vial, demarcaram-se nele, em vários pontos escolhidos ao 
acaso, 10 pequenas áreas de 100 m2 cada, cuja produção 
foi pesada. Os resultados obtidos, em kg por 100m2 , 
foram os seguin.tes: 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
8 
850 
810 
840 
920 
720 
780 
900 
740 
780 
800 
Calcular a produção média, em toneladas por hecta-
re, e o erro padrão dessa média. Sendo de 400 hectares 
a área de colheita da usina, qual é a produção de 
esperada, e qual o seu erro padrão? 
Resposta: A produção média nas 10 parcelas ê 81,4 ± 
2, O t/ha. A produção de cana esperada em 400 hectares se 
rã 400 x 81,4 = 32.560 toneladas, com erro padrãõ 
400 x 2,0 = 800 toneladas. 
(1.7.4). Numa classe de 16 alunos foram dadas as segui~ 
tes notas numa prova de Matemática: 
7,5 4,5 7,5 6,0 
4,0 5,5 7,0 4,0 
8,0 3,5 8,0 5,0 
8,0 3,5 4,5 5,5 
Calcular a media aritmética, as estimativas da va-
riância e do desvio padrão, e o coeficiente de variação. 
Obter tambêm o erro padrão da mêdia. 
1.8. BIBLIOGRAFIA 
ANDERSON, R.L. e T.A. Bancroft, 1952. Statistical Theory 
in Research. McGraw-Hill, Nova York. 
BRIE'GER, F.G., 1955. Curso de Estatística Analítica, I 
Parte, E.S.A. "Luiz d.e Queiroz", Piracicaba. 
DIXON, W.J. e F.J. Massey, 1957. Introduction to Sta-
tistical Analysis, 2~ edição, McGraw-Hill, Nova York. 
FEDERER, Walter T., 1955. Experimental Design. Macmil-
lan, Nova York. 
PIMENTEL GOMES, F., 1978. Iniciação à EstatÍstica, 6~ 
edição. Livraria Nobel, São Paulo. 
PIMENTEL GOMES, F., 1984. A EstatÍstica Moderna na Pes-
quisa Agropecuária. POTAFOS, Piracicaba. 
2. PR1NC1PIOS BASICOS DE EXPERIMENTACAO 
2.1. UNIDADE ExPERit'ENTAL OU PARCELA 
Quando se realiza um experimento, ê preciso esco-
lher uma unidade para a experimentação, para a colheita 
dos dados que deverão refletir os efeitos dos tra'tamen-
tos ensaiados. Por exempl_o, quando se estuda a alimenta 
çao de vacas leiteiras, a unidade experimental pode ser 
urna vaca, que receberá urna das raçÕes e cuja produção se 
rá pesada separadamente, ou então um grupo de vacas, qúe 
serão consideradas em conjunto .. 
No caso de experimentos de competição de variedades 
de cana, por outro lado, a unidade experimental poderá 
ser uma Única linha de cana de dez metros de comprimento 
ou, corno ê usual, de 3 a 5 linhas vizinhas, desse tama-
nho, as quais são colhidas ·= pesadas em conjunto. Em ex 
perimentos com café, a unidade experimental pode ser um 
grupo de 2 a 8 covas ou mesmo uma só. 
A unidade experimental, no caso de experimentos com 
vegetais tem recebido por vezes o nome de canteiro ou 
talhão, mas a denominação de parcela, aplicável também 
no caso de experimentação animal, parece preferível. 
2.2. PRINCÍPIOS BÁSICOS DE ExPERIMENTAçÃO 
A experimentação moderna, embora multiforme, obede-
ce a alguns princípios básicos que são indispensáveis à 
validez das conclusÕes por ventura alcançadas. A pri-
meira delas e a necessidade imperiosa, indeclinável de 
repetição. Se tivermos duas variedades de milho, A e 
B, plantadas em duas parcelas da mesma área, próximas ou 
não, o fato de A ter produzido mais do que B pouco 
significa~ pois muitas explicações, além do fator varie-
dade, podem justificar os resultados obtidos. Por exem-
plo, a parcela em. que A foi semeada pode ter melhor so 
lo ou dispor de mais água. Poderemos, porém, tentando 
contornar a situação, semear diversas parcelas com cjt; e 
diversas com B e considerar a produção mé.dia de cada 
variedade - e aqui intervém o princípio da repetição. 
( 
( 
( 
(
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
10 
Mas este princípio sozinho nau resolve tot.:.tllltcntt~ o pro-
blema, pois, se todas as parcelas com A estiverem agru 
padas propositalmente num local e as com B noutro, a di= 
ferença de fertilidade do solo ou de fartura de água con-
ti~uarã a ser uma explicação possível, uma hipótese ra-
zoavel. Torna-se necessária, pois, a intervenção de um 
~litro princípio, ~e introdução relativamente recente, que 
e o da casualizaçao ou aleatorização. Admitimos, pois, 
que temos 4 parcelas com a variedade A e 3 com a varieda 
de B, e que a distribuição das variedades pelas parce-
las tenha sido feita inteiramente ao acaso. Então, se 
qualquer parcela com A produziu mais que qualquer par-
cela com B, o Calculo de Probabilidades nos indicaria 
que a probabilidade de isso acontecer por acaso e 
p 4! 3! 7! 
1.2.3.4 X 1.2.3 
1.2.3.4.5.6. 7. 
l 
35 
e esta conclusão e válida i~dependentemente de qualquer 
hipótese além da casualizaçao. Quer isto dizer que o re 
sul~ad~ obti~o pode de fato provir de simples acaso, is= 
to e, e posslvel que as duas variedades sejam realmente 
equivalentes e que a diferença a favor da variedadeApro 
venha de circunstâncias fortuitas, como a maior fertili= 
dade do solo das parcelas com ela semeadas. Mas a pro-
babilidade de isso se dar por simples acaso é apenas 1/35. 
Logo h~ uma probabilidade de 34/35 de que o resultado ob 
tido nao tenha sido casual, isto é, de que se deva a um 
fator sistemático, que seria a melhor produtividade da 
variedade A. 
Um outro princÍpio, de uso muito. frequente, mas nao 
obrigatório, é o do controle local. Suponhamos que que-
remos ainda comparar as duas variedades A e B de milho. 
Para melhorar a precisão da comparação plantaremos sem-
pre A e B em duas parcelas tão semelhantes quanto possí-
vel, bem próximas, que constituirão um bloco. Os blo-
cos poderão ser espalhados por toda a área em estudo ou 
poderão ser agrupados. Poderá haver ou não grande varia 
ção de fertilidade ou de outros fatores de um bloco parã 
outro, isto não importa. O que importa é que cada 
bloco seja tão uniforme quanto possível. Em outras pal~ 
vras, a variação dentro dos blocos deve s.er a menor pos-
sível, ao passo. que a variação entre blocos pode ser gran 
de ou pequena, à vontade. Este tipo de delineamento,que 
11 
ê talvez o mais importante e de uso mais generalizado, é 
conhecido por blocos ao acaso ou blocos casualizados. 
Quando não há controle local, mas apenas repetição e ca-
sualização, temos o que se chama um experimento inteira-
mente ao acaso, ou inteiramente casualizado. 
Num experimento inteiramente casualizado com 4 tra-
tamentos, cada um repetido 5 vezes, por exemplo, tería-
mos 4 - 1 = 3 graus de liberdade (G.L.) para tratamentos 
e 5 x 4 - 1 = 19 graus de liberdade ao todo. A anâli 
se da variância obedeceria ã seguinte decomposição para 
os graus de liberdade: 
Causa da variaçao 
Tratamentos 
Resíduo ou Erro 
Total 
G.L. 
3 
16 
19 
O numero de graus de liberdade para o resíduo é ob-
tido por diferença: 19 - 3 = 16. 
Suponhamos agora que os tratamentos sao agrupados 
em blocos, cada um encerrando todos os tratamentos. Te-
mos então 5 blocos, de onde se segue o esquema seguinte 
para a análise da variância. 
Causa de variação 
Blocos 
Tratamentos 
Resíduo ou Erro 
Total 
G.L. 
4 
3 
12 
19 
O controle local pode ser levado mais longe, o que 
ê feito, por exemplo, nos quadrados latinos. Nestes de-
lineamentos os tratamentos são postos simultaneamente em 
linhas e colunas. Cada linha inclui todos os tratamen-
tos, e o mesmo acontece com cada coluna. Devemos ter, 
necessariamente, o número de linhas igual ao de trata ... 
mentos e também igual ao de colunas. Por exemp}o, num 
quadrado latino com 5 linhas e 5 colunas (5 x 5), temos 
5 tratamentos e o esquema da análise e o seguin-
te: 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
12 
Causa de variação 
Linhas 
Colunas 
Tratamentos 
Resíduo 
Total 
G.L. 
4 
4 
4 
12 
24 
_ O controle local conduz sempre a uma diminuição do 
numero de graus de liberdade para o resÍduo o que é um 
mal. Quando, porém, há uma diminuição grande da variân-
cia residual, como em geral acontece, ganha-se em preci-
sao. Isto levou os experimentadores ·a aumentar cada vez 
m~is a aplicação do controle local, através da introdu-
çao dos delineamentos em parcelas subdivididas ("split 
1 " I 1- ) p ot , em ng es , em blocos incompletos equilibrados, 
em reticulados ("lattices"), em blocos incompletos par-
cialmente equilibrados, etc. Em muitos casos porem 
. ' o abuso do controle local, principalmente nestes delinea 
ment~s mais complexos, conduz 3: tamanha perda de graus 
d~ l1.berdade_e a tal compl~caçao no~ cálculos que o expe 
r1.m~ntador nao raro chega a conclusao de que dever"a pre 
fer1.velmente ter usado um delineamento mais simples. Is= 
t~ é particularmente importante quando o ·experimentador 
nao tem facilidades de computação eletrÔnica, nem acess o 
aos conhecimentos especializados de um matemático- esta-
tístico competente, que o acuda nos casos mais difíceis. 
2.3. ExiGÊNCIAS 00 ~DELO MATEMATICO 
Toda analise da variãncia de um experimento pressu 
poe um modelo matemático e a aceitação de algumas hipô= 
teses básicas. Se tomarmos como exemplo um experimento 
em blocos ao acaso, teremos como modelo matemático 
y .. = m + t. + b. +e .. , l.J L J l.J 
onde Yij é o valor observado relativo ã parcela que re-
cebeu o tratamento i no bloco j; m é a média geral; ti 
med~ o efeito_do trat~en~o_i; bj mede o ef=ito do blo 
co J; e eij e a contrl.]:lul.çao do acaso, isto e, a parte 
da variação devida a fatores não controlados. Na análi-
se admitimos as seguintes hipóteses: 
a. 
b. 
c. 
d. 
13 
Que os diversos cicLtos sao aditivos, como se ve no 
modelo matemático adotado e não, por exemplo, multi 
plicativos, como seria o caso num modelo 
y .. = m ti bJ· LJ 
e·. l.J 
Que os erros ou de~vio~ eij sao independentes, 
onde resulta que nao sao correlacionados. 
Que os erros eij têm todos a mesma variãncia 2 2 • 
Que os erros eij têm distribuição norm~.l. 
de 
Estas hipÓteses parecem muito restritivas, mas nao 
são tanto assim, pois em geral não há grande importância 
em que se verifiquem apenas aproximadamente. Por exem-
plo, os testes mais e~ uso (t e F ou v) não se alteram 
muito se a distribuiçao for apenas aproximadamente nor-
mal, ou mesmo que a distribuição se afaste bastante da 
normalidade. A adi tividade tem importãncia tal vez maior, 
mas em geral se verifica. Quando, porem, isto não se da, 
somos obrigados a fazer transformações das variáveis, 
aplicando, por exemplo, logaritmos. O uso de transfor-
maçÕes também permite, em geral, contornar as dificul-
dades que surgem quando a distribuição dos erros eij se 
afasta muito da normalidade. Se eles têm distribuição 
binomial, por exemplo, usamos a transformação 
z. . = are sen ;y-:-: l.J l.J 
que pode ser comodamente aplicada com o auxÍlio das tabe 
las de SNEDECOR (1967), e se a distribuição é de Pois-
son, podemos usar a transformação 
z.. ry.: 
~J l.J 
ou ainda 
z. . = ly. . + c. 50 • 
~J l.J 
que e preferível quando se incluem números inferiores a 
15. 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
{ 
( 
( 
( 
( 
( 
( 
( 
( 
( 
! 
14 
2.4. UM ExEMPLO DE APLICAÇÃO 00 rbDELO r'1ArEfv1Anco 
Num ensaio inteiramente casualizado o modelo materna 
tico e 
Yij = m + ti + eij , 
qnde Yij e o valor observado relativo à parcela j que re 
cebeu o tratamento i, m e a média geral; ti mede o efei-= 
to do tratamento i, e eij é a contEibuição
do acaso. 
Facilita muito a boa compreensao do assunto consi-
derar um exemplo teórico no qual, conhecidos os_ termos 
do segundo membro do modelo, obtemos as observaçoes. To-
memo's, pois, o caso de um experimento bem simples, in-
teiramente casualizado, com 3 tratamentos e duas repeti-
çÕes para cada um deles. Os tratamentos podem ser, por 
exemplo, três hÍbridos de milho. Tomemos m = 4200 kg/ha 
como média geral da produção e sejam os efeitos de tra 
tamentos os seguintes: 
t1 = +600 kg/ha; t2 = -500 kg/ha; t3 = -100 kg/ha. 
~ usual tomar os efeitos de tratamentos de tal sor-
te que sua soma algébrica seja nula. ~ o que ac0ntece 
nesse caso, pois temos: 
+600 500 - 100 o . 
As médias dos tratamentos m· = 1. -m + ti serao: 
ml 4200 + 600 4800 kg/ha , 
m2 4200 5oo · 3700 kg/ha , 
m3 4200 100 4100 kg/ha . 
Para obter os valores observados devemos, 
introduzir erros ou desvios casuais. Tais erros 
ser obtidos de tabelas especiais, como a de DIXON 
SEY (1957). Sejam os seguintes os erros obtidos, 
tivos a uma distribuição normal com a = 60: 
eu = +70 e21 +30 e31 -40 
e12 = -80 e2 2 +60 e32 +55 
Os valores observados seriam entao: 
Yll 4200 + 600 + 70 4870 
Yl2 4200 + 600 80 4720 
YLl = 4200 500 + 30 3730 
porem, 
podem 
e MAS-
reia-
4200 
4200 
4200 
suo + 60 
100 40 
100 + 55 
3760 
4060 
4155 
15 
Na prática. porém, não conhecemos os valores dos 
termos do segundo membro, isto é, da média geral m, dos 
efeitos de tratamentos ti, nem dos erros eij. pois são 
de no.sso conhecimento apenas os valores observados Yij . 
Podemos, porém, estimar a media geral e os efeitos de 
tratamentos, e, pois, as médias de tratamentos. Quanto 
aos erros individuais, não podemos nem sequer estimá-
los, pois temos de nos conte~tar com uma estimativa s do 
valor exato o do desvio padrao. 
A estimativa da média geral seria: 
íii = + [4870 + 4720 + · ·. + 4ls5] 
= 4216 kg/ha. 
As médias estimadas para tralamentos 
1 [4870 + 4720] 4795 kg/ha ml 2 
m2 1 [3730 + 3760] 3745 kg/ha 7 
m3 1 [ 4060 + .nss] 41.03 kg/ha 
2 
-sao: 
Por sua vez, o desvio padrão, estimado por 
que veremos no capÍtulo 3, nos dá s = 73,5 kg / ha, 
graus de liberdade. 
método 
com 3 
2.5. ExPERIMENTAçÃO INTENSIVA E ExPERIMENTAçÃO ExTENSIVA 
Feito um experimento em um .lugar, com todas as suas 
parcelas agrupadas numa pequena área, seu~ resultados a 
rigor só são válidos para a área em questao e para o ~no 
agrícola em que se colherem os dados. Tais limitaçoes 
são muito graves e tiram a maior parte do valor das con-
clusÕes obtidas. Para conseguir conclusÕes mais gerais 
pode-se começar por utilizar bloco~, completos ou nãO, 
isto é, cada um com todos ou só com alguns dos_tratamen-
tos, e distribuir esses blocos eõt tod• a regiao para a 
qual se procuram obter conclusoes. Se se tratar de uma 
região pequena (uma fazenda, por exemplo), 6 ou 7 blocos 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
16 
p~>dl'ruo ser suficientes. Se, ao contrário, l'stivermo s 
interessados numa região mais vasta (a faixa canavieira 
paulista, por exemplo), será preferível fazer numerosos 
experimentos distintos, relativamente simples, cada um 
válido para uma pequena área, pela qual se distribuem 
os blocos. 
Fazer dois ou três experimentos compactos e deles 
tirar conclusÕes para áreas muitíssimo maiores e perigo-
so, mesmo que eles se limitem a um determinado tipo de 
solo, pois a experiência nos mostra que áreas relativa-
mente próximas, de solos de mesmo tipo, não raro reagem 
de maneira bem diferente. 
No que se refere a experimentos com animais, espe-
cialmente quando supridos de raçÕes suplementares, boas 
aguadas e abrigos, a influência do solo e do clima e mui 
to menor, de sorte que as conclusÕes obtidas sofrem me-
nos limitaçÕes de espaço e de. tempo. 
Por outro lado as condiçÕes de trabalho nas fa·zen-
das têm em geral características diferentes das que pre-
valecem nas estaçÕes experimentais. Naquelas, as varie-
dades ou linhagens cultivadas e os espaçamentos podemser 
distintos, a quantidade de sementes por hectare e ge-
ralmente menor, os tratos culturais, o combate ãs pragas 
e moléstias são quase sempre menos cuidadosos, as aduba-
çÕes e a defesa contra erosão costumam ser menos inten-
sivas. Daí decorre que resultados obtidos em ensaiosfei 
tos em estaçÕes experimentais frequentemente não são vã= 
lidos para as propriedades particulares da região, como 
tem demonstrado a experiência de vários países. 
Os experimentos-chave, de cunho nitidamente cientí-
fico, concentrados nas estaçÕes experimentais, são obje-
to da experimentação intensiva, que pesquisa novas possi 
bilidades. Já a experimentação extensiva encara os ex= 
perimentos nas fazendas, nas condiçÕes da prática, essen 
ciais pa:! que se julgue adequadamente a aplicabilidade 
e conven1encia econômica dos novos metodos indicados pe-
la experimentação intensiva. 
2,6, BIBLIOGRAFIA 
1\NDEHSON, R.L. e T.A. Bam:roft, 1952. Statistical Theory 
in Research. ~1cCraw-lli 11, Nova York. 
17 
ARRUDA, H. Vaz de, 1959. Contribuiçao para o Estudo da 
Adubação Mineral do Milho nas Terras Roxas do Municí-
pio de Ribeirão Preto (tese). Piracicaba .. 
BARTLETT, M.-S., 1947. The Use of Transformatwns. Bio-
metrics· 3: 39-52. 
CA11POS, H., 1984. Estatística Aplicada ã Experimentação 
· com Cana-de-açúcar. FEALQ, Piracicaba. 
COCHRAN, W.G. e ~ertrude M. Cox, 1957. Experimental De-
sigfi, 2~ edíçao. John Wiley, Nova York. 
DIXON, W.J. e F.J. Massey, 19~7. Introduc~ion to Sta-
tistical Analysis. 2~ ediçao. MacGraw-Hlll. NovaYork. 
FEDERER, Walter T., 1955. Experimental Desigo. Macroil-
lan, Nova York. 
FISHER, R.A., 1951. The Design of Experimenta, 69 edi-
ção. Hafner, Nova York. 
HOPP, H. , 1954. A Guide 'to Extensive Testing on Farms, 
4 partes. USDA, Washington. 
QUENOUILLE, M. H., 1953. The Design and Analysis of 
Experiment. Charles Griffin, Londres. 
SILVEIRA NETO, S., O. Nakano, D. Barbin e N.A. Villa No-
va, 1976. Manual de Ecologia dos Insetos, capítulo 
6. Ed. Agronômica Ceres. 
SNEDECOR, G.W. e W.G. Cochran, 1967. Statistical Me-
thods, 6~ edição. Iowa State College Press, Ames, 
Iowa. 
THONI, H., 1967. Transformations of Variables Used 1n 
the Analysis of Experimental and Observational Data. 
A Review. Iowa State Uni v. , Ames, Iowa. 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
18 
3. OS TESTES OU PROVAS DE SIGNIFICANCIA 
3.1. Os TESTES F E u 
o teste básico para a análise da varlancia e o tes-te z de R.A. Fisher, hoje geralmente substituÍdo pelos 
seus equivalentes F de G.W. Snedeco~v2 de A. Hald; ou 
u, de F.G. Brieger, todos eles tendo em vista comparar 
variâncias ou os respectivos desvios padrÕes. Se s 2 e s 2 
são as estimativas das variâncias a comparar, entãh 
F u logo u 
s 
. Note-se que u e uma das formas da letra grega 
minúscula. 
Todas as tabelas de F publicadas ate o momento 
ram feitas supo~do sf > s 2 , de sorte que os valores F das tabelas sao sempre maiores do que um. Para o porem, existem há muitos anos tabelas para v > l, para v < 1. E agora nôs publicamos também tabelas F< 1 (tabelas 3 e 4). 
teta 
f o-
de 
v, 
como 
para 
. Suponhamos, por exemplo, a seguinte análise da va-r~ância d~um experimento com 4 tratamentos e 6 repeti-çoes. 
Causa de variaçao G.L. S.Q. Q.M. Desvio padrão 
Tratamentos 3 32,64 10,88 3,30 ResÍduo 20 28,80 1,44 1,20 
Total 23 61,44 
Admitindo-se a hipótese de nulidade, isto é, supon-do-se que os tratamentos sejam todos equivalentes, o qua drado médio (Q.M.) para os tratamentos é uma estimativa da variância cr 2 , da mesma forma que o quadrado médio re-ferente ao resíduo. Sendo estimativas diferentes
do mes-
. ·······-···-···-·-------- ----
19 
mo parâmetro, elas_nao d:veriam difl•rir ·a nao ser por 
acaso. Para compara-las e que usamos o teste F. Tería-
mos: 
F = 10,88 l, 4/~ = 7,56 
As tabelas de F (de números l e 2) dão o valor 3,10 para o nível de Si. de probabilidade, e 4,94 para o nível de 1%. Quer isto dizer que hâ uma probabilidade de 95% de obter, por simples acaso, um valor de F igual ou in-
. ferior a 3 10 e ha probabilidade de 5% de obter os valo-......f.' ' 
-·'res de F superiores a 3,10. Analogamente, e de 1% a pro:-babilidade de que o valor de F exceda 4,94 e é de 99% a probabilidade de que o F não_e~ceda 4,94. No c~so ~er~e~ te o valor obtigo excede o l1m1te de 1% e se d1z s1gn1f~ 
cativo ao nível de 1%. Isto quer dizer que hâ uma proba-bilidade inferior a li. de que o valor de F observado te-
nha ocorrido por acaso. 
Em vez do teste F pod8remo9 usar o u: 
u = 
3,30 
1,20 = 2,75 . 
Buscamos ag o ra na tabela doJS limites unilat erais de 
u os valores correspondentes aos nív~is de 5% e 1% de probabilidade e r efer entes a 3 e 20 graus de l iberdade. 
Esses valores são: 
5% 
l% 
1,76 
2,22 
Como o valor obtido excede o limite de 1% (2,22) dizemos que é significativo ao nível de 1%. 
Na analise da variância quase sempre esperamos que 
todos os quadrados médios obti9os sejam iguais ou supe-ri~res ao que se obt~m do resíduo. Nestas condiç~es, sô 
se justifica o uso das tabelas de liroi.f.~~- -~-fl.}~~te_rª:Ls de 
u e de F. Quando, porém, não sabemos "a priori" se o de~ 
vio ' padrão do numerador é maior ou menor que o do denomi_ 
nadar então devemos utilizar as tabelas de limites bila terai~, de u ou de F. Estasituaç~o . ã,~ V..e:z~s .~cc;>rr_~ na 
analise de variância quando. ao contrário ~o . que _?_e esp~ 
ra, o quádrado médio (Q.M:} reTativ_o_ a fratamente>_f> -~- . t:'l:e­
nor do que o quadrado médió resi:duãL Se iiõ exemplo aci-
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
20 
ma foss e 0,090 o quadrado m~dio para tratamentos, t e rra-
mos: 
F = 0,090 1,44 0,062 
e aconselhar-se-ia o uso dos limites bilaterais (tabelas 
3 e 4), que são, no caso de F < l, com 3 e 20 graus de 
liberdade: 
5% ........... 0,071 , 
1% ........... o, 023 . 
O valor de F obtido, sendo inferior ao limite de 
5%, mas superior ao de 1%, diz-se significativo ao níve l 
de 5%. Um fato como este, embora não deva ser esperado, 
em geral, ocorre às vezes e, não raro, e sintoma de de-
feitos na análise da variância. Uma das explicaçÕes pos-
síveis e a presença de erros -grosseiros no cálculo das 
somas de quadrados ou dos números de graus de liberdade. 
Outra explicação bem comum e a de que o resÍduo inclua 
alguma importante causa de variação que f oi controlada, 
mas não foi isolada na análise da variância. A ex istên-
cia de correlação que não tenha sido levada em conLa tam 
bem e urna explicação dessa anomalia. Por exemplo, num ex 
perimento em parcelas subdivididas geralmente as subp ar~ 
celas de cada parcela são positivamente correlacionadas, 
o que nos leva a isolar dois resÍduos distintos na análi 
se da variância (veja-se o capítulo 9). Se na análi s e da 
variância os dois resÍduos forem postos juntos, os com-
ponentes a serem comparados com o quadrado médio do r e-
sÍduo (b) poderão tornar-se significativamente inf eri o-
res ao quadrado médio residual, erroneamente estimado . 
Às vezes, porem, nenhuma destas explicaçÕes serve , 
mas isto não deve assustar ninguém, porque, do pont o de 
vista do Cálculo de Probabilidades, o caso, embora pouc o 
provável, nao e impossível, logo deverá ocorrer uma vez 
ou ou i: r a. 
3.2. o TESTE t: 
Outro teste clássico é o testto> t, quto> podto> ser usa-
do para comparar medias. Como requisitos para a sua apli_ 
;; ·,· 
21 
. ção cons c ienciosa t e mos, porem, os seguintes: 1) 
ca · lh"d comparaçÕes feitas pelo teste t devem ser esco 1 as an-
As 
tes de serem examinado~ os dados; 22 Podem-se fazer. no 
máximo tantas comparaçoes quantos sao os graus de 11ber-
dade para tratamentos, e os contrastes devem ser ortogo-
nais. Mas o que devemos entende~ por contraste e ~ que 
são contrastes ortogonais? Se m1 , mz, m3 e m4 sao ':s 
verdadeiras médias dos quatro tra·tai!lentos de um exper1-
niento, 
Y1 = m1 - mz , 
Y2 = m1 + m2 + m3 - 3 m4 , 
são exemplos de contrastes. O que caracteriza um contra_s 
te é que se as médias que nele ocorrem forem todas 
iguais, o contraste deverá ser nulo. De fato, com 
m1 = mz = m3 = m4 M, temos: 
Y1 M - M = O 
Yz M + M + M - 3M = O • 
Para que isto aconteça, a soma algébrica dos coefi-
cientes deve ser nula. 
e os 
Consideremos agora os contrastes 
Os coeficientes 
1 
-do segundo sao: 
1 
mz + O.m3 
+ ffi2 - 2 ffi 3 
do primei ro 
-1 
1 
contraste 
o 
-2 
sao: 
Se multiplicarmos o primeiro coeficiente de Y1 pelo 
primeiro de Y 2 , e assim por diante, obteremos: 
1 -1 o 
e a soma destes números é zero. Dizemos então que os con 
trastes y 1 e Yz são ortogonais. Na análise da var1ancia 
os contrastes ortogonais são importantíssimos. Do pon~o 
de vista prático, a ortoganalidade indica que a variaç~o 
de um contraste ê inteiramente independente da variaçao 
de outro qualquer que lhe seja or.togonal. 
Num experimento com quatro medias, m1 , mz, m3, m4, 
hâ três graus de liberdade para tratamentos e podemos, 
' . então, obter três contrastes ortogonais, como os seguiu-
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
22 
Y1 m1 - m2 , 
Y2 m1 + m2 - 2m3 , 
Y3 m1 + m2 + m3 - 3m4 
Mas os três seguintes também serviriam: 
Yf Jm1 2m2 - m3 , 
Y 2 m2 2m3 + m4 : Y~ 3ml + Sm2 m3 - 7m4 . 
Os valores ml, m2 , m3, m4 , verdadeiras médias dos 
t:atamentos e~ es:udo, não são conhecidos. Conhecemos,po 
:em,~suas e~t1mat1vas, geralmente indicadas por rol, m2~ 
m?, m4, ass1m como uma estimativas do desvio padrão re-
S1dual, que veremos adiante como .calcular. Queremos ago-
ra provar os contrastes Y1 , Y2 , Y3. Como fazê-lo?. Tome-
mos o contraste Y1 para começar. Devemos obter primeiro 
uma estimativa para Y1 e outra para o seu erro padrão. 
Temos: 
m2 
Se as estimativas das medias forem 
ficarâ 
26,0 
24,8 
yl = 26,0 - 24,8 
Qual sera seu erro padrão? 
Dado um contraste 
22,8 
24,0 
1,2 . 
y = clml + c2m2 + ••• + Cnffiu' 
onde o primeiro t:atamento !em r 1 repetiçÕes, o segundo 
r2, e assim por d1ante, entao a estimativa da variância 
da estimativa ? de Y é 
(3.3.1) 
r2 rcn~ ) + •.. + 
onde s 2 é o quadrado médio residual, e como a variância 
é o quadrado do erro padrão, este sera: 
s <?) = / v Cí) 
Para Y1 temos cl = 1, c2 ... -1, e os outros coefi-
23 
cientes sao nu los. Se o numero de repetiçoes f o r se1s p~ 
ra todos os tratamentos, teremos: 
e se 52 = 1,44, com 20 graus de liberdade, como na anali 
se que vimos na seçao 3.1, então 
s (? 1) ~ = 1,20 {f- 0,693 . 
Provemos agora o contraste pelo teste t. O que ge-
ralmente se procura é verificar se esse contraste difere 
de zero, o que se consegue da seguinte forma. Calcula 
-se: 
1,20 
0,693 = 1,73 . 
Com 20 graus de liberdade,---QI_) limites de t (tabela 
9) são: para o nível de 5%, 2,09,)e para o de 1%, 2,84. 
Como o valor de t obtido neln-sequer atinge o limite de 
5%, diz-se que não é significativo e conclui-se que o 
contraste Y1 provavelmente não difere de zero, isto e, 
não rejeitamos a hipótese de nulidade, a hipÓtese de que 
m1 e m2 sejam iguais. Note-se qve não fica provado que 
essas medias são iguais, mas apenas que não temos motivo 
para afirmar que são diferentes, o que é uma afirmativa 
bem mais fraca. 
Vejamos agora o caso do contraste Y2 . Temos 
?2 - m2 - 2 m3 ml + 
26,0 + 24,8- 2 X 22,8 5,2 
'
'1(?2) 1 ( 4 s2 = s2 (-- + - + b) ú 6 
s(?2) s = 11,44 1,20 
t 
5,2 - o 4,33 1,20 
Este valor excede os limites de t para 5% e 1%, da-
dos acima. Diremos, pois, que esse contraste difere sig-
nificativamente de zero, o que equivale, neste caso, a 
dizer que a média dos dois primeiros tratamentos difere 
da média do terceiro, pois 
- ~;:;;;:;;;;;;;::;;:;:~~---~. ~ ... ~~- ."".~ : !iH·~-. ------.-:F -~_, _ _., _ _.......,.~:-~~~':-'!'?:'..'~~:~~-':~ ~::~tJ~~:~. ~-~.l 
( l 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
24 
Analogamente testaremos o contraste Y 3 • 
Feita a escolha dos contrastes a testar antes de examinar os dados, nada há a objetar contra o uso do tes te t. Mas não ê lícito, por exemplo, comparar por esse processo a maior media com a menor delas, ou as duas maiores com a menor. Isto pode ser feito, porem, pelos testes de Tukey, de Duncan e de Scheffe, mais recentes, que passamos a expor. 
Note-se que no caso particular de um contraste en-tre duas medias apenas, tal como yl = ml - mz, temos: 
onde a primeira 
e a segunda com 
ral, como vimos 
t ml - mz 
media se supoe obtida com rl repetiçÕes, 
rz. Mas o teste t e realmente mais ge-
acima. 
3.3. o TESTE DE TUKEY 
O teste de Tukey, baseado na amplitude total estu-dentizada, ("studentized range", em Inglês) pode ser uti-lizado para comparar todo e qualquer contraste entreduas medias de tratamentos. No caso . que estamos discutindo, em que hâ 4 tratamentos, existem 6 contrastes distintos que podem ser estudados. O teste ê exato e de uso muito simples quando o número de repetiçÕes e o mesmo para to-dos os tratamentos, o que admitiremos de início. Começamos por calcular o valor 6 = q s//;, onde q e o valor da amplitude total estudentizada ao nível de 5% ou de 1% de probabilidade; s ê a estimativa do desvio padrão residual, e r e o número de repetiçÕes, suposto o mesmo para todos os tratamentos. No caso vertente temos n· = 4 tratamento·s, n' = 20 graus de liberdade para o re sÍduo, e o valor q ao nível de 5% de probabilidade é~ pois, 3,96 (ver tabela 10). 
Temos então 
ô - 3,96 ~20 = 1,94 . 
16 
25 
Entao todo contra~te e ntre dua~ mGdias, istu e, do 
tipo 
Y = m - m 1 u , 
cuja estimativa exceder o valor f:..= l, 94 sera significati. ao nível de 5% de probabilidade. Tal acontece com a vo 
- . h d diferença entre a maior e a menor das medias ac a as, pois então 
y = ml - m3 = 26,0- 22,8 = 3,2 . 
Se adotarmos o nível de 1% de probabilidade, 
mos: 
1,20 
16 
= 2,46 6 = 5,02 
e aquele mesm9 contraste sera ainda significativo 
nível. 
_ No caso de serem diferentes os numeras de çoes o teste de Tukey pode ainda ser usado, mas 
apenas aproximado. Temos nesse caso 
6 = q V(l/2 ) V (Y) . 
tere 
neste 
rep:ti-:: 
entao e 
Se, por exemplo, m1 tiv esse 6 repetiçoes e mz ape-nas 5, então ficaria, ao nível de 5% de probabilidade: 
A - • 96v~ (~ w - _) , ' 2 6 l +5)(1,44 ) = 2 ,03. 
A diferença observ ada, Y = 3,2 continuaria a ser 
si gnificativa. 
_ . o teste de Tukey pode s er adaptado tam~em a~ JUlga-mento de contrastes mais complicados, mas nao cuidaremos dist o , pois então o teste de Scheffe parece ser, em ge-
ral, mais conveniente. 
E: interessante que, muito raramente, pode aconte cer que, embora o teste F não tenha sido s~gnificativona análise da variância, obtenha-se um ou ma1 s contrastes significativos pelo teste de :u~ey. Tal ocor:e, por exemplo, no caso dado pela analise de . vari~nc;a . e pelas medias seguintes, obtÍ~as de um ensaiO (flct~CiO) COm 4 tratamentos e 6 repetiçoes. 
, / 
:J _
_
_
_
_
_
_
_
_
_
_
_
_
_
_
 _!_ _
_
 ~--_____::.----._{_ 
-·~ 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
t . 
f. 
26 )l: 
Causa de -. variaçao G.L. S.Q. Q.M. F 
Tratamentos 3 54,24 18,08 3,01 
Resíduo 20 120,00 6,00 
Total 23 174,24 
AÍ temos F = 3,01, valor que apenas se aproxima do 
correspondente ao nível de 5% de probabilidade (3,10). 
Sendo as médias 
26,0 
24,2 
como obtemos ao nível de 
/':,. 3,96 
5%' s 
l67õO 
/6 
m2 = 23,8 
m~ = 22,o 
3,96 ' 
verifica-se que ? m{ - m~ 4,0 excede esse limite e 
ê, pois, significativo ao nível de 5% · pelo teste de Tu-
key. Por outro lado, pode ocorrer que o teste F seja 
significativo, sem que nenhuma das diferenças entre me-
dias seja significativa pelo teste de Tukey. 
Fatos semelhantes ocorrem com o teste de Duncan, da 
do a seguir, que também não concorda inteiramente com o 
teste F. Tais discordâncias se devem ã aceitação de hi-
póteses diferentes nas deduções teóricas, e são, aliás, 
de pouca importância pratica. 
3.4. o TESTE DE DUNCAN 
DUNCAN (1955) introduziu um novo teste ou prova pa-
ra comparação de medias, ao qual chegou depois de uma 
tentativa anterior. Sua aplicação ê bem mais trabalho-
sa do que a do teste de Tukey, mas se chega a resultados 
mais detalhados· e se discrimina com mais facilidade en-
tre os tratamentos, isto ê, o teste de Duncan indica re-
sultados significativos em casos em que o teste de Tukey 
não permite obter significação estatística. Tal como o 
· teste · de Tukey, o de Duncan exige, para ser exato, que 
27 
todos os tratamentos tenham o mesmo numero de re-
petiçoes . 
Para o uso do teste necessitamos tabelas espec~a~s 
(tabelas 12 e 13), uma para o nível de 5% de probabilid~ 
d outra para o de 1%. e, . 
Voltando ao exemplo que estamos discut~ndo, começa-
por calcular uma amplitude total mínima significati-mos " ~ ) ("shortest significant range , em Ingles pelo teste 
va . d s de Duncan para o contraste entre a ma~or e a menor a 
medias: 
D = z s 
rr 
onde r e o número de repetiçÕes, s é o desvio 
ê tirado das tabelas, para o número de mé~ias 
abrangidas pelo contraste em estudo e o numero 
de liberdade do resÍduo. Logo) ao nÍvel de 5% 
bilidade, temos: 
D = 3,18 4 
1,20 
/6 
(3,18) (0,49) = 1,56 ' 
padrão e z 
ordenadas 
de graus 
de proba-
pois a comparação entre a maior e a menor das 4 médias 
abrange todas as médids do ensaio. Para comparar a se-
gunda colocada, logo abaixo da maior, com a menor de to-
das, teremos um contraste que abrange 3 médias: 
1,20 
16 
(3,10) (0,49) D3 = 3,10 1,52 
Este valor servirá para testar também o contraste 
entre a m~ior média e a penúltima por ordem de grandeza, 
isto ê entre m1 e m4. 
Finalmenie, para duas médias consecutivas temos: 
02 = 2,95 1,20 = 2,95 X 0,49 = 1,45 , 
16 
e este resultado corresponde ao que nos daria o teste t. 
As medias que não se podem distinguir por~este tes-
te podem ser reunidas por uma barra, como se ve a se-
guir. 
m1 = 26,0 m2 = 24,8 m3 "' 22,8 
----- ----- -=====----------------
( 
' 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
, { 
28 
Sempre que houver uma barra unindo duas m~dias~elas 
nao diferem significativamente. Assim, m1 não é signifi 
cativamente diferente de m2, pois ml - m2 = 1,2 nao exce=-
de 1,45. Mas m1 é significativamente superior a m4 , pois m1 - m4 = 2,0, que excede D3 = 1,52. 
Em vez de barras é também usual e até mais prático 
usar letras, assim: 
~1 26,0 a 
m2 24,8 a c 
m4 24,0 b c 
m3 22,8 b 
Quando a mesma letra aparece com as duas médias, a 
diferença entre elas não é significativa; quando não há 
nenhuma letra comum às duas médias, sabe-se que a dife-
rença alcançou significação estatística. Não diferem 
significativamente entre si, portanto, as médias m4 em3, 
pois a ambas as estimativas m4 = 24,0 e ro 3 = 22,8 cor-
responde a mesma letra b. Ao contrário, é significativa 
a diferença entre m1 e m4 , pois nenhuma letra é comum ãs duas estimativas ro1 = 26,0 e ro4 = 24,0. 
Tanto o método das
barras como o das letras h0je se 
usam comumente também para resumir o resultado da compa-
ração de médias de tratamentos por outros critérios, tais 
como o teste de Tukey. 
Note-se que, sempre que, num grupo de médias, a 
maior não difere estatisticamente da menor, pelo teste 
de Duncan, não se admi~e diferença significativa, pelo 
mesmo teste, entre médias intermediárias. Por exemplo, 
sendo s = 10,0, com 20 graus de liberdade, r = 6, consi-
deremos as médias: 
AÍ temos: 
~ 32,8 ~1 
m2 32,6 
~3 20,4 
m4 20,1 
ms 20,0 
n5 = 13,3 , 
D2 = 12,0 , 
de sorti..! qui..! nao ê significativa a diferença c•ntre a 
máior e a menor das medias, pois rol - ros = 12,8, valor 
29 
inferior a 13 3. No entanto, temos m2 - m3 = 12,2, valor 
que excede D2'= 12,0. Mas este resultado n~o ê vâlid~, 
ela regra acima, de sorte que podemos ace1tar como nao ~ignificativas, p:l~ teste de Duncan, todas as diferen -
ças entre essas med1as. 
Quando o número de médias ê avultado (superior alO, 
por exemplo) a aplicação do teste de Duncan se torna mui 
to trabalhosa. 
No caso de serem 
ções dos tratamentos, 
melhante ã que se fez 
diferentes os números de repeti-
podemos usar uma generalização se-
para o teste de Tukey, tomando 
D = z I (l/2)~(Y) 
3.5. o TESTE DE SCHEFFÉ 
O teste de Scheffé só deve ser aplicado quando o 
teste F (ou u) tiver dado resultado significativo. Se o 
valor de F obtido não for significativo, nenhum_contras-
te poderá ser significativo, e, pois, a apl~caçao do te~ 
te de Scheffé não se justifica. Quando, porem, o va l or 
de F obtido é significativo, pelo menos um dos contras-
tes entre tratamentos será significativo. Mas o contras-
te em questão pode ser muito complicado ou sem int e resse 
pratico. E pode ainda acontecer que nenhum dos contr as-
tes entre duas médias apenas seja significativo. 
O teste de Scheffê é de uso bem mais geral que os 
de Tukey e de Duncan e permite julgar qualquer contras-
te. Para isso calculamos 
s = I (n-1) ~ (1) F 
onde Y é o contraste em questão, n é o número de trata-
mentos e F é o valor da tabela ao nível de 57. ou de 1%, 
correspondente aos números de graus de liberdade para 
tratamentos e para o resíduo. Se as mêdias de tratamen-
tos forem independentes (não correlacionadas) e 
Y = c1m1 + c2m2 + ••· + Cnffiu • 
então teremos 
., -c-:"'w=>ii'iiiiiiiiiiiií""~~-.~;:7.;E;_ .. ;',z;;Rw~-. ~-. :ss""· .,.., . .,..,..,......,."!""~!!!""'· ~ ... ,,.., __ ..,,,..4~-.~~""'! - · ~ L.<. · · "''!r~'!''"~~~~~~ ..... ·.:~·"'"!!'~_.~ ....... .,._..,~--::.·• -::···:''-t'f'··-'::·~·~~~-c:>c'"=~ ( 
( 
r' 
\ 
( 
( 
c 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
( 
--( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
30 
como já vimos, onde ri e o numero de repetiçÕes do 
tamento i, logo tra-
2 n s = '; v(n-1) c2 · c2 ) 
---r;+ ... +-r- F. 
n 
No exemplo que discutimos em 3.1 e 3.2, se considerar-
mos o contraste 
teremos 
? = 3(26,0) - 24,8- 22,8- 24,0 6,4 ) 
e, ao nível de 5%, F 3, 10, logo 
S = l. 20 v·3-' -- -=-9-~l---1~1---(6 + 6 + 6 + 6) 3,10 = 5,17 . 
A estimativa obtida (6,4) excede o valor de S calcu lado, logo o contraste será significativo ao nível de 5%. Para o nível de 1% ja não e significativo, pois en-tao obtemos 
s = 1,20v3(2.+.!:.+.!:.+.!:.) 4 9~ 6 6 6 6 ' 6,53 . 
Note-se que um contraste pode ser significativo quan · do julgado pelo teste de t, sem o ser quando utilizarmos 
o teste de Tukey, o de Duncan ou o de Scheffé. Isto se deve ao fato de que estes testes permitem testar qual-quer contraste que interesse, ao passo que o teste t sô 
se ~ode_apli~ar justificadamente nas condiçÕes expostas 
atras, ~sto e, a contrastes previamente escolhidos or-
. - - ' togona~s e em numero nao superior ao dos graus de liber-dade para tratamentos. Entretanto, pode-se tolerar 0 uso do teste t para a!guns c~ntrastes, mesmo não ortogonais, desde que o seu numero nao exceda o número de graus de liberdade para tratamentos. 
. 
3,6, 0 TESTE DE BoNFERRONI 
O teste de Bonferroni é um aperfeiçoamento do teste t. Com efeito, recomendamos que só se aplique o teste t 
31 
a contrastes escolhidos previamente, antes de serem exa-
minados os dados, e que tais contrastes, em numero no 
máximo igual ao de graus de liberdade para tratamentos, devem ser ortogonais. 
Sabe-se, porém, que,mesmo com essas restriçÕes, a prova de t, aplicada a dois ou mais contrastes num mesmo 
ensaio não e exata. Com efeito, no exemplo discutido em 3.2, se foi de 5% o nível de signif:icância adotado para 
cada um dos três contrastes, a probabilidade de que um, pelo menos, seja significativo, pot simples acaso, é, 
aproximadamente, de 3 x 5 = 15%. No caso geral, se o ní-
vel de probabilidade for a para cada contraste, a proba-bilidade de que um pelo menos de n contrastes ortogonais 
seja significativo é de na. Para contornar essa difi-
culdade, o teste de Bonferroni indica o uso, para cada 
contraste, de um nível de probabilidade a' . = a/n, 
então., l?ara o conjunto teremos na' = a. Para facilitar a aplicaçao do teste de Bonferroni, construíram-se tabelas 
especiais, como a tabela 21. Por exemplo, com a = 5% e 
n = 3, o valor de t, para cana contraste corresponde a 
uma probabilidade a' = 5/3 = 1,67 e, com 20 graus de li-berdade, vale t = 2,61. Este va lor de t é que seria usa-do ao aplicar o teste a 3 contrastes ortogonais relati-
vos aos dados das seçÕes 3.1 e 3.2. 
3 r 7 I PROPR 1 ED.ADES DOS Novos TESTES 
Os testes de Tukey e de Duncan têm fundamentos mui-tos semelhantes. O teste . de Duncan ê, porém, menos con-
servador, isto é, da diferenças significativas com mais facilidade, porque o autor adotou o critério seguinte: To 
mando o nível de significância de 5% de probabilidade 
num contraste que inclua duas médias ele exige uma proba bilidade de 95% (0,95) de que não apontemos como signifi c~tiva uma diferença realmente nula; ja para o caso de 3 
medias, tal probabilidade será 0,9025 = (0,95)2 ou 90,25%; para 4 médias ela baixa para 0,8574 = (0~95)3 ou 85,74%, e, em geral, para n medias, a probabilidade será (0,95)n-l. Já no teste de Tukey, mais exigente, temos 
sempre uma probàbilidade de 95% de não apontar como sig-
nificativa uma diferença realmente nula entre todas as 
médias de tratamentos. Não é de admirar, pois, que, com 
n > 2 o teste de Duncan dê resultados significativos em 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
.( 
c 
casos e~ que isto não acontece com o teste de Tukey: que entao o teste de Duncan nos leva a afirmativas erra-das com maior frequência. O mesmo acontece, com perigo . muito maior, com o teste t aplicado indiscriminadamente, o que hoje não se aceita mais. O teste de Duncan estabe lece, pois, um meio termo entre o rigor um tanto excessl vo do teste de Tukey e a falta de rigor exagerada do tes< te t usado sem as devidas cautelas. Jâ o teste de Scheffe ê ainda mais rigoroso, desa-conselhável para a comparação de duas médias, mas presta bons serviços para provar contrastes mais complicados, e para isto e de uso indicado. 
3 I 8 I INTERPOLAÇÃO HAAt-i>N I CA 
Nas tâbuas de t, u, F, q e z funciona bem a inter-polação harmônica, em que se · usam as recíprocas dos nú-meros de graus de liberdade para armar a regra de três. Por exemplo, qual serâ o limite de 1% de t corres -pondente a 36 graus de liberdade? A tabela de t nos dâ: para 30 graus de liberdade ........... 2,75 , 
logo 
para 40 graus de liberdade ........... 2,70 
Armamos entao a seguinte regra de três: 
1 
30 -
1 
30 -
y = 
1 1 
2,75- 2,70 40 120 
1 1 
36 180 y 
' 
1 
180 (0,05) 
------.1---=0,033:::: 0,03, 
120 
0,05 , 
de onde resulta que o limite buscado é 2,75 - 0,03 = 2,72. 
Procuremos agora o valor de u (unilateral) n 1 = 12 graus de liberdade, n 2 = 200, ao nível de probabilidade. A coluna correspondente a n1 "" 12 na tábua
e nela temos: 
para 
1% de 
existe 
.. .., .. 
33 
n2 ; 120 
-
1,53 
• 
n2 ; 00 
-
1,48 
A regra de tres e: 
1 1 1 
-
1,53 - l ,48 0,05 = -- , TIO 00 120 
1 1 1 ~ 120 - 200 300 y ' 
1 3QO (O ,05) 
y == 1 0,02 . 
120 
o valor procurado ê 1,53 - 0,02 = 1,51. Se quizermos o valor de F par~ n~ = 22, n2 = 200, por exemplo, serâ preciso obter prlmelro os valores p~ra 22 - 120 e para n 1 = 22 n2 = "", para depols, nl = , n2 - ' 
- ' d t · destes chegar ao numero buscado correspon en e por melo , a n 1 "' 22, n 2 = 200. 
-Nas tabelas de F, de q e de z a interpolaçao se faz exatamente do mesmo modo:.. ~ . . . . . . . ~ _ Embora a interpclaçao harmülnca seJa a mals lndH:a da e, em alguns casos, como. o d~ Último exemplo, seja a f als ou menos bem a única possível, geralmente uncl~na m 
- 11 e se usa para tábuas interpolaçao linear, seme 1ante a qu de logaritmos. Para 0 valor de t ao nível de 1% de p:obabilidade, correspondente a 36 graus de liberdade, teriamos: 
para 30 graus de liberdade ..... 2,75 · para 40 graus de liberdade ..... 2, 70 · 
d lo d liberdade dâ uma Logo uma diferença e graus e 
. variação de 0,05. E obtemos a regra de tres: 
logo 
10 0,05 • 
6 y 
6(0,05) 
y = 10 = 0,03 ' 
de onde resulta que o limite buscado e 2, 7 5 - O ,03 
= 2,72, como anteriormente. 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
34 
3,9, INTERVALOS DE CoNFIANCA 
Consideremos uma estimativa ? de um contraste y e 
seja s (Y) seu erro padrão com n' graus de liberdade. Se 
o valor de t para este número de graus de liberdade e ao 
nível de 5% de probabilidade for t 0 , então há uma proba-bilidade de 95% de que tenhamos 
Y' - t 0 s (Y) < Y < ? + t 0 s (Y) 
isto e, em 95% dos casos o intervalo de confiança (va-
riável) de extremos Y' - t 0 s(Y') e Y' + t s(Y') conterá 0 
verdadeiro valor do·contraste. Quer diz~r que se repetir 
mos muitas vezes o experimento, em 95% dos casos 0 inter 
valo de extremos Y' - t 0 s(Y.) e Y' + t s(Y') conterá 0 va= 
lor verdadeiro Y do contraste. Podemgs exprimir isto em 
out:as palavras dizendo que e de 95% a probabilidade fi-
duc1al de que o verdadeiro valor do contraste esteja 
dentro do intervalo de confi~nça determinado num certo 
experimento. 
Por exemplo, consideremos o contraste Y = m1- m3 no 
exemplo de 3.2. Temos então 
Y' = 26,0 - 22,8 = 3,2 , 
s(Y) S ~= 1,20 X 0,577 0,692 . 
são 20 os graus de liberdade do resíduo 
nível de 5%, temos t 0 = 2,09. E fica: ' 
logo, ao 
Y t 0 s(Y') = 3,20- 1,45 = 1,75 , 
Y' + t 0 s(Y') = 3,20 + 1,45 = 4,65 . 
Dizemos, pois, que há uma probabilidade fiducial de 
95% de que o valor exato Y do contraste entre os dois 
tratamentos esteja entre 1,75 e 4,65, querendo dizer com 
isto que num grande número de experimentos semelhantes 
interv~los análogos ~o de extremos 1,75 e 4,65 que foi 
determ~nado encerrarao o verdadeiro valor de y em 95% do 
dos casos. 
O conceito de intervalo de confiança ("confidence 
interval", em Inglês) que aí fica foi introduzido por 
J. Neyman, e veio substituir os limites ou intervalos fi 
duci.ais de R.A. Fisher. Os dois conceitos conduzem aos 
mesmos resi.Iltados na maioria dos casos, mas os fundamen-
tos lógicos são diferentes. 
35 
No caso de termos, nao um contraste, mas apenas uma 
mêdia,Y = m1 , por exemplo, a fÓrmula (3.2.1) pode ainda 
ser aplicada e obtemos intervalos de confiança para a me 
dia em questão. Temos: 
ml 26,0 , s <ffi 1 ) = 1,20 fi= o 490 
' 
- ~ to s <lli1 ) 26,0 2,09 X 0,490 24,98 ml 
ml + t s <lli1 ) 26,0 + 2,09 X 0,490 27,02 o 
Há, pois, uma probabilidade fiducial de 95% de que 
a verdadeira media m1 esteja entre 24,98 e 27,02. De ma-
neira análoga se obteria o intervalo de confiança pai;a 
níveis diferentes de probabilidade. 
Nos casos em que se aplicam os testes de Tukey e de 
Scheffe, intervalos de confiança baseados nesses testes 
podem ser obtidos. 
Por exemplo, para um contraste qualquer Y = rni - ~· 
os extremos do intervalo de confiança serão Y- q s e 
- s l1r 
e Y + q -==· Para Y = m1 - m3 no exemplo de 3.2 obte-/r 
mos, pois, ao nível de 5% de probabilidade, 
y 26,0 - 22,8 = 3,2 , 
y s 3,2 3,96 ~ 1,26 - q = -
rr- /6 
, 
y s 3,2 + 3,96 ~ 5,14 + q = 
rr r6 
Para o caso do teste de Scheffé, os extremos do ~n­
tervalo de confiança são: 
Y - I (n-l)~(Y) F , Y + / (n-l)~(Y') F . 
Ainda no caso do exemplo de 3.2, o contraste 
Y 3m1 - m2 - m3 - m4 
nos dá Y' = 6,4 e os extremos do intercalo de confiança, 
ao nível de 1% de probabilidade, são 
6,4 - 9 1 1 1 (6 + 6 + 6 + 6) 1,44 X 4,94 -0 'l3 ' 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
c 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
( 
36 
13 9 1 1 ..!_) 1,44 X 4,94 12,93 6,4 + (- +- + + 
• 6 6 6 6 
pois a tabela 2 nos dá F 4,94 e 
fJ (?) 9 1 1 _!_) 1,44 (- + - + + 6 6 6 6 
Em experimentos agrÍcolas ou zootêcnicos o nível de 
5% de probabilidade parece ser mais indicado e conve-
niente do que o de 1%. 
3,10, DETERMINAÇÃO 00 Nt'J.1ERO NECESSÁRIO DE. REPETIÇÕES 
Um dos problemas mais interessantes da experimenta-
çao e a determinação previa do número necessário de rep~ 
tiçÕes. Numerosas soluçÕes já foram propostas, mas ne-
nhuma e inteiramente satisfatória. 
Na experimentação agrícola ou zootecnica a exper~en 
cia indica que dificilmente se conseguem resultados ra-
zoáveis com ensaios que tenham menos de 20 parcelas. Es-
te número deve ser tornado, pois, em geral, corno mínimo. 
Assim sendo num experimento com 2 tratamento~, de-
vemos ter pelo rn;nos 10 repetiçÕes, para que haja no rn~­
nirno 20 parcelas ao todo. 
Outra indicação útil e a de que devemos t e r, em ge-
ral, pelo menos 10 graus de liberdade para o resíduo. 
Estas duas restriçÕes, embora muito Úteis na práti-
ca, podem, porem, ser deixadas de lado em al~uns casos. 
Tal ocorre nos experimentos de grande precisao (al guns 
ensaios fÍsicos ou químicos, de laboratório, por exem-
plo) ou então quando temos um grupo numeroso de experi-
mentos, que serão estudados em conjunto, tendo em vista 
unicamente resultados gerais. Neste caso, cada experi-
mento tem individualmente pouco valor e, pois, podemos, 
se necessário, reduzir um pouco o número de repetiçÕes, 
a fim de, com os recursos disponíveis, poder aumentar o 
número de ensaios. 
Uma solução rigorosa interessante e recente para o 
problema pode ser obtida p~lo uso do teste de Tukey, da 
maneira que vamos expor. 
Em primeiro lugar devemos contar com uma 
previa do desvio padrão sz, com n2 graus de 
estimativa 
liberdade, 
37 
· btido de ensaios anteriores em condiçÕes análogas._Alem 
d
0
· to devemos fixar a diferença mínima d que devera ser ~s , 
-
tatisticamente comprovada pelo ensaio. Entao, sendo q es 
. 
amplitude total estudentizada para o exper~mento a ser 
;eíto, e sendo F o valo: da tábua, ao níve~ a escolhido 
de probabilidade, com numero de_graus de l1be:d~de nl (do novo experimento) e n2 , o numero de . repet1çoes r e 
dado pela fÓrmula: 
r 
Este número de repetiçÕes nos garantirá uma probabi 
lidade a de que o ensaio não venha comprovar a diferença 
d, isto é, uma probabilidade l - a de que seja comprova-
da estatisticamente, pelo teste de Tukey. 
Como os valores de q e de F a serem usados no se-
gundo rnem~ro dependem de~· ê claro_que só se p?de obter 
uma soluçao por aproximaçoes sucess~vas, a part~r de uma 
tentativa inicial qualquer. 
Vejamos um exemplo. Suponhamos que pl~nejarnos um 
experimento com 5 variedades de cana-de-açucar ~ que t:-
mos, de ensaio anterior , urna estimativa do desv~o padrao 
residua l s 2 = 7,4 t/ha, com n2 = 60 graus de ll.berdade, 
e consider emos que o novo experimento deva comErovar pe-
lo teste de Tukey qualquer diferença de produçao de 15 
t/ha ou mais. Admitimos que o

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando