Buscar

RESUMÃO - ESTATÍSTICA EXPERIMENTAL

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

ESTATÍSTICA EXPERIMENTAL 
CONCEITO 
 
A experimentação agrícola tem por objetivo o estudo 
dos experimentos, isto é, seu planejamento, execução, 
análise dos dados obtidos e interpretação dos 
resultados. 
a) Experimento ou ensaio: é um trabalho previamente 
planejado, que segue determinados princípios básicos e 
no qual se faz a comparação dos efeitos dos 
tratamentos. 
b) Tratamento: é o método, elemento ou material cujo 
efeito deseja-se medir ou comparar em um experimento. 
c) Unidade experimental ou parcela: é a unidade que 
vai receber o tratamento e fornecer os dados que 
deverão refletir seu efeito. 
d) Delineamento experimental: é o plano utilizado na 
experimentação e implica na forma como os tratamentos 
serão designados às unidades experimentais e em um 
amplo entendimento das análises a serem feitas quando 
todos os dados estiverem disponíveis. 
Em uma pesquisa científica, o procedimento geral é o 
de formular hipóteses e verificá-las, diretamente, ou de 
suas conseqüências. Para tanto, é necessário um 
conjunto de observações ou dados e o planejamento de 
experimentos é essencial para indicar o esquema sob o 
qual as hipóteses possam ser testadas. 
As hipóteses são testadas por meio de métodos de 
análise estatística que dependem do modo como as 
observações ou dados foram obtidos. 
 
O que obriga a utilizar a análise estatística para testar 
as hipóteses formuladas é a presença, em todas as 
observações, de efeitos de fatores não controlados (que 
podem ou não ser controláveis), que causam a variação. 
Esses efeitos, que sempre ocorrem, não podem ser 
conhecidos individualmente e tendem a mascarar o 
efeito do tratamento em estudo. O conjunto dos efeitos 
de fatores não controlados é denominado de variação 
aleatória. Visando tornar mínima a variação do acaso, o 
experimento deve fazer o planejamento do experimento 
de tal forma que consiga isolar os efeitos de todos os 
fatores que podem ser controlados. Durante a instalação 
e a execução do experimento, o experimentador deve 
procurar eliminar o efeito dos fatores não controlados. 
A escolha da parcela deve ser orientada de forma a 
minimizar o erro experimental, isto é, as parcelas devem 
ser o mais uniforme possível, para que, ao serem 
submetidas a tratamentos diferentes, seus efeitos sejam 
detectados. 
O tamanho e a forma ótimos para a parcela serão 
aqueles que resultem na menor variação entre parcelas 
dentro do bloco. 
Em alguns experimentos, deve-se separar as 
bordaduras, para evitar a influência sobre a parcela dos 
tratamentos aplicados nas parcelas vizinhas e, neste 
caso, teremos a área total e a área útil da parcela, 
utilizando os dados coletados apenas na área útil. 
Na amostra obtida de cada parcela, devem ser feitas 
diversas determinações, das quais é obtida uma média 
para representar o valor observado nessa parcela. Não 
deve-se confundir as diferentes determinações da 
mesma amostra de material, com as repetições do 
experimento. 
 
Essa desvantagem é compensada, pois ocorrerá tbm 
uma redução na soma de quadrados do resíduo e 
obtemos > precisão, pois há uma redução na variância 
residual, devida ao fato de isolarmos o efeito de fatores 
que normalmente seriam incluídos no resíduo. 
 
PRINCÍPIOS DA EXPERIMENTAÇÃO 
 
 1) Princípio da repetição: consiste na reprodução do 
experimento básico e tem por finalidade propiciar a 
obtenção de uma estimativa do erro experimental. 
 
 
2) Princípio da casualização: tem por finalidade 
propiciar a todos os tratamentos a mesma probabilidade 
de serem designados a qualquer unidade experimental. 
 
 
3) Princípio do controle local: finalidade de dividir um 
ambiente heterogêneo em sub-ambientes homogêneos 
e tornar o delineamento experimental mais eficiente, 
pela redução do erro experimental. 
 
 
Análise de variância: consiste na decomposição dos 
graus de liberdade e da variância total de um material 
heterogêneo em partes atribuídas a causas conhecidas 
e independentes e a uma porção residual de origem 
desconhecida e de natureza aleatória. 
Permite a partição dos graus de liberdade e das somas 
de quadrados, sendo que cada uma das partes nos 
proporciona uma estimativa de variância. 
Para podermos utilizar a metodologia estatística nos 
resultados de um experimento, é necessário que o 
mesmo tenha considerado pelo menos os princípios da 
repetição e da casualização, a fim de que possamos 
obter uma estimativa válida para o erro experimental, 
permitindo-nos a aplicação dos testes de significância. 
Ao fazer um experimento considerando apenas esses 
dois princípios, sem utilizar o princípio do controle local, 
temos o delineamento inteiramente casualizado. 
Nesse delineamento, deve ser utilizado apenas quando 
tivermos certeza da homogeneidade das condições 
experimentais, as parcelas que receberão cada um dos 
tratamentos são determinadas de forma inteiramente 
casual, por sorteio. Há apenas duas causas ou fontes 
de variação, que são Tratamentos (fator controlado) e 
Resíduo ou Erro (fator não controlado, aleatório). 
Se as condições forem sabidamente heterogêneas, ou 
se houver dúvida quanto à sua homogeneidade, 
devemos utilizar o princípio do controle local, 
estabelecendo, então os blocos, que são agrupados em 
parcelas homogêneas, o delineamento é denominado 
de delineamento em blocos casualizados ou em 
blocos ao caso. Neste caso, deve-se isolar mais uma 
causa de variação conhecida (fator controlado), que são 
os blocos. Como cada bloco deve conter todos os 
tratamentos, há uma restrição na casualização, que 
deve ser feita designando os tratamentos às parcelas 
dentro de cada bloco. 
As parcelas dentro de cada bloco devem ser o mais 
homogêneas possível, podendo existir heterogeneidade 
de um bloco para outro. 
A utilização do princípio do controle local sempre nos 
conduz a uma redução no número de graus de liberdade 
do resíduo. Se as condições experimentais forem muito 
heterogêneas, obrigando a controlar dois tipos de 
heterogeneidade, deve-se nos utilizar de um 
delineamento que exagera no controle local e que é 
denominado de delineamento em quadrado latino. O 
número de repetições deve ser = ao no de tratamentos e 
no de parcelas deve ser um quadrado perfeito. 
 
 
 
 
 
AUMENTO DA PRECISÃO 
 
A precisão se refere à ordem de grandeza da diferença 
entre dois tratamentos passível de ser detectada em um 
experimento. Os procedimentos que podem levar ao 
aumento da precisão são: escolha do material 
experimental, seleção das unidades experimentais, 
seleção dos tratamentos, aumento do número de 
repetições, agrupamento das u.e. e técnicas mais 
refinadas. 
Planejamento de um experimento: 
Quais as características que serão analisadas? 
Quais os fatores que afetam essas características? 
Quais desses fatores serão estudados no experimento? 
Como será a unidade experimental? 
Quantas repetições deverão ser utilizadas? 
Estrutura: título; responsável e colaboradores; objetivos; 
histórico; material e métodos (localização, materiais, 
tratamentos, tipo de delineamento); tempo de execução 
provável; orçamento. 
Relatório: planejamento experimental; dados gerais; 
tratos culturais; dados das parcelas; análise de variância 
e conclusões. 
 
TESTES DE SIGNIFICÂNCIA 
 
Um dos principais objetivos da Estatística é a tomada de 
decisões a respeito da população, com base na 
observação de amostras. Ao tentar tomar decisões, é 
conveniente a formulação de hipóteses relativas à 
população. Hipóteses estatísticas são considerações a 
respeito das distribuições de probabilidade das 
populações. 
Formula-se a hipótese de que não existem diferenças 
entre os efeitos dos tratamentos (qualquer diferença 
observada é devido aos fatores não controlados ou 
acaso). Essa hipótese inicial é denominada hipótese de 
nulidade (H0). Admitindo essa hipótese como verdade, 
se verificadoque os resultados obtidos em uma amostra 
diferem acentuadamente dos esperados para essa 
hipótese, com base na teoria das probabilidades, pode-
se concluir que as diferenças observadas são 
significativas, e rejeita-se H0 em favor de outra, 
denominada de hipótese alternativa (Ha). 
Os processos que nos permitem decidir se aceitamos ou 
rejeitamos uma determinada hipótese são denominados 
de testes de hipóteses ou de testes de significância. 
Porém, ao tomar a decisão de rejeitar ou aceitar uma 
hipótese, estamos sujeitos a incorrer em um dos erros: 
Erro do tipo I: rejeitar uma hipótese verdadeira, que 
deveria ser aceita. 
Erro do tipo II: aceitar uma hipótese falsa, que deveria 
ser rejeitada. 
Esses dois erros estão de tal forma associados que, se 
diminuirmos a probabilidade de ocorrência de um deles 
aumentamos a probabilidade de ocorrência do outro. 
De modo geral, controlamos apenas o erro do tipo I, 
através do nível de significância do teste (α, consiste 
na probabilidade máxima com que nos sujeitamos a 
correr o risco de cometer um erro do tipo I ao testar uma 
hipótese dada). 
5% (α = 0,05) indica que tem 5 possibilidades em 100 
de rejeitar a hipótese quando ela deveria ser aceita, ou 
seja, confiança de 95% de ter tomado a decisão correta. 
A confiança de ter tomado a decisão correta ao rejeitar a 
hipótese é denominada de grau de confiança do teste 
e representada por 1 – α (em %). 
 
Teste F para análise de variância 
Tem a finalidade de comparar estimativas de variância. 
A estatística F, denominada de razão de variância, é o 
quociente de duas estimativas de variâncias, supostas 
independentes e calculadas com n graus de liberdade. 
2
2
2
1
s
s
F =
 
Consideramos s12 > s22, de forma que F > 1, o que 
caracteriza o teste unilateral. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ESTATÍSTICA EXPERIMENTAL 
 TESTES DE SIGNIFICÂNCIA 
 
As hipóteses testadas quando aplica-se o teste F: 
a) H0: σ12 = σ22 
As duas populações possuem variâncias iguais, o que 
equivale admitir que as duas amostras foram retiradas 
de uma mesma população. 
b) H1: σ12 > σ22 (teste unilateral) 
A população 1 possui variância superior à população 2 
ou, equivalentemente, q as amostras são provenientes 
de populações diferentes. 
Os valores críticos de F são tabelados em função dos 
números de graus de liberdade das estimativas de 
variâncias, a diferentes níveis de probabilidade. 
Sempre que o valor de F calculado igualar ou superar o 
valor tabelado, devemos rejeitar H0 em favor de Ha e 
concluímos que pelo menos dois tratamentos possuem 
efeitos diferentes. 
Testes de comparações múltiplas 
Os testes de comparações múltiplas ou testes de 
comparações de médias, servem como complemento do 
teste F, para detectar diferenças entre os tratamentos. 
a) contraste de médias 
Se tivermos a função linear: Y = f(x) = a1x1 + a2x2 + ...+ 
anxn. E verificamos que Σai = 0, dizemos que Y constitui 
um contraste das variáveis x. se em lugar de x, tivermos 
médias, obteremos um contraste de médias. Numa 
análise estatística devemos formular aqueles que sejam 
de maior interesse para o experimentador. Exemplo: 
Estudo da produção de frutos de abacaxi (t/ha): 
1 – abacaxi (0,9 x 0,3 m) – m1 = 53,5 t/ha. 
2 – abacaxi (0,8 x 0,3 m) – m2 = 56,5 t/ha. 
3 – abacaxi (0,8 x 0,3 m) + amendoim – m3 = 62,0 t/há. 
4 – abacaxi (0,8 x 0,3 m) + feijão – m4 = 60,4 t/ha. 
Verificando os tratamentos, tem-se 2 monocultivos e 2 
consórcios: 
Y1 = m1 + m2 – m3 – m4 
Y2 = m1 – m2 
Y3 = m3 – m4 
De um modo geral não conhecemos as verdadeiras 
médias, de forma que o verdadeiro valor do contraste 
também é desconhecido. Conhecendo as estimativas 
das médias, pode-se calcular as estimativas dos com-
trastes. 
nn mcmcmcY ˆ...ˆˆ
ˆ
12211 +++=
 
b) Covariância de dois contrastes 
Consideremos as duas estimativas de contrastes: 
nn mamamaY ˆ...ˆˆ
ˆ
122111 +++=
 
nn mbmbmbY ˆ...ˆˆ
ˆ
122112 +++=
 
Nas quais as médias estimadas foram calculadas c/ r1, 
r2,..., rn repetições, respectivamente. A estimativa da 
covariância de contrastes é definida por: 
)ˆ(ˆ...)ˆ(ˆ)ˆ(ˆ)ˆ,ˆ(ˆ 22211121 nnn mVbamVbamVbaYYVOC +++=
 
Lembrado que: 
iii rsmV
2)ˆ(ˆ =
 
Frequentemente tem-se s12 = s22 =...= sn2 = s2, logo: 
n
nn
r
ba
r
ba
r
ba
YYVOC +++= ...)ˆ,ˆ(ˆ
2
22
1
11
21
 
Nas análises de variância de delineamentos balancea-
dos, todas as médias possuem o mesmo número de 
repetições, r, e portanto: 
r
s
bababaYYVOC nn
2
221121 )...()
ˆ,ˆ(ˆ +++=
 

=
=
n
i
ii
r
s
ba
1
2
 
c) Contrastes ortogonais 
A ortogonalidade entre dois contrastes indica uma inde-
pendência entre suas comparações, ou seja, a variação 
de um contraste é inteiramente independente da varia-
ção de outro. A condição necessária para que dois 
contrastes sejam ortogonais entre si é que a covariância 
entre eles seja nula. 
 
TESTES DE SIGNIFICÂNCIA 
 
Observações: 
1) Três ou mais contrastes serão ortogonais entre si se 
eles forem ortogonais dois a dois. 
2) Num experimento c/ I tratamentos, podemos formular 
vários grupos de contrastes ortogonais entre si, porém 
cada grupo terá apenas (I – 1) contrastes. 
 
d) Variância de um contraste 
Admitindo que todas as médias sejam independentes: 
)ˆ(ˆ...)ˆ(ˆ)ˆ(ˆ)ˆ,ˆ(ˆ)ˆ(ˆ 22
2
21
2
1 nn mVcmVcmVcYYVOCYV +++==
n
n
n
r
s
c
r
s
c
r
s
cYV
2
2
2
2
22
2
1
2
12
1 ...)
ˆ(ˆ +++=
 
Se s12 = s22 =...= sn2 = s2, logo: 
2
2
2
2
2
1
2
1 ...)ˆ(ˆ s
r
c
r
c
r
c
YV
n
n






+++=
 
Se todas as médias têm mesmo número de repetições: 
r
s
c
r
s
cccYV
n
i
in
2
1
2
2
22
2
2
1 )...()
ˆ(ˆ 
=
=+++=
 
e) Erro padrão do contraste: é a raiz quadrada positiva 
da estimativa da variância da estimativa do contraste. 
)ˆ(ˆ)ˆ( YVYs =
 
 
Teste t de Student 
Requisitos básicos: 
a) os contrastes testados devem ser ortogonais entre si; 
b) os contrastes devem ser estabelecidos antes de se-
rem examinados os dados (na fase de planejamento do 
experimento). 
Este teste, que serve para confrontar médias ou grupos 
de média se utiliza de contrastes de médias. 
)ˆ(
0ˆ
)ˆ(ˆ
0ˆ
Ys
Y
YV
Y
t
−
=
−
=
 
Quando se aplica o teste t a um contraste, geralmente o 
interesse é verificar se a sua estimativa difere siginica-
tivamente de zero (valor que deveria assumir se a hipó-
tese H0: as médias ou grupos de médias confrontadas 
no contraste não diferem entre si, ou H0: m1 = m2 =...= 
mn, fosse verdadeira). 
Às vezes existe interesse em se comparar a estimativa 
do contraste com um valor arbitrário de A ou a compara-
ção de uma média com um valor estabelecido. 
)ˆ(
ˆ
Ys
AY
t
−
=
 
)ˆ(
ˆ
Ys
Am
t
−
=
 
O valor da estatística t deve ser comparado com os 
valores críticos de t, tabelados em função do número de 
graus de liberdade associado à variância e do nível de 
significância do teste. 
Intervalos de confiança 
Uma das + importantes aplicações do teste t consiste na 
determinação de intervalos de confiança p/ parâmetros 
verdadeiros, com base em suas estimativas. 
Se tivermos uma média estimada e seu erro padrão 
podemos calcular um intervalo de confiança: 
)ˆ(ˆ mstmIC =
 
Onde tα é o valor crítico da tabela ao nível α de probabi-
lidade com (n-1) graus de liberdade, e interpretamos 
que existe uma probabilidade de 100(1-α)% de que o 
intervalo contenha a verdadeira média m, que nos é 
desconhecida,ou seja: 
)ˆ(ˆ)ˆ(ˆ mstmmmstm  +−
 
Teste de Scheffé 
Pode ser aplicado para testar todo e qualquer contraste 
de médias, mesmo quando sugerido pelos dados. É fre-
quentemente utilizado p/ testar contrastes que envolvem 
grupos de médias. Exige apenas q o teste F da análise 
de variância para tratamentos seja significativo, pois 
quando isso ocorre, indica que devemos ter pelo menos 
um contraste de médias significativo. 
)ˆ(ˆ)1( YVFIS −=
 
 
 
 
 
 
TESTES DE SIGNIFICÂNCIA 
 
Onde I é o número de tratamentos do experimento e F é 
o valor crítico da tabela, ao nível α de probabilidade 
(geralmente 5%), em função dos números de graus de 
liberdade de tratamentos e do resíduo. 
Se o módulo de Y estimado for maior ou igual a S, o 
contraste é significativo ao nível α de probabilidade. 
Teste de Tukey 
Pode ser utilizado para testar todo e qualquer contraste 
entre 2 médias. Muito versátil, mas não permite compa-
rar grupos entre si. O teste tem por base a diferença 
mínima significativa (DMS) representada por ∆: 
)ˆ(. msq
r
s
q ==
 
Onde q é a amplitude total estudentizada, cujo valor é 
encontrado em tabelas, em função do no de tratamentos 
(I) e do número de graus de liberdade do resíduo (n’), 
geralmente ao nível de 5% de probabilidade; s é o 
desvio padrão residual (√QMRes); r é o no de repetições 
das médias confrontadas no contraste. 
Exige que todas as médias possuam o mesmo número 
de repetições. Calculado o valor de ∆, calcula-se todas 
as estimativas dos contrastes entre 2 médias: 
ki mmY ˆˆ
ˆ −=
 
Se o módulo de Y estimado for maior ou igual a ∆, o 
contraste é significativo ao nível α de probabilidade, 
indicando que as 2 médias não diferem entre si. 
Teste de Duncan 
Exige que as médias sejam colocadas em ordem de-
crescente e que todas elas possuam o mesmo número 
de repetições, para ser exato. Cada contraste testado 
envolve apenas 2 médias, embora a amplitude do com-
traste possa abranger um número maior de médias. 
Baseia-se na amplitude total mínima significativa: 
)ˆ(. msz
r
s
zD iii ==
 
Onde z é a amplitude total estudentizada, cujo valor é 
encontrado em tabelas, em função do no de médias 
abrangidas pelo contraste (i) e do número de graus de 
liberdade do resíduo (n’), geralmente ao nível de 5% de 
probabilidade; s é o desvio padrão residual (√QMRes); r 
é o número de repetições das médias confrontadas no 
contraste. 
Se Y estimada for < que D i, o contraste é não significa-
tivo, indicando que não se deve rejeitar H0. 
Se Y estimada ≥ Di, o contraste é significativo, indican-
do que se deve rejeitar H0. 
Teste de Dunnett 
Utilizado quando as únicas comparações q interessam 
ao experimento são aquelas feitas entre um determina-
do tratamento padrão, geralmente a testemunha, e cada 
um dos demais tratamentos. 
Aplicação do teste: 
a) calcular a estimativa de cada contraste; 
b) calcular a estimativa de variância da estimativa de 
cada contraste; 
c) calcular o erro padrão do contraste; 
d) calcular o valor do teste: 
)ˆ(Ystd d =
 
Onde td é o valor dado na tabela para uso no teste de 
Dunnett (5% e 1%) em função do número de graus de 
liberdade de tratamentos (I-1) e do número de graus de 
liberdade do resíduo. 
e) comparar cada estimativa de contraste, em valor 
absoluto, com o valor de d’: 
Todo Y estimado ≥ d’ será significativo, indicando que a 
média da testemunha difere significativamente da média 
do tratamento com ela comparado. 
Todo Y < d’ será não significativo e as médias desse 
contraste não diferem entre si. 
f) indicar a significância do teste no valor da estimativa 
do contraste. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ESTATÍSTICA EXPERIMENTAL 
 DELINEAMENTO INTEIRAMENTE 
CASUALIZADO 
 
Características: 
a) utiliza apenas os princípios da repetição e da casuali-
zação, deixando de lado o princípio de controle local e, 
portanto as repetições não são organizadas em blocos; 
b) os tratamentos são designados às parcelas de forma 
inteiramente casual, com números iguais ou diferentes 
de repetições por tratamentos. 
Para a instalação desses experimentos no campo, deve 
se ter certeza da homogeneidade das condições ambi-
entais e do material experimental. 
Vantagens: 
a) é um delineamento bastante flexível, visto que o no de 
tratamentos e de repetições depende apenas do número 
de parcelas disponíveis; 
b) o número de repetições pode ser diferente de um 
tratamento para outro, embora o ideal seja que eles 
apresentem-se igualmente repetidos; 
c) a análise estatística é simples, mesmo quando o 
número de repetições por tratamento é variável; 
d) o número de graus de liberdade para o resíduo é o 
maior possível. 
Desvantagens: 
a) exige homogeneidade total das condições experimen-
tais; 
b) pode conduzir a uma estimativa de variância residual 
bastante alta, uma vez que, não se utilizando o princípio 
do controle local, todas as variações, exceto as devidas 
a tratamentos, são consideradas como variação do 
acaso. 
Modelo estatístico: 
xij = m + ti + eij 
Onde xij é o valor observado na parcela que recebeu o 
tratamento i na repetição j; m é a média da população; t i 
é o efeito do tratamento i aplicado na parcela; eij é o 
efeito dos fatores não controlados na parcela. 
As hipóteses básicas que devem ser admitidas para a 
validade da análise de variância são: 
a) aditividade: os efeitos dos fatores que ocorrem no 
modelo devem ser aditivos. 
b) independência: os erros ou desvios eij, devidos ao 
efeito de fatores não controlados, devem ser indepen-
dentes, ou seja, que não haja correlação entre eles. Isto 
pode não ocorrer quando os tratamentos são doses 
crescentes de adubos, inseticidas, etc. ocasião em que 
a análise de variância deve ser feita estudando-se a 
regressão. 
c) homocedasticidade: os erros ou desvios eij devidos 
ao efeito de fatores não controlados, devem possuir 
uma variância comum. Isto significa que a variabilidade 
das repetições de um trata-mento deve ser semelhante 
à dos outros tratamentos, isto é, os tratamentos devem 
possuir variâncias homogêneas. 
d) normalidade: os erros ou desvios eij devidos ao 
efeito de fatores não controlados, devem possuir uma 
distribuição normal de probabilidade. Isto implica que os 
dados experimentais se ajustem a uma distribuição 
normal de probabilidade. 
Uma ou mais dessas hipóteses básicas podem não ser 
constatadas e, então antes de se proceder à análise de 
variância, os dados experimentais devem ser transfor-
mados, de tal forma que as suposições básicas sejam 
atendidas. 
Quando não há homocedasticidade verifica-se a hetero-
cedasticidade: 
- heterocedasticidade irregular: ocorre quando certos 
tratamentos apresentam maior variabilidade que outros. 
- heterocedasticidade regular: ocorre devido à falta de 
normalidade dos dados experimentais, existindo fre-
quentemente certa relação entre a média e a variância 
dos diversos tratamentos testados. 
Um dos testes mais utilizados para verificação da homo-
cedasticidade é o teste de Hartley ou teste da razão 
máxima. 
 
 
 
DELINEAMENTO INTEIRAMENTE 
CASUALIZADO 
 
 Calcula-se as estimativas de variância dos diferentes 
grupos e o teste: 
2
min
2
max
s
s
H c =
 
Onde smax2 é a maior variância e smin2 a menor. E com-
para seu valor com os valores críticos de H(g, r-1)α’. 
Constatada a heterocedasticidade deve-se verificar se é 
regular ou irregular. Se regular, deve-se buscar uma 
transformação tal que os dados passem a apresentar 
uma distribuição aproximadamente normal. 
a) Transformação de raiz quadrada √x: para dados de 
contagem, que geralmente seguem a distribuiçãode 
Poisson, na qual a média é igual à variância. 
Quando ocorrem zeros ou valores a baixo as transfor-
mações recomendadas são: √x+0,5 ou √x+1. 
b) Transformação angular arcsen √x/100: para dados 
expressos em porcentagens, que geralmente seguem 
uma distribuição binomial. Desnecessária se as % esti-
verem todas na faixa de 30 a 70% e se resultantes da 
divisão dos valores observados nas parcelas por uma 
constante. 
c) Transformação logarítmica log(x) ou ln(x): quando 
é constatada certa proporcionalidade entre as médias e 
os desvios padrões dos diversos tratamentos. 
Verificada a necessidade de transformação, os dados 
serão transformados e toda a análise estatística deve 
ser feita com os dados transformados. 
Se a heterocedasticidade for irregular, para eliminá-la 
pode-se simplesmente eliminar os tratamentos discre-
pantes ou caso isto não seja possível ou recomendável, 
subdividi-los em grupos e testá-los separadamente, 
através de resíduos apropriados a cada grupo. 
 
Análise de variância do experimento 
 
I = tratamentos, J = repetições. 
IJ
x
C
I
i
J
j
ij
2
1 1








=

= =
 
 
PLANTIO

Continue navegando