Prévia do material em texto
1 ESTATÍSTICA EXPERIMENTAL 1.1 Introdução A experimentação tem por objetivo o planejamento e a execu- ção de experimentos, a análise e a interpretação dos resultados obtidos nos experimentos. • Maior ênfase deve ser dada ao planejamento e à interpretação do s resultados obtidos nas análises. • Serão tratados apenas métodos apropriados para as análises de ensaios balanceados, isto é, quando os tratamentos apre- sentam o mesmo número de repetições. 1.2 Conceitos importantes em experimentação 1.2.1 Experimento ou ensaio É o processo que permite a coleta das observações sob condições previamente determinadas e impostas pelo pesquisador. 1.2.2 Fator É uma variável cujo efeito se deseja conhecer e avaliar no expe- rimento. Exemplos: (i) Experimento para se avaliar o ganho de peso de suínos ali- mentados com rações que apresentam diferentes % de pro- teína bruta(PB). O fator em estudo é % PB na ração. (ii) Experimento para se avaliar a produção de diferentes vari- edades de feijão plantadas com diferentes tipos de adubos. Neste caso, têm-se dois fatores em estudo: variedades de feijão e tipos de adubo. 2 1.2.3 Tratamento Utilizado para caracterizar os tipos ou níveis que um fator as- sume, quando se tem um único fator em estudo ou as combina- ções dos tipos ou níveis dos fatores, no caso de se ter mais de um fator em estudo, simultaneamente. Exemplos: (i) Num experimento para se avaliar o efeito de um catalisador em uma reação química tem-se que o fator é catalisador e assim, • Trat. 1 - sem catalisador; • Trat. 2 - com catalisador. (ii) No caso de um experimento para se avaliar a produção de três diferentes variedades de feijão, V1, V2 e V3, plantadas com dois diferentes tipos de adubos, químico (Q) e orgânico (O), tem-se dois fatores em estudo: um com três níveis e outro com dois níveis. Assim, combinando-se esses níveis dos fatores, tem-se 2x3 = 6 tratamentos, ou seja, Variedade Tipo de adubo Tratamentos V1 Q T1 = V1Q V1 O T2 = V1O V2 Q T3 = V2Q V2 O T4 = V2O V3 Q T5 = V3Q V3 O T6 = V3O 1.2.4 Variável resposta É a variável a ser medida ou avaliada no experimento. Exemplos: ganho de peso, produção, etc. 3 1.2.5 Dados São as observações obtidas ou coletadas no experimento, ou seja, sãos valores que a variável resposta assume. 1.2.6 Parcela ou unidade experimental É o conjunto ou porção de material que recebe apenas um trata- mento e de onde serão obtidos os dados para análise. Exemplos: uma vaca, quatro suínos, três poedeiras, uma placa de petri, uma linha de plantio de uma cultura, com 10m de comprimento, etc. 1.2.7 Bordadura A bordadura consiste em deixar, em cada parcela, uma área cujo material não será utilizado nas avaliações. Exemplo: de uma parcela com quatro linhas de 5m cada, com espaçamento de 0,5m e com 10 plantas por metro linear, a qual apresenta área total de 10 m2 e 200 plantas, pode-se utilizar apenas uma área útil de 3m2, com 60 plantas. 4 1.2.8 Variações devido ao acaso ou erro experimental São variações que ocorrem nos experimentos atribuídas a efeito de fatores não controlados, conhecidos ou não, que afetam os resultados experimentais. Esta variação ocorre entre parcelas que recebem o mesmo tratamento e causam prejuízo na discriminação do efeito dos tratamentos. Deve-se ter muito cuidado e procurar reduzir ao máximo o erro experimental, pois este está diretamente ligado à precisão do experimento. Exemplos: (i) diferenças genéticas entre os seres vivos; (ii) pequenas diferenças de fertilidade do solo; (iii) pequenas variações nas condições ambientais; (iv) pequenas variações nas doses de adubos, inseticidas, fungi- cidas, herbicidas, etc; (v) ligeiras variações na distribuição de rações; (vi) variações devido à falta de uniformidade na condução do ensaio, como diferenças devido à variações de temperatura, umidade, etc; 1.2.9 Delineamento experimental É a maneira como as parcelas estão dispostas no experimento. Como exemplo pode-se citar os delineamentos inteiramente ca- sualizado (DIC), em blocos casualizados (DBC) e em quadrado latino (DQL). 5 1.3 Princípios básicos da experimentação 1.3.1 Repetição É o fato de um tratamento aparecer mais de uma vez no ensaio, ou seja, o tratamento é atribuído a mais de uma parcela. • permite a estimação do erro experimental; • aumenta a precisão da estimativa, reduzindo o erro padrão da média do tratamento, uma vez que SX̄ = S√ J , em que J é o número de repetições; • diminui o erro experimental. ** Regras gerais (práticas): • deve-se ter no mínimo 3 repetições/tratamento; • ensaio deve ter no mínimo 20 parcelas; • erro experimental deve ter no mínimo 10 graus de liberdade (GLErro ≥ 10). 1.3.2 Casualização ou Aleatorização A atribuição dos tratamentos às parcelas deve ser de maneira ale- atória, evitando a disposição sistemática dos tratamentos, o que pode favorecer um determinado tratamento. Com a casualização, cada tratamento tem a mesma probabilidade de ser destinado a qualquer parcela. A casualização tem por objetivo assegurar uma estimativa não-viesada do erro experimental, das médias dos tratamentos e das diferenças entre as médias, assim como dar validade aos testes de hipóteses realizados. - Exemplo: 6 1.3.3 Controle local Refere-se a restrições impostas no processo de casualização, levando- se em conta variações conhecidas, ou que se tem suspeita, no material experimental. A �nalidade do controle local é dividir um ambiente heterogêneo em sub-ambientes homogêneos. Este procedimento torna o experimento mais e�ciente, pois reduz o erro experimental. De acordo com o controle local, tem-se os delineamentos: - DIC: sem controle local; - DBC: controle local em uma direção (blocos horizontais); - DQL: controle local em duas direções (blocos horizontais e verticais); 1.4 Análise de Variância (ANAVA) É uma metodologia estatística desenvolvida por R.A. Fisher, con- siderada uma das ferramentas mais importantes do pesquisador na análise de dados e interpretação dos resultados experimentais. Consiste na partição da variância de uma variável aleatória em partes ortogonais (independentes) correspondentes a tratamento e erro experimental. Os objetivos da ANAVA são: • obter estimativas precisas das médias e diferença entre as médias dos tratamentos; • testar hipóteses sobre igualdade de médias dos tratamentos e sobre a existência de interações entre fatores; • obter estimativas dos componentes de variância. 7 1.4.1 Variação total, variação entre tratamentos e varia- ção dentro Seja a observação yij do tratamento i na repetição j, com i = 1, 2, . . . , I e j = 1, 2, . . . , J . Assim, de um experimento tem-se Repetição Totais Tratamentos 1 2 . . . J tratamentos 1 y11 y12 . . . y1J T1 2 y21 y22 . . . y2J T2 ... ... ... ... ... ... I yI1 yI2 . . . yIJ TI G em que, - Ti é o total do tratamento i, sendo Ti = J∑ j=1 yij = ∑ j yij - G é o total geral, sendo G = I∑ i=1 J∑ j=1 yij = ∑ ij yij - Médias dos tratamentos: m̂i = Ti J ; - Média geral: m̂ = G IJ . Em um ensaio em DIC, a variação total será desdobrada na variação entre tratamentos e na variação dentro de tratamentos, isto é, Variação total = Variação Entre + Variação Dentro (SQTotal) (SQTrat) (SQErro) 8 em que, - Variação total (VTO): mede toda a variação ocorrida no ensaio, dada pela dispersão das observações em relação à média geral. Representa a variação devida a todas as fontes que causam variabilidade nos dados. V TO = SQTotal = ∑ ij (yij − m̂)2 = ∑ ij y2 ij − ∑ ij yij 2 IJ - Variação entre tratamentos (VE): mede a variação ocor- rida no ensaio devido ao efeito de tratamentos, dada pela dispersão das médias dos tratamentos em relação à média geral. V E = SQTrat = J ∑ i (m̂i−m̂)2 = 1 J ∑ i T 2 i − ∑ ij yij 2 IJ - Variação dentro (VD): mede a variação ocorrida no en- saio devida a fatores de acaso (não controlados), dada pela dispersão das observações de cada tratamento em relação às suas respectivas médias. V D = SQErro = ∑ ij (yij − m̂i) 2 = SQTotal − SQTrat 91.4.2 Estimativas das variâncias de tratamento e de resí- duo (erro) e coe�ciente de variação: • Variância devido a Tratamentos: S2 T = QMTrat = SQTrat I − 1 ; • Variância devido ao Erro: S2 = QMErro = SQErro I(J − 1) ; • Coe�ciente de variação: CV (%) = S m̂ · 100 = √ QMErro m̂ · 100. 1.4.3 Quadro da Análise de Variância FV GL SQ QM F Entre tratamentos I − 1 SQTrat QMTrat Fcalc Dentro tratamentos I(J − 1) SQErro QMErro Total IJ − 1 SQTotal em que Fcalc = QMTrat QMErro - Teste F: Através da ANAVA obtêm-se estimativas das variâncias entre (QMTrat) e dentro (QMErro). Sabe-se que o quociente de duas estimativas independentes de uma mesma variância σ2 tem distribuição F com ν1 e ν2 graus de liberdade. Assim, pode-se utilizar o teste F para veri�car se as variâncias entre e dentro po- dem ser consideradas como estimativas de uma mesma variância σ2, ou seja, se a variabilidade causada pelos diferentes tratamen- tos é igual à variabilidade devido ao acaso. Se isto é verdade, conclui-se que não existe diferença signi�cativa entre os trata- mentos. 10 De�nindo ti como o efeito do tratamento i, as hipóteses podem ser de�nidas por:{ H0 : t1 = t2 = . . . = tI = 0 Ha : ti 6= 0, para pelo menos um i A hipótese H0 será rejeitada, ao nível α de signi�cância, se Fcalc ≥ Ftab, em que Ftab = Fα(ν1, ν2), sendo ν1 os graus de liberdade de tratamentos e ν2 os graus de liberdade do erro. Isto signi�ca que os efeitos dos tratamentos são estatisticamente dife- rentes, isto é, existe diferença signi�cativa entre os tratamentos. 11 1.4.4 Exemplo: (adaptado de AQUINO, 1992) Um experimento de digestibilidade in vitro foi conduzido para se estudar o valor nutritivo de silagens feitas com resíduos indus- triais de milho verde e abacaxi. Como o material experimental e as condições do ensaio eram muito uniformes, optou-se por um delineamento inteiramente ao acaso (DIC), com 5 tratamentos e 5 repetições. Foram utilizados 25 ovinos da raça Ideal e os tratamentos estudados foram os seguintes: A. resíduo industrial obtido pela remoção dos grãos da espiga de milho verde (RMV); B. palha de espiga de milho verde (PMV); C. 80% de PMV + 20% resíduo industrial, obtido pela remoção da polpa do abacaxi (RA); D. 80% RMV + 20% RA; E. 80% RA + 20% palha de soja (PS). A designação dos tratamentos às parcelas, juntamente com os coe�cientes de digestibilidade da matéria seca (%), estão apresentados a seguir: C (rep. 2) C (rep. 3) E (rep. 4) C (rep. 5) A (rep. 3) 73,8 72,7 44,5 76,6 70,6 B (rep. 3) D (rep. 2) A (rep. 4) B (rep. 1) D (rep. 3) 71,7 68,6 68,8 74,2 71,0 E (rep. 5) D (rep. 4) D (rep. 1) A (rep. 5) B (rep. 5) 45,8 70,9 69,7 71,7 74,0 E (rep. 2) A (rep. 2) A (rep. 1) B (rep. 2) E (rep. 1) 46,3 69,4 68,1 72,6 44,8 D (rep. 5) C (rep. 4) E (rep. 3) B (rep. 4) C (rep. 1) 74,5 74,5 43,8 73,6 75,7 12 2 DELINEAMENTO INTEIRAMENTE CASUALIZADO 2.1 Introdução O Delineamento Inteiramente Casualizado (DIC) é o tipo de de- lineamento mais simples que existe, considerado como um de- lineamento básico, sendo que os demais se originam dele, pela imposição de restrições (controle local). Envolve dois princípios básicos da experimentação: repetição e casualização. É indicado quando as condições experimentais são homogê- neas, isto é, quando a variabilidade entre as parcelas experimen- tais for muito pequena ou praticamente inexistente. Devido a essa exigência, é recomendado para ensaios conduzidos em con- dições de laboratório, casa de vegetação, com pequenos animais (aves), entre outros, onde as condições ambientais e do material experimental podem ser melhor controladas. Para a instalação desses experimentos no campo, deve-se ter certeza da homoge- neidade das condições do experimento. 2.2 Vantagens e desvantagens do DIC 2.2.1 Vantagens (i) Pode-se utilizar qualquer número de tratamentos e repeti- ções, sendo que o número de repetições pode variar de um tratamento para outro (ensaio desbalanceado) sem di�cul- tar as análises. O número de repetições depende apenas do número de parcelas disponíveis; (ii) Apresenta maior número de graus de liberdade associado ao erro em relação a outros delineamentos. 13 2.2.2 Desvantagens (i) Exige homogeneidade total das condições experimentais; (ii) Pode-se obter uma estimativa da variância devido ao erro experimental bastante alta, quando não utilizado correta- mente, pois, uma vez que não se considera o princípio do controle local, todas as variações exceto as devidas aos tra- tamentos, são consideradas como variação do acaso. 2.3 Casualização A distribuição dos tratamentos às unidades experimentais é feita completamente ao acaso, ou seja, não é feita nenhuma restrição na casualização. Assim, com este tipo de sorteio, todo tratamento tem a mesma chance de ser designado à qualquer parcela do experimento. 2.4 Modelo Estatístico Todo experimento é expresso matematicamente por meio de um modelo. Portanto, para todos os delineamentos que serão estu- dados nesta disciplina, será lançado um modelo estatístico. Este modelo estatístico visa identi�car que fatores estão in�uenciando a variável em estudo. Para o DIC, o modelo linear adequado é dado por: yij = m + ti + eij, em que, yij é o valor observado na parcela que recebeu o tratamento i na repetição j; 14 m representa uma constante inerente a toda parcela, normal- mente de�nida pela média geral; ti representa o efeito do tratamento i; eij é o erro da parcela que recebeu o tratamento i na repetição j. O erro se deve ao fato de não ser possível controlar todas as condições experimentais e se refere às variações observadas entre as repetições do mesmo tratamento. Para podermos efetuar a análise de variância de um experi- mento em um dado delineamento, deve-se considerar seu modelo estatístico e assumir algumas hipóteses básicas necessárias para a validade da análise de variância. Essas hipóteses básicas, também chamadas de pressuposições, são: (Banzatto & Kronka, 2006) (a) Aditividade: os efeitos dos fatores que ocorrem no modelo estatístico devem ser aditivos; (b) Independência: os erros ou desvios eij devidos aos efeitos não controlados devem ser independentes. Isso implica que os efeitos de tratamentos sejam independentes, ou seja, que não haja correlação entre eles; (c) Homogeneidade de variâncias: os erros ou desvios eij devidos aos efeitos não controlados devem possuir uma vari- ância comum σ2. Isso signi�ca que a variabilidade das repe- tições de um tratamento deve ser semelhante à dos demais tratamentos, isto é, os tratamentos devem possuir variâncias homogêneas; (d) Normalidade: os erros ou desvios eij devidos aos efeitos não controlados devem possuir uma distribuição normal. Isso 15 implica que os dados experimentais se ajustem a uma distri- buição normal. 2.5 Análise de Variância (ANAVA) Partindo do modelo estatístico, pode-se decompor a variação to- tal entre as observações nas partes que a compõem, conforme de�nido anteriormente. No entanto, para que esta técnica seja empregada é necessário que sejam satisfeitas as seguintes pressuposições: (i) os efeitos do modelo estatístico devem ser aditivos; (ii) os erros experimentais devem ser normalmente distribuídos, independentes, com média zero e com variância comum. Assim, partindo-se do modelo yij = m + ti + eij, tem-se∑ ij (yij − m̂)2 = J ∑ i (m̂i − m̂)2 + ∑ ij (yij − m̂i) 2, que, conforme visto anteriormente, pode ser representado por: SQTotal = SQTrat + SQErro. 16 Portanto, tem-se SQTotal = ∑ ij (yij − m̂)2 = ∑ ij y2 ij − ∑ ij yij 2 IJ SQTrat = J ∑ i (m̂i − m̂)2 = 1 J ∑ i T 2 i − ∑ ij yij 2 IJ SQErro = ∑ ij (yij − m̂i) 2 = SQTotal − SQTrat O quadro da Análise de Variância (ANAVA) de um experi- mento instalado segundo o DIC, com igual número de repetições (J) para todos os tratamentos é dado por: FV GL SQ QM F Tratamentos I − 1 SQTrat QMTrat Fcalc Erro I(J − 1) SQErro QMErro Total IJ − 1 SQTotal em que Fcalc = QMTrat QMErro A partir das SQTrat e SQErro, obtém-se os respectivos qua- drados médios(QM),por meio do quociente entre a soma de qua- drados com o respectivo número de graus de liberdade. Para se concluir se existe diferença signi�cativa entre os trata- mentos, calcula-se o valor de F, que é obtido pelo quociente do QMTrat com o QMErro. Este valor de F calculado deve ser comparado com o valor de F tabelado, o qual é obtido na tabela 17 de distribuição da variável aleatória F, de acordo com o nível de signi�cância do teste (α = 1% ou 5%), graus de liberdade para tratamentos (ν1) e graus de liberdade do erro (ν2). As hipóteses para o teste F da análise de variância para tratamentos, são as seguintes: { H0 : t1 = t2 = . . . = tI = 0 Ha : ti 6= 0, para pelo menos um i A regra decisória para o teste F é a seguinte: • Se o valor do F calculado (Fc) for maior ou igual ao valor do F tabelado (Ftab), então rejeita-se H0 e conclui-se que os tra- tamentos tem efeito diferenciado ao nível α de signi�cância em que foi realizado o teste; • Se o valor de F calculado for menor que o valor do F tabelado, então não se rejeita H0 e conclui-se que os tratamentos têm efeitos iguais ao nível α de signi�cância em que foi realizado o teste. 2.6 COEFICIENTE DE VARIAÇÃO (CV) O coe�ciente de variação é calculado da seguinte maneira: CV (%) = √ QMErro m̂ · 100 em que,QMErro é o quadrado médio do erro (quadro da ANOVA) e m̂ é a média geral do experimento. O CV é utilizado para avaliação da precisão de experimentos. Quanto menor o CV , mais preciso é o experimento. De acordo com GOMES (1984), tendo em vista os coe�cientes de variação obtidos comumente nos ensaios agrícolas de campo, podemos considerá-los baixos, quando inferiores a 10%, médios, quando 18 de 10 a 20%, altos, quando de 20 a 30% e muito altos, quando superiores a 30%. Experimentos de laboratório ou de casa de ve- getação geralmente são mais precisos e podem ter CV menores que 5%. Mas nem sempre isso acontece. Por exemplo, dados de análise de solo geralmente apresentam CV alto e até muito alto, especialmente no caso de solos pobres, como os de cerrados. Um resumo, de acordo com GOMES (1984), é apresentado a seguir: CV Avaliação Precisão < 10% Baixo Alta 10 a 20% Médio Média 20 a 30% Alto Baixa >30% Muito Alto Muito Baixa 19 2.7 EXEMPLO Um experimento na área de cultura de tecidos foi realizado com o objetivo de avaliar o efeito da adição de açúcares no meio de cultura sobre o comprimento de seções de ervilha. Foi utilizado o delineamento inteiramente casualizado com cinco repetições e os tratamentos foram: T1. Controle, T2. 2% de glicose, T3. 3% de glicose, T4. 2% de frutose e T5. 3% de frutose. Os dados obtidos, em mm, foram: Repetições Tratamentos 1 2 3 4 5 T1 67,3 70,8 69,5 66,9 74,2 T2 58,2 64,7 58,1 68,5 58,3 T3 64,9 56,7 65,6 60,2 58,5 T4 52,9 59,9 62,4 60,8 55,1 T5 68,1 65,5 62,5 69,6 61,7 20 3 CONTRASTES 3.1 Introdução O estudo de contrastes é muito importante na Estatística Expe- rimental. Com o uso de contrastes é possível que o pesquisador estabeleça comparações de interesse, entre tratamentos ou grupos de tratamentos. Os contrastes assim estabelecidos podem então ser testados por meio de um teste de médias, o qual complementa o resultado da análise de variância. - Exemplo de motivação Considere um experimento proposto para se estudar o efeito da implantação de hormônio nos ganhos de peso médios de pe- rus, na faixa de 15 a 20 semanas de idade. Os tratamentos em estudo foram: (1) Controle (sem hormônio), (2) 24 mg de dietilestilbestrol, (3) 10 mg de estradiol e (4) 20 mg de estradiol. O delineamento experimental foi o inteiramente ao acaso com 4 repetições e 8 aves/parcela. Os resultados experi- mentais foram os seguintes: Tratamentos Repetição 1 2 3 4 1 2,54 3,39 2,62 2,88 2 2,25 3,20 2,66 2,76 3 2,85 2,98 2,70 3,16 4 2,56 2,79 2,74 3,04 Médias (m̂i) 2,55 3,09 2,68 2,96 21 Quadro da Análise de Variância (ANAVA) FV GL SQ QM F Tratamentos 3 0,7400 0,2467 6,11 ∗ Erro 12 0,4852 0,0404 Total 15 1,2252 ∗ signi�cativo a 5% Neste experimento, em que se tem os tratamentos de uma forma estruturada, pode-se de�nir algumas comparações de inte- resse prático, que respondessem às seguintes perguntas: (i) Os tratamentos com hormônio alteram, em média, o ganho de peso dos perus? (ii) Os hormônios dietilestilbestrol e estradiol garantem, em mé- dia, o mesmo ganho de peso dos perus? (iii) Os perus têm o mesmo ganho de peso médio quando se as doses de 10 e 20 mg de estradiol? Para responder a estas perguntas, pode-se formular os seguin- tes contrastes: (i) Y1 = 3m1 −m2 −m3 −m4 (ii) Y2 = 2m2 −m3 −m4 (iii) Y1 = m3 −m4 cujas estimativas seriam Ŷ1 = −1, 08, Ŷ2 = 0, 54 e Ŷ3 = −0, 28. 22 3.2 De�nição Considere a seguinte função linear de médias de tratamentos: Y = a1m1 + a2m2 + . . . + aImI Y será um contraste entre médias se satis�zer a seguinte condição: I∑ i=1 ai = 0. Na prática, geralmente não se conhece os valores das médias populacionais mi, mas apenas suas estimativas. Assim, em Esta- tística Experimental não se trabalha com o contraste Y , mas com o seu estimador Ŷ , que também é uma função linear de médias obtidas por meio de experimentos ou amostras. Assim tem-se que o estimador do contraste Y é dado por: Ŷ = a1m̂1 + a2m̂2 + . . . + aIm̂I 3.3 Contrastes ortogonais Em algumas situações desejamos testar um grupo de contras- tes relacionados com o experimento em estudo. Alguns tipos de testes indicados para este objetivo, como por exemplo o teste F, necessitam que os contrastes, que compõem o grupo a ser testado, sejam ortogonais entre si. A ortogonalidade entre os contrastes indica independência linear na comparação estabelecida por um contraste com a comparação estabelecida pelos outros contrastes. Os contrastes Y1 e Y2, dados por Y1 = a1m1 + a2m2 + . . . + aImI Y2 = b1m1 + b2m2 + . . . + bImI , 23 são contrastes ortogonais se, em um experimento com o mesmo número de repetições, a seguinte condição for satisfeita: I∑ i=1 aibi = 0. Para um experimento com I tratamentos, podem ser formados vários grupos de contrastes ortogonais. Se em um dado grupo, todos os contrastes tomados dois a dois são ortogonais, tem-se um grupo de contrastes mutuamente ortogonais, o qual poderá conter no máximo (I − 1) contrastes ortogonais, o que corres- ponde ao número de graus de liberdade para tratamentos. Uma metodologia bastante utilizada para a obtenção de um grupo de contrastes mutuamente ortogonais é denominada de regras prá- ticas. 3.4 Métodos para obtenção de grupos de contrastes mu- tuamente otogonais 3.4.1 Obtenção por meio de sistema de equações lineares Nesse método, deve-se estabelecer, a princípio, um contraste que seja de interesse e, a partir deste é que os demais são obtidos. Por meio da imposição da condição de ortogonalidade e da con- dição para ser um contraste, obtém-se equações lineares, cujas incógnitas são os coe�cientes das médias que compõem o con- traste. Como o número de incógnitas é superior ao número de equações existentes, será sempre necessário atribuir valores a al- gumas incógnitas. É desejável que os valores a serem atribuídos, permitam que os coe�cientes sejam números inteiros. 24 3.4.2 Obtenção por meio de regras práticas Por meio dessa metodologia, é possível estabelecer facilmente um grupo de contrastes ortogonais. A metodologia pode ser resumida nos seguintes passos (BANZATTO e KRONKA, 1989): 1. Divide-se o conjunto das médias de todos os tratamentos do experimento em dois grupos. O primeiro contraste é obtido pela comparação das médias de um grupo contra as médias do outro grupo. Para isso atribui-se sinais positivos para membros de um grupo e negativos para membros do outro grupo. 2. Dentro de cada grupo formado no passo anterior, que possui mais que uma média, aplica-se o passo 1, subdividindo-os em sub-grupos. Repete-se este passo até que se forme sub-grupos com apenas uma média. Ao �nal, deveremos ter formado (I- 1) comparações. 3. Para se obter os coe�cientes que multiplicam cada média que compõem os contrastes estabelecidos, deve-se, paracada contraste : (a) Veri�car o número de parcelas experimentais envolvidas no 1o grupo e o número de parcelas experimentais envol- vidas no 2o grupo. Calcula-se o mínimo múltiplo comum (m.m.c.) entre . (b) Dividir o m.m.c. por . O resultado será o coe�ciente de cada média do 1o grupo. (c) Dividir o m.m.c. por . O resultado será o coe�ciente de cada média do 2o grupo. (d) Multiplicar os coe�cientes obtidos pelo número de repe- tições da respectiva média. Se possível, simpli�car os 25 coe�cientes obtidos por uma constante. No caso em que o número de repetições é igual para todos os tratamentos, este passo pode ser eliminado. 26 4 COMPARAÇÕES ENTRE MÉDIAS Sabe-se que um teste F signi�cativo na análise de variância nos indica que pelo menos um contraste entre médias é diferente de zero. Para se determinar quais são esses contrastes, encontram-se vários testes na literatura, denominados de procedimentos para comparações múltiplas ou, simplesmente, de testes de médias. Como exemplos tem-se: teste F para contrastes ortogonais, Tu- key, Duncan, Student-Newman-Keuls (SNK), Scott-Knott, Dun- nett, dentre outros. 4.1 Teste F para contrastes de médias O teste F da ANAVA pode ser utilizado para se testar grupos de contraste, desde que o grupo seja de contrastes mutuamente orto- gonais e previamente estabelecidos. Neste caso, um novo quadro da ANAVA é construído, de tal forma que a cada contraste cor- responde um grau de liberdade do fator em estudo e a soma de quadrados é dada por SQY = Ŷ 2∑ i c2 i · J, em que Ŷ é o estimador do contraste, ci é o coe�ciente da média i no contraste e J é o número de repetições, que deu origem às médias. 27 - Exemplo Considere o exemplo apresentado no capítulo an- terior, no qual se tem: Tratamentos Médias(m̂i) 1. Controle 2,55 2. 24 mg de dietilestilbestrol 3,09 3. 10 mg de estradiol 2,68 4. 20 mg de estradiol 2,96 O grupo de contrastes de interesse prático: Y1 = 3m1 −m2 −m3 −m4 ⇒ Ŷ1 = −1, 08 Y2 = 2m2 −m3 −m4 ⇒ Ŷ2 = 0, 54 Y3 = m3 −m4 ⇒ Ŷ3 = −0, 28 Neste exemplo, o quadro da ANAVA com o teste F para o grupo de contrastes mutuamente ortogonais é dado por: FV GL SQ QM F Tratamentos (3) (0,7400) - - Controle vs demais 1 0,3888 0,3888 9,62∗∗ Dietil. vs Estrad. 1 0,1944 0,1944 4,81∗ 10mg Est. vs 20mg Est. 1 0,1568 0,1568 3,88ns Erro 12 - 0,0404 ∗∗ signi�cativo a 5%, ∗ signi�cativo a 5% e ns não signi�cativo 28 4.2 Teste de Tukey O teste de Tukey, é utilizado na comparação entre todas as mé- dias, tomadas duas a duas. Assim, testa-se todos os I(I − 1)/2 contrastes do tipo Y = mi −mi′, para 1 ≤ i < i′ ≤ I , em que I é o número de níveis do fator em estudo. Este teste baseia-se na diferença mínima signi�cativa (DMS), representada por ∆, que no caso de se ter o mesmo número de repetições, é dada por: ∆ = q(I,ν,α) √ QMErro J em que q(I,ν,α) é o valor tabelado da amplitude total estudenti- zada, que é obtido na tabela de Tukey, em função do nível α de signi�cância, I níveis do fator em estudo e ν graus de liberdade do erro (ANAVA), QMErro é o quadrado médio do erro (ANAVA) e J é o número de repetições que deu origem às médias. Para a realização do teste Tukey, a um nível de signi�cância α, é necessário: 1. enunciar as hipóteses: H0 : mi = mi′ vs Ha : mi 6= mi′, para i 6= i′; 2. obter as estimativas dos contrastes, Ŷ = m̂i− m̂i′, com base nos valores amostrais; 3. calcular ∆; 4. concluir a respeito da signi�cância dos I(I − 1)/2 contrastes em teste: se |Ŷ | > ∆, rejeita-se H0; caso contrário, não se rejeita H0. Indicar as médias iguais, seguidas por uma mesma letra . 29 4.3 Teste de Student Newman Keuls (SNK) Assim como o teste de Tukey, o teste de SNK é um procedimento utilizado para comparar médias duas a duas. É menos rigoroso que o teste de Tukey e pode identi�car diferenças não discrimi- nadas por este teste. O teste de SNK necessita a prévia ordenação das médias e tam- bém baseia-se na DMS. Porém, são determinadas tantas DMS quantas são o número de médias ordenadas abrangidas pelo con- traste em estudo. Neste teste, a quantidade de DMS calculadas é no máximo igual ao número de graus de liberdade para trata- mentos. Se as médias forem estimadas com o mesmo número de repe- tições, a DMS é dada por: Kk = q(k,ν,α) √ QMErro J , em que q(k,ν,α) é o valor tabelado da amplitude total estudenti- zada, que é obtido na tabela de Tukey, em função do nível α de signi�cância, do número de médias ordenadas abrangidas pelo contraste (k) e ν graus de liberdade do erro (ANAVA). Observação: quando num conjunto de médias ordenadas a comparar, a maior não difere signi�cativamente da menor, pelo teste de SNK, não se admite diferença signi�cativa entre médias intermediárias. Para a realização do teste de SNK, a um nível de signi�cância α, é necessário: 1. Enunciar as hipóteses: H0 : mi = mi′ vs Ha : mi 6= mi′, para i 6= i′; 2. Ordenar as médias do fator em estudo em ordem crescente ou decrescente; 30 3. Calcular todas as DMS (Kk), sendo que o número de DMS é igual ao número de graus de liberdade do fator em estudo. 4. Colocar uma letra para a maior média. Esta será a primeira média base; 5. Calcular a diferença entre a média base e a última média, ou seja, estimar o contraste entre a média base e a última mé- dia (menor média). Comparar o valor absoluto da estimativa com a respectiva DMS, Kk, em que k é o número de médias abrangidas pela comparação. Se a diferença, em termos ab- solutos, for maior que Kk, repete-se este passo tomando-se a média anterior, até obter uma diferença menor ou igual à DMS ou até k = 2. Se a diferença entre as médias for menor ou igual à DMS, todas as médias entre a média base e a média de comparação inclusive, recebem a mesma letra da média base. A primeira média diferente da média base recebe uma letra diferente e prossegue-se para o passo seguinte; 6. Muda-se a média base para a próxima média e repete-se o passo anterior, até que a média base seja a penúltima. O teste de Tukey é mais rigoroso que o teste de SNK, o que signi�ca que é mais fácil detectar diferenças signi�cativas com o teste SNK, ou seja, este teste discrimina mais que o Tukey. Existem outros testes para comparação de médias duas a duas, que apresentam diferença quanto ao rigor. Para a escolha de um teste de médias, considera-se o tipo de dado experimental, isto é, a variabilidade inerente aos dados. Para condições que apresen- tam uma variabilidade inerente alta é recomendável a utilização de testes menos rigorosos. 31 4.4 Teste de Sche�é Este é um teste utilizado em comparações envolvendo mais de duas médias. Dado o contraste Y = c1m1 + c2m2 + . . . + cImI , o teste de Sche�é consiste na comparação do valor estimado para o contraste com a estatística S = √√√√(I − 1) · Fα · QMErro J · I∑ i=1 c2 i , em que Fα é o valor de F tabelado, o qual é obtido na tabela de F, de acordo com o nível de signi�cância α (α = 1% ou 5%), graus de liberdade para tratamentos (ν1) e graus de liberdade do erro (ν2), isto é, Fα = Ftab = Fα(ν1, ν2), sendo ν1 = GLTrat e ν2 = GLErro. Sendo as hipóteses H0 : Y = 0 e Ha : Y 6= 0, se |Ŷ | ≥ S então rejeita-se H0 ao nível α de probabilidade, ou seja, o contraste é estatisticamente diferente de zero. Caso contrário, não se rejeita H0. 32 5 DELINEAMENTO EM BLOCOS CASUALIZADOS 5.1 Introdução O delineamento em blocos casualizados (DBC) é utilizado quando as condições experimentais não são completamente homogêneas. Nesta situação devemos então subdividir a área ou o material experimental em blocos (ou grupos) de tal forma que exista ho- mogeneidade dentro de cada um deles. Os tratamentos são dis- tribuídos de forma casualizada dentro de cada bloco e, assim, cada um deles conterá uma repetição de cada tratamento. O DBC envolve os três princípios básicos da experimentação: 1. Repetição: existe pelo menos uma repetição de cada trata- mento no experimento; 2. Casualização: os tratamentos são distribuídos inteiramente ao acaso dentro de cada bloco; 3. Controle Local: faz-se a divisão do localou do material ex- perimental, em sub-grupos ou blocos de tal forma que se garanta a uniformidade nestes blocos. Em experimentos de campo, deve-se subdividir a área de campo em blocos de tal forma que cada um possa ser homogêneo den- tro de si com relação à declividade, fertilidade, incidência de luz solar, etc. Nos experimentos zootécnicos, deve-se subdividir o grupo maior de animais em subgrupos que sejam homogêneos com relação a idade, peso, raça, etc. Em experimentos instalados segundo o DBC, não importa que as condições experimentais de um bloco sejam diferentes das con- dições experimentais do outro bloco. O que importa é a homo- geneidade dentro de cada bloco. 33 A instalação de um experimento no DBC quando o mesmo não é necessário, implica na perda de e�ciência do experimento. 5.2 Casualização Como as parcelas se acham agrupadas em blocos e cada um de- les deve conter uma repetição de cada tratamento, os tratamentos são aleatoriamente designados às parcelas, dentro de cada bloco. 5.3 Modelo Estatístico Para o DBC, o modelo estatístico é dado por: yij = m + ti + bj + eij, em que, yij é o valor observado referente ao tratamento i no bloco j; m representa uma constante inerente a toda parcela, normal- mente de�nida pela média geral; ti representa o efeito do tratamento i; bj representa o efeito do bloco j; eij é o erro da parcela que recebeu o tratamento i no bloco j. 5.4 Análise de Variância (ANAVA) Conforme visto anteriormente, na ANAVA deve-se decompor a variação total, que existe entre todas as observações, nas partes que a compõe. Partindo-se do modelo yij = m + ti + bj + eij, 34 e de�nindo-se ti = mi −m e bj = mj −m, pode-se demonstrar que∑ ij (yij−m̂)2 = J ∑ i (m̂i−m̂)2+I ∑ j (m̂j−m̂)2+ ∑ ij (yij−m̂i−m̂j +m̂)2, em que, m̂ é a média geral, m̂i é a média do tratamento i e m̂j é a média do bloco j. Essa decomposição pode ser representado da seguinte forma: SQTotal = SQTratamentos + SQBlocos + SQErro. Portanto, tem-se SQTotal = ∑ ij (yij − m̂)2 = ∑ ij y2 ij − ∑ ij yij 2 IJ SQTrat = J ∑ i (m̂i − m̂)2 = 1 J ∑ i T 2 i − ∑ ij yij 2 IJ SQBlocos = I ∑ j (m̂j − m̂)2 = 1 I ∑ j B2 j − ∑ ij yij 2 IJ SQErro = ∑ ij (yij − m̂i) 2 = SQTotal − SQTrat− SQBlocos, em que I é o número de tratamentos, J é o número de blocos, Ti é o total do tratamento i e Bj é o total do bloco j. O quadro da Análise de Variância (ANAVA) de um experi- mento instalado segundo o DBC, com o mesmo número de repe- tições, J , para todos os tratamentos é dado por: 35 FV GL SQ QM F Tratamentos I − 1 SQTrat QMTrat Ftrat Blocos J − 1 SQBlocos QMBlocos Fblocos Erro (I − 1)(J − 1) SQErro QMErro Total IJ − 1 SQTotal em que Ftrat = QMTrat QMErro e Fblocos = QMBlocos QMErro . Geralmente, o que interessa na análise de um experimento, é avaliar se existe diferença signi�cativa entre os tratamentos, o que pode ser veri�cado por meio do teste F para tratamentos. As hipóteses para o teste F da análise de variância, para tra- tamentos, são as mesmas para o caso do DIC, ou seja,{ H0 : t1 = t2 = . . . = tI = 0 Ha : ti 6= 0, para pelo menos um i A regra decisória também é a mesma. Se o valor do F calcu- lado para o efeito de tratamentos (Ftrat) for maior ou igual ao valor do F tabelado (Ftab), então rejeita-se H0 e conclui-se que os tratamentos tem efeito diferenciado ao nível α de signi�cância em que foi realizado o teste. Caso contrário, não se rejeita H0 e conclui-se que os tratamentos têm efeitos iguais. O teste F para blocos, ou seja comparação entre blocos, geral- mente é desnecessária, pois ao instalar o experimento no DBC, o pesquisador estabeleceu os blocos para controlar uma causa de variação conhecida. Porém, este teste pode ser aplicado para ve- ri�car se o controle local foi e�ciente. Assim, o pesquisador pode realizar o teste F para blocos, para servir como orientação para a instalação de futuros. 36 5.5 Exemplo Num experimento de competição de variedades de milho, as produções em kg/parcela foram: Blocos Variedades 1 2 3 4 5 Totais V1 35,4 30,6 28,7 36,2 29,2 160,1 V2 42,8 35,4 29,2 35,1 34,8 177,3 V3 16,3 16,2 13,5 20,3 19,4 85,7 V4 15,8 14,5 10,4 21,6 18,3 80,6 V5 21,5 18,7 15,8 25,4 25,2 106,6 V6 19,3 23,2 14,2 21,7 28,8 107,2 Totais 151,1 138,6 111,8 160,3 155,7 717,5 Pede-se: 1. Faça a Análise de Variância e conclua corretamente; 2. Discuta sobre a precisão do experimento; 3. Compare as médias das variedades pelo teste de SNK, con- cluindo corretamente. Indique a(s) variedade(s) mais produ- tiva(s). 4. Suponha que V1 e V6 sejam variedades da empresa Sementex e as variedades V2 e V3 pertençam à empresa Milharal S.A. Obtenha um contraste para comparar a produção média das variedades das duas empresas, teste-o utilizando o teste de Sche�é e conclua corretamente.