Baixe o app para aproveitar ainda mais
Prévia do material em texto
123 4 ANÁLISE DE VARIÂNCIA E TESTES DE HIPÓTESES Um problema que se apresenta com maior freqüência do que qualquer outro na análise estatística é o de avaliar se duas ou mais amostras diferem significativamente com relação a alguma variável. Este tipo de problema ocorre tão freqüentemente porque os pesquisadores muitas vezes propõem experimentos para comparar dois ou mais tratamentos (amostras) entre si. Por exemplo, uma nova técnica de aplicação de vermífugo em caprino é comparada com a técnica tradicional, diferentes tipos de adubos orgânicos são avaliados na cultura do tomate, diferentes variedades de milho forrageiro são avaliadas numa determinada região, etc.. Em função disso, é necessário um método estatístico para solucionar problemas dessa natureza. Um dos métodos mais utilizados para resolver tais problemas é conhecido como análise de variância. 4.1 Análise de Variância A análise de variância foi introduzida por Fisher e é essencialmente um processo baseado na decomposição da variação total existente entre uma série de observações, em partes que podem ser atribuídas a causas conhecidas e numa parte devida a causas desconhecidas ou não suscetíveis de controle. Como exemplo das causas conhecidas, pode-se citar o efeito de diferentes inseticidas no controle do pulgão em batata (Solanum tuberosum L.) cv. RADOSA, e como exemplo das causas desconhecidas, as diferenças existentes entre as plantas (parcelas), condicionando um tipo diferente de resposta a um mesmo inseticida. Os efeitos dessas causas desconhecidas, ou não controláveis, contribuem para uma porção da variação total, que é isolada na análise de variância, recebendo a denominação de Erro ou Resíduo. 124 A variação que contribui para o erro experimental pode ser de dois tipos: a) Inerente à própria variabilidade do material experimental; b) Proveniente da falta de uniformidade do ambiente em que é conduzido o experimento. Na análise de variância, quando a variação total é decomposta, as causas conhecidas e desconhecidas representam, respectivamente, a variação entre amostragens (tratamentos) e a variação dentro de amostragens (erro ou resíduo). Como a variação total é medida em termos de variância, é calculada a soma de quadrados total, bem como o número de graus de liberdade, as quais representam, respectivamente, o numerador e o denominador de equação da variância. Através do desdobramento da soma de quadrados total de duas ou mais amostras de dados, obtém-se as suas respectivas somas de quadrados entre amostragens e dentro de amostragens. Tais somas de quadrados divididas pelos seus respectivos graus de liberdade fornecem os quadrados médios (variâncias) entre amostragens e dentro de amostragens, respectivamente, os quais são confrontados através de um teste de hipótese (por exemplo, o teste F) para verificar se as amostras avaliadas diferem significativamente ou não com relação a alguma variável. Os dados relativos às somas de quadrados e aos graus de liberdade, bem como os quadrados médios serão colocados numa tabela, chamada de Quadro de Análise de Variância. A composição desta tabela está explicitada na TABELA 4.1. TABELA 4.1 – QUADRO DA ANÁLISE DE VARIÂNCIA SEGUNDO UM ÚNICO CRITÉRIO* Causa de Variação Graus de Liberdade (GL) Soma de Quadrados (SQ) Quadrados Médios (QM) F Calculado Entre Amostragens t – 1 SQ1 QM1 = SQ1/ t – 1 F = QM1/ QM2 Dentro de Amostragens t (r – 1) SQ2 = SQ Total – SQ1 QM2 = SQ2/ t (r – 1) Total t . r – 1 SQ Total *: A análise de variância é denominada “segundo um único critério”, porque, no caso apresentado, foi levado em consideração apenas um critério, representado pelos efeitos das várias amostragens (tratamentos). Os experimentos planejados com base neste tipo de análise são denominados “experimentos inteiramente casualizados”. 125 As fórmulas matemáticas e o processo de análise de variância para cada tipo de experimento, serão vistos em capítulos posteriores, quando for feita uma abordagem sobre cada delineamento estatístico. 4.1.1 Suposições da análise de variância Além de aprender as regras para levar a cabo uma análise de variância, todo pesquisador deve buscar o domínio e a compreensão dos princípios inerentes a mesma, para não defrontar-se com sérios problemas, como por exemplo, chegar a conclusões que não têm justificativas ou não alcançar conclusões importantes porque os dados não foram analisados adequadamente. Desse modo, para que a análise de variância possa ter validade, o pesquisador deve atender às seguintes suposições: a) Os efeitos principais devem ser aditivos – Nos experimentos, os vários efeitos devem ser aditivos, tanto é que para cada delineamento estatístico existe um modelo matemático denominado modelo linear aditivo. Para o delineamento inteiramente casualizado, este modelo é Xij = mˆ + ti + eij, onde expressa que o valor de qualquer unidade experimental é resultante de uma média geral, mais um efeito de tratamentos e mais um efeito do erro experimental. O modelo correspondente ao delineamento em blocos casualizados é: Xij = mˆ + ti + bj + eij, onde o valor de qualquer unidade experimental é resultante de uma média geral, mais um efeito de tratamentos, mais um efeito de blocos e mais um efeito do erro experimental. Para o delineamento em quadrado latino, este modelo é: Xijk = mˆ + t(k)ij + lj + cj + eijk, onde o valor de qualquer unidade experimental é resultante de uma média geral, mais um efeito de tratamentos, mais um efeito de linhas, mais um efeito de colunas e mais um efeito do erro experimental. O aspecto importante, que deve notar-se nestes modelos, é que os efeitos se somam; daí o nome de modelo linear aditivo. O modelo para o delineamento em blocos casualizados, por exemplo, implica que um efeito de tratamento é o mesmo para todos os blocos e que o efeito de bloco é o mesmo para todos os tratamentos. Em outras palavras, encontra-se que um tratamento aumenta a produção em certa quantidade acima da média geral, supomos que este tenha o mesmo efeito tanto nos blocos de alta produção como nos blocos de baixa produção. Caso o que foi exposto acima não se verifique, é necessário transformar os dados experimentais para ajustá-los ao modelo aditivo. b) Os erros de observação devem ser independentes – Cada observação possui um erro que deve ser independente dos demais. O princípio da casualização assegura a validade da estimativa do erro experimental, pois permite uma distribuição independente do mesmo. A casualização evita que 126 todas as parcelas que recebem o mesmo tratamento ocupem posições adjacentes na área experimental, visto que as parcelas adjacentes, principalmente no campo, tendem a estar mais relacionadas entre si do que as parcelas distribuídas aleatoriamente. c) Os erros de observação devem ser normalmente distribuídos – A única fonte de variação dentro de amostragens são os erros aleatórios. Estes devem ter distribuição normal (ou aproximadamente normal) com média igual a zero e variância igual a S 2 . Felizmente, as variações da suposição de normalidade não afetam muito seriamente a validade da análise de variância. A normalidade dos dados pode ser verificada por um teste de normalidade, como por exemplo, o teste do quiquadrado, desde que o número de amostrascom as quais estão trabalhando seja definitivamente grande. Quando se verifica que falta normalidade aos dados, usam-se as transformações para que os mesmos sejam normalmente distribuídos. De modo geral, dados médios de parcelas têm distribuição normal. d) As variâncias das diferentes amostras devem ser homogêneas – Na análise de variância, o valor do Quadrado Médio do Resíduo, que corresponde à estimativa da variância do erro experimental, é utilizado nas fórmulas matemáticas dos testes de hipóteses. Tais testes são utilizados para verificar se existe ou não diferença significativa entre os tratamentos avaliados. O Quadrado Médio do Resíduo nada mais é que a média das variâncias de cada tratamento (amostra). Assim sendo, é importante que as variâncias das diferentes amostras sejam homogêneas, de modo que os resultados obtidos dos testes de hipóteses tenham validade. Entre os vários testes estatísticos utilizados para verificar a homogeneidade de variâncias, tem-se o teste F-máximo, proposto por Hartley. O teste F-máximo é simples e rápido, porém apresenta menor precisão quando as amostras têm graus de liberdade diferentes. A fórmula do referido teste é a seguinte: F-máximo = mínimas máximas 2 2 onde: s 2 máxima = maior valor das estimativas das variâncias entre as amostras; s 2 mínima = menor valor das estimativas das variâncias entre as amostras. O valor calculado de F-máximo é confrontado com o valor de F- máximo tabelado, com K = número de estimativas das variâncias das diferentes amostras e (N – 1) graus de liberdade associados a cada estimativa 127 de variância, sendo N = número de observação de cada amostra (TABELA A.1). Logo tem-se: F-máximo calculado > F-máximo tabelado (1%) - ** (as estimativas das variâncias são estatisticamente diferentes no nível de 1% de probabilidade, isto é, não há homogeneidade de variâncias); F-máximo calculado < F-máximo tabelado (1%) - recorre-se no nível de 5% de probabilidade; F-máximo calculado > F-máximo tabelado (5%) - * (as estimativas das variâncias são estatisticamente diferentes no nível de 5% de probabilidade, isto é, não há homogeneidade de variâncias); F-máximo calculado < F-máximo tabelado (5%) - ns (as estimativas das variâncias não diferem estatisticamente entre si no nível de 5% de probabilidade, isto é, as variâncias são homogêneas). Quando os graus de liberdade para cada amostra são diferentes, toma- se a média aritmética dos mesmos para usar a TABELA A.1. Exemplo 1: Verificar se as variâncias são homogêneas pelo teste F- máximo a partir dos dados da TABELA 4.2. TABELA 4.2 – PESOS DE 20 CAPULHOS, EM GRAMAS, DE VARIEDADES DE ALGODÃO HERBÁCEO NO MUNICÍPIO DE VIÇOSA-AL Variedades I II III IV V VI Totais de Variedades 1 – ALLEN - 333/57 78 90 90 75 70 88 491 2 – AFC - 65/5236 100 65 78 92 85 90 510 3 – IAC - 13.1 102 95 102 85 80 98 562 4 – IPEANE - SU – 01 98 70 85 85 88 80 506 FONTE: FERREIRA (1977). As variâncias de cada variedade são: 5 6 491 553.40 1 22 2 2 1 N N X X s 74,5667 128 5 6 510 098.44 1 22 2 2 2 N N X X s 149,6000 5 6 562 062.53 1 2 2 2 2 3 N N X X s 84,2667 5 6 506 098.43 1 22 2 2 4 N N X X s 85,0667 F-máximo = mínimas máximas 2 2 149,6000/74,5667 2,01 F-máximo tabelado (K = 4; N – 1 = 5): 1% = 28,0; 5% = 13,7. Logo, F-máximo = 2,01 ns. Assim, chega-se à conclusão de que as estimativas das variâncias do peso de 20 capulhos de variedades de algodão herbáceo são homogêneas. Uma regra prática e rápida para verificar a homogeneidade de variâncias é que a relação entre a maior e a menor delas não pode ser superior a mais de quatro vezes para que elas sejam homogêneas. Quando as variâncias das diferentes amostras não são homogêneas, tem-se diversos cursos a seguir. Primeiro, pode-se separar as amostras em grupos, de modo que as variâncias dentro de cada grupo sejam homogêneas. Assim, a análise de variância poderá ser efetuada para cada grupo. Segundo, pode-se utilizar um método descrito em textos mais avançados de estatística, o qual contempla um procedimento bastante complicado para ponderar médias de acordo com suas variâncias. Terceiro, pode-se transformar os dados de tal forma que eles fiquem homogêneos. Este método é o mais utilizado na prática. 4.1.2 Transformações de dados Como foi visto, na análise de variância, algumas condições são exigidas para que os testes de hipóteses tenham validade. Contudo, como tais condições raramente são verificadas na prática, vários procedimentos são utilizados com o fim de reparar (pelo menos aproximadamente) a falta de verificação dessas condições. Dentre os procedimentos, geralmente utilizam- se transformações de dados. 129 Uma transformação é qualquer alteração sistemática num conjunto de dados onde certas características são mudadas e outras permanecem inalteradas. As principais transformações são: a) Raiz quadrada – Própria para certos tipos de dados em que a média é aproximadamente igual à variância, ou seja, para dados oriundos de uma distribuição de Poisson (tipo de distribuição em que os dados apresentam uma probabilidade muito baixa de ocorrência em qualquer indivíduo – os fenômenos naturais são os exemplos mais óbvios desse tipo de ocorrência). Tais tipos de dados ocorrem quando as variáveis são oriundas de contagem como: sementes por parcela, período de enraizamento de bulhos, insetos por planta, carrapatos por animal, etc.. Os dados provenientes de uma escala de notas também devem ser transformados através da raiz quadrada. Também os dados de porcentagens, referentes à contagens, quando variam de 0 a 20% ou de 80 a 100%, podem ser transformados através da raiz quadrada. Neste caso, as porcentagens entre 80 e 100% devem ser, de preferência, subtraídos de 100, antes de se fazer a transformação. A transformação da raiz quadrada é, ainda, indicada no caso de porcentagens, fora dos limites acima considerados, quando as observações estão claramente numa escala contínua. Neste caso tem-se: x . Quando nesse tipo de transformação os dados variam de 0 a 10, trabalha-se com 5,0x ou 1x , em lugar de x . b) Logarítmica – É usada sempre que tem-se dados em que os desvios padrões das amostras são aproximadamente proporcionais às médias, ou seja, todas as amostras apresentam o mesmo coeficiente de variação. Também quando os efeitos principais são multiplicativos, em vez de aditivos, os dados devem ser transformados através desse tipo de transformação. Essas transformações é satisfatória quando os dados se referem à contagem de bactérias, de esporos, de grãos de pólen, etc.. Dados provenientes de adição de vitaminas em animais também devem ser transformados através da transformação logarítmica. É utilizada, ainda, quando os dados são apresentados por porcentagens que abrangem uma grande amplitude de variação. Nesse caso tem-se: log x. Na transformação logarítmica, quando a amostra possuidados iguais a zero ou muito próximos de zero, trabalha-se com log (x + 1). Essa transformação deve ser usada quando as variâncias de cada amostra possuem, no mínimo, 12 observações. c) Arcoseno ou angular – Própria para dados em que a média é proporcional à variância, ou seja, para dados oriundos de uma distribuição binomial (tipo de distribuição em que os dados apresentam uma probabilidade 130 calculável de ocorrência ou não em qualquer indivíduo). Tais tipos de dados ocorrem quando as variáveis são oriundas de proporção como: porcentagem de germinação de sementes, porcentagem de mortalidade de plantas infectadas com vírus, porcentagem de sobrevivência de bezerros da raça Nelore, etc.. Nesse caso tem-se: arco seno (%)x . Na transformação arco seno, quando todos os dados estão entre 30 e 70% não precisa usar a transformação. Se os dados extrapolam esta amplitude, usa-se então a transformação. Quando o número de observações for menor que 50 (N < 50), a proporção 0% deve ser substituída por 1/4 N e a proporção 100% para 100 – 1/4 N , antes de transformar os dados em arco seno (%)x . Existe uma tabela própria para esta transformação (TABELA A.2). 4.1.2.1 Escolha da melhor transformação Em alguns casos fica-se sem saber qual seria a transformação mais adequada. Quando defrontar-se com tais situações, tem-se várias maneiras para escolher a melhor transformação. Entre as várias maneiras, uma das mais simples é por meio de gráficos, onde se coloca no eixo dos x e y as médias e variâncias respectivas de cada amostra para cada transformação e seleciona-se a que apresentar menor dispersão. Outro procedimento é aplicar cada transformação para o maior e o menor dado de cada amostra. A amplitude dentro de cada amostra é determinada e a razão entre a maior e a menor amplitude é calculada. A transformação que produz a menor razão é a selecionada. Exemplo 2: Escolher a melhor transformação a partir de dados da TABELA 4.3. 131 TABELA 4.3 – PERÍODO DE ENRAIZAMENTO (EM DIAS) DE CULTIVARES DE CEBOLA (Allium cepa L.) DE DIAS CURTOS. PIRACICABA – SP Cultivares I II Totais de Cultivares 01 – BAIA PERFORME 48,0 33,4 81,4 02 – BAIA DO CEDO SMP-V 18,4 10,2 28,6 03 – BAIS TRIUNFO SMJ-II 46,6 42,8 89,4 04 – BARREIRO SMJ-II 14,0 32,0 46,0 05 – COJUMATLAN L. 2691 10,6 2,4 13,0 06 – CREOLA CATARINENSE 64,0 44,7 108,7 07 – EXCEL BEMUDAS 986 31,0 14,8 45,8 08 – IPA – 2 17,0 10,8 27,8 09 – PIRA OURO A/R 16,8 26,8 43,6 10 – PIRA TROPICAL A/C 15,2 9,8 25,0 11 – TEXAS GRANO 11,4 2,5 13,9 12 – WHITE CREOLE 26,0 18,4 44,4 13 – BAIA DO CEDO SMJ-III 24,2 8,4 32,6 14 – BAIA SETE VOLTAS 19,4 18,2 37,6 15 – BARREIRO ROXA SMP-IV 8,0 14,2 22,2 16 – BARREIRO SMP-III 22,0 36,2 58,2 17 – CIGANINHA 4,6 6,2 10,8 18 – CREOLA 19,8 28,4 48,2 19 – PIRA COUTO 16,2 22,2 38,4 20 – PIRA GRANA 32,6 21,4 54,0 21 – PIRA LOPES A/R 25,8 5,0 30,8 22 – PIRA PERA A/C 19,4 16,0 35,4 23 – PIRA LOPES A/C 18,6 8,0 26,6 24 – ROXA CHATA SMP – IV 13,0 5,4 18,4 25 – TUBARÃO 19,2 13,2 32,4 FONTE: FERREIRA (1982). Os resultados estão contidos no quadro a seguir: 132 Cultivares Raiz Quadrada Logarítmica Maior Menor Amplitude Maior Menor Amplitude 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 6,9282 4,2895 6,8264 5,6569 3,2558 8,0000 5,5678 4,1231 5,1769 3,8987 3,3764 5,0990 4,9193 4,4045 3,7683 6,0166 2,4900 5,3292 4,7117 5,7096 5,0794 4,4045 4,3128 3,6056 4,3818 5,7793 3,1937 6,5422 3,7417 1,5492 6,6858 3,8471 3,2863 4,0988 3,1305 1,5811 4,2895 2,8983 4,2661 2,8284 4,6904 2,1448 4,4497 4,0249 4,6260 2,2361 4,0000 2,8284 2,3238 3,6332 1,1489 1,0958 0,2842 1,9152 1,7066 1,3142 1,7207 0,8368 1,0781 0,7682 1,7953 0,8095 2,0210 0,1384 0,9399 1,3262 0,3452 0,8795 0,6868 1,0836 2,8433 0,4045 1,4844 1,2818 0,7486 1,6812 1,2648 1,6684 1,5052 1,0253 1,8062 1,4914 1,2304 1,4281 1,1818 1,0569 1,4150 1,3838 1,2878 1,1523 1,5587 0,7924 1,4533 1,3464 1,5132 1,4116 1,2878 1,2695 1,1139 1,2833 1,5237 1,0086 1,6314 1,1461 0,3802 1,6503 1,1703 1,0334 1,2253 0,9912 0,3979 1,2648 0,9243 1,2601 0,9031 1,3424 0,6628 1,2967 1,2095 1,3304 0,6990 1,2041 0,9031 0,7324 1,1206 0,1575 0,2562 0,0370 0,3591 0,6451 0,1559 0,3211 0,1970 0,2028 0,1906 0,6590 0,1502 0,4595 0,0277 0,2492 0,2163 0,1296 0,1566 0,1369 0,1828 0,7126 0,0837 0,3664 0,3815 0,1627 Razão = Amplitude Máxima/Amplitude Mínima 2,8433/0,1384 20,54 0,7126/0,0277 25,73 Pelos resultados apresentados acima, verifica-se que a transformação mais adequada é a raiz quadrada, pois a mesma apresentou o menor coeficiente entre as amplitudes (20,54). 4.1.2.2 Coeficiente de variação como indicativo para o uso de transformações Uma indicação razoável do efeito favorável das transformações de dados é o coeficiente de variação (CV). Quando o valor do CV dos dados transformados for menor que o valor do CV dos dados originais ou não 133 transformados, indica que a transformação foi válida. Em caso contrário, não se justifica o seu uso. Considerando os dados do Exemplo 2, tem-se: Dados originais CV = 38,26% Dados transformados em x CV = 21,35% Dados transformados em log x CV = 32,49% Realmente, as transformações de dados foram válidas, pois houve uma redução muito significativa nos coeficientes de variação em relação aos dados originais, indicando que os dados experimentais foram ajustados de acordo com as exigências da análise de variância. Contudo, a transformação da raiz quadrada foi novamente confirmada como sendo a melhor transformação para tais dados. 4.1.2.3 Algumas considerações Quando é utilizada uma transformação de dados, todas as comparações entre médias de tratamentos são feitas na escala transformada. Quando se achar preferível não apresentar os resultados na escala transformada, os dados finais devem ser transformados novamente para a escala original. Isto é feito elevando-se ao quadrado, no caso de x ; achando o antilogarítmo, no caso de log x; e procurando o valor correspondente na tabela de arco seno (%)x , no caso de transformação angular. Em certos casos, não existe nenhuma transformação que possibilite o uso da análise de variância. Isto ocorre quando: a) As médias são aproximadamente iguais e as variâncias heterogêneas; b) As variâncias são homogêneas porém os níveis dos tratamentos são heterogêneos em forma; c) As médias variam independentementedas variâncias. Se alguns destes casos ocorrem, a análise dos dados é feita através de métodos não paramétricos. 4.2 Testes de Hipóteses A retirada de conclusões sobre uma ou mais populações é feita através da estimação de parâmetros ou pelos testes de hipóteses. A estimação de parâmetros (a média, o desvio padrão, etc.) é feita por diversos métodos, os 134 quis já foram vistos no Capítulo 3. Quanto aos testes de hipóteses, os mesmos são usados pelos pesquisadores para decidir sobre a aceitação ou rejeição de hipóteses. Hipóteses são suposições acerca dos parâmetros de uma ou mais populações. Por exemplo, pode-se estar interessado em testar a hipótese de que não há diferença entre a produção média de duas variedades do sorgo granífero sujeitas às mesmas condições climáticas, ou testar se três tipos de rações proporcionam o mesmo ganho de peso em bezerros da raça Nelore. Os referidos testes são utilizados para tomar tais decisões, das quais são tiradas as conclusões. Antes de aplicar tais testes, deve-se formular as hipóteses estatísticas. Pode-se considerar duas hipóteses, são elas: H0 é a hipótese que determina a ausência de efeito de tratamentos, ou seja, indica que não existe diferença significativa entre os tratamentos (ela é chamada de hipótese de nulidade); e H1, chamada de hipótese alternativa, é a que determina a presença de efeito de tratamentos, ou seja, indica a existência de diferença significativa entre os tratamentos. A rejeição de H0 implica a aceitação da hipótese alternativa H1. Considerando o exemplo das variedades de sorgo granífero, tem-se: H0 : mˆ A = mˆ B H1: mˆ A mˆ B H1 : mˆ A > mˆ B ou H1 : mˆ A < mˆ B Ao testar-se as hipóteses pode-se cometer geralmente dois tipos de erros, os quais são: rejeitar H0, quando ela é verdadeira (erro tipo I); aceitar H0, quando ela é falsa (erro tipo II). Dos dois tipos de erros o mais importante é o do tipo I. Esse tipo de erro, nos procedimentos de comparações múltiplas, pode ser medido de duas maneiras, a saber: A primeira, refere-se à avaliação da probabilidade de se rejeitar uma hipótese verdadeira em todas as possíveis combinações dos níveis dos tratamentos tomados dois a dois, sendo conhecida por taxa de erro tipo I por comparação. A segunda, refere-se à medida do erro tipo I como a probabilidade de se realizar pelo menos uma inferência errada por experimento e é conhecida por taxa de erro tipo I por experimento. A probabilidade de cometer-se o erro tipo I é chamada nível de significância ( ). Os níveis de significâncias mais usados na prática são 5 e 1%. 135 Existe um outro tipo de erro, quase nunca considerado, que seria classificar um nível de tratamento como superior ao outro, quando de fato o segundo nível supera o primeiro (erro tipo III). Esse tipo de erro tem muita importância para a área do melhoramento genético de plantas, pois poderá alterar a classificação dos genótipos e fazer com que o fitomelhorista recomende uma linhagem ou cultivar de pior desempenho. Para que um teste de hipótese seja considerado um bom teste deve-se ter uma pequena probabilidade de rejeitar H0 se esta for verdadeira, mas também, uma grande probabilidade de rejeitá-la se ela for falsa. A probabilidade de rejeitar H0, quando ela for falsa, é chamada poder do teste. O quadro seguinte resume a natureza dos erros tipo I e tipo II envolvidos no processo de decisão quando se testam as hipóteses: H0 Verdadeira H0 Falsa Rejeição H0 Erro Tipo I Decisão Correta Aceitação H0 Decisão Correta Erro Tipo II Na execução de um teste de hipótese estatística, para que o mesmo tenha validade, deve-se levar em consideração as seguintes etapas: a) Formulação das hipóteses – Deve-se, inicialmente, formular as hipóteses de nulidade e alternativa. b) Especificação do nível de significância ( ) – A escolha do nível de significância deve ser feita antes de realizar os experimentos. Usa-se, geralmente, igual a 5 ou 1% de probabilidade, de maneira a ter-se o erro tipo I o menor possível. Salvo em algumas situações usam-se outros níveis. c) Escolha do teste estatístico – Em função das hipóteses que vão ser testadas, pode-se usar o teste t, F, x 2 , etc., a partir dos dados de observação. O teste escolhido deve ser adequado ao material e ao tipo de dados. d) Determinação da região crítica – Dependendo do teste escolhido determinam-se às regiões de aceitação e rejeição da hipótese de nulidade. Geralmente quando o valor calculado for menor que a probabilidade específica por na tabela, aceita-se a hipótese de nulidade, enquanto que quando o valor calculado for igual ou maior que a probabilidade específica por na tabela, rejeita-se a hipótese de nulidade. e) Decisão final – Baseados no valor obtido pelo teste estatístico e no valor tabelado, toma-se à decisão final com respeito às hipóteses. Geralmente as conclusões sobre os tratamentos são feitas observando-se as médias identificadas ou não por mesma letra. Quando não há um tratamento controle ou testemunha convém responder as seguintes perguntas: (1) Qual é o melhor 136 tratamento? (2) Quais são os tratamentos que não diferem significativamente do melhor? (3) Qual é o pior tratamento? (4) Quais são os tratamentos que não diferem significativamente do pior? Por outro lado, quando um dos tratamentos é o controle ou testemunha as conclusões são feitas em relação a este tratamento e, em geral, procura-se responder às seguintes perguntas: (1) Quais são os tratamentos melhores que o controle? (2) Quais são os tratamentos que não diferem significativamente do controle? (3) Quais são os tratamentos piores que o controle? 4.2.1 Teste F O teste F tem seu maior emprego nas análises de variância dos delineamentos experimentais. Ele é usado para comparar variâncias. Como foi visto anteriormente, o F calculado é o quociente do quadrado médio de tratamentos (QMT) pelo quadrado médio do resíduo (QMR), ou seja: F = QMR QMT Por que o teste F é o quociente entre o QMT pelo QMR? Se se calcular, por exemplo, a esperança matemática dos quadrados médios [E (QM)] da análise de variância de um delineamento inteiramente casualizado, admitindo-se o modelo matemático aleatório, tem-se: Quadro da ANAVA Causa de Variação GL QM E(QM) Tratamentos Resíduo t – 1 t (r – 1) s 2 1 s 2 2 s 2 + r. s 2 t s 2 Total t . r – 1 De onde obtém-se: s 2 = s 2 2 que é a estimativa da variância do erro experimental; s 2 + r . s 2 t = s 2 1 137 s 2 t = r ss 221 que é a estimativa da variância de tratamentos. Por essa observação vê-se o porquê do teste F ser o quociente entre QMT pelo QMR, ou seja, F = QMR QMT = 2 2 2 1 s s = 2 2 t 2 s s.rs Nesta expressão está-se comparando a variância de tratamentos com a variância do erro experimental. Verifica-se, portanto, que tanto o QMT como o QMR estimam variâncias, e interpreta-se: QMR = variância do erro experimental; QMT = variância do erro experimental acrescida de uma possível variância devida aos tratamentos. O valor de F calculado é comparado com o valor de F tabelado (F > 1), com n1 = graus de liberdade de tratamentos e n2 = graus de liberdadedo resíduo (TABELAS A.3 e A.4). Logo, tem-se: F calculado > F tabelado (1%) - ** (existe diferença significativa entre os tratamentos no nível de 1% de probabilidade, ou seja, com mais de 99% de probabilidade deve existir pelo menos um contraste entre médias de tratamentos que difere de zero); F calculado < F tabelado (1%) - recorre-se no nível de 5% de probabilidade; F calculado > F tabelado (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com mais de 95% de probabilidade deve existir pelo menos um contraste entre médias de tratamentos que difere de zero); F calculado < F tabelado (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade não existe nenhum contraste entre médias de tratamentos que difere de zero). Quando se aplica o teste F na análise de variância está-se testando as seguintes hipóteses: a) H0 : os tratamentos não diferem entre si; b) H1: pelo menos dois deles diferem entre si. No teste, sempre se aceita uma hipótese e rejeita-se a outra. 138 Obviamente, se não há efeito de tratamentos, os dois quadrados médios estimam a mesma variância e, consequentemente, qualquer diferença em ordem de grandeza entre eles será devido ao acaso. Exemplo 3: Verificar pelo teste F se existe ou não diferença significativa entre os tratamentos referentes aos dados da TABELA 4.4. TABELA 4.4 – ANÁLISE DA VARIÂNCIA E COEFICIENTE DE VARIAÇÃO DA REAÇÃO DE RESISTÊNCIA DE POPULAÇÕES DE Cucurbita ssp. A Colletotrichum gloeosporioides f. sp. cucurbitae. DADOS TRANSFORMADOS EM x . PIRACICABA, SP Causa da Variação GL SQ QM F Populações Resíduos 12 26 1,188133 0,794191 0,099011 0,030546 3,24 Total 38 1,982327 Coeficiente de Variação: % 10,09 FONTE: MELO e FERREIRA (1983). As tabelas de F com n1 = 12 e n 2 = 26 fornecem os seguintes valores: 1% = 2,96 e 5% = 2,15. Logo, F calculado (3,24) > F tabelado (1%) (2,96) - **. Assim, chega- se à conclusão que existe diferença significativa, no nível de 1% de probabilidade, pelo teste F, na reação de populações de Cucurbita ssp. a Colletotrichum gloeosporioides f. sp. cucurbitae. Quando se faz a análise de variância de um experimento com apenas dois tratamentos, pelo próprio teste F pode-se chegar ao melhor deles, simplesmente observando as médias dos mesmos. Quando, porém, tem-se mais de dois tratamentos, não se pode chegar ao melhor deles pelo referido teste. Neste caso, há necessidade de aplicação de um teste de comparação de médias de tratamentos para chegar-se a tal conclusão. Como foi visto, espera-se quase sempre na análise de variância que todos os quadrados médios de tratamentos obtidos sejam iguais ou superiores ao que se obtém do resíduo. Nestas condições, só se justifica o uso das tabelas de limites unilaterais de F (TABELAS A.3 e A.4). Quando, porém, esta situação não se verifica, ou seja, quando o quadrado médio de tratamentos é menor que o quadrado médio do resíduo, aconselhar-se-á o uso das tabelas de limites bilaterais de F (TABELAS A.5 e A.6). 139 Este fato, embora não deva ser esperado, pode ocorrer, e às vezes é sintoma de defeitos na análise da variância. Uma das explicações possíveis é a presença de erros grosseiros no cálculo das somas de quadrados ou dos números de graus de liberdade. Outra explicação bem comum é a de que o resíduo inclua alguma importante causa de variação que foi controlada, mas não foi isolada na análise da variância. Às vezes, porém, nenhuma destas explicações serve, mas isto não é causa de preocupação porque, do ponto de vista do Cálculo de Probabilidades, o caso, embora pouco provável, não é impossível, logo deverá ocorrer uma vez ou outra. Neste caso, quando se comparar o valor de F calculado com o valor de F tabelado ( F < 1), com n1 = graus de liberdade de tratamentos e n2 = graus de liberdade do resíduo (TABELAS A.5 e A.6), basta apenas inverter os sinais do caso anterior, ou seja: F calculado < F tabelado (1%) - ** (existe diferença significativa entre os tratamentos no nível de 1% de probabilidade, ou seja, com mais de 99% de probabilidade deve existir pelo menos um contraste entre médias de tratamentos que difere de zero); F calculado > F tabelado (1%) - recorre-se no nível de 5% de probabilidade; F calculado < F tabelado (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com mais de 95% de probabilidade deve existir pelo menos um contraste entre médias de tratamentos que difere de zero); F calculado > F tabelado (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade não existe nenhum contraste entre médias de tratamentos que difere de zero). Exemplo 4: Verificar pelo teste F se existe ou não diferença significativa entre os tratamentos referentes aos dados da TABELA 4.5. 140 TABELA 4.5 – ANÁLISE DA VARIÂNCIA E COEFICIENTE DE VARIAÇÃO DA REAÇÃO DE POPULAÇÕES SEGREGANTES DE PIMENTÃO (Capsicum annuum L.) EM RELAÇÃO AO VÍRUS Y. DADOS TRANSFORMADOS EM 5,0x . PIRACICABA, SP Causa da Variação GL SQ QM F Populações Resíduos 1 18 0,0092681 0,2794557 0,0092681 0,0155253 0,597 Total 19 0,2887238 Coeficiente de Variação: % 13,90 FONTE: FERREIRA e MELO (1983). As tabelas de F com n 1 = 1 e n2 = 18 fornecem os seguintes valores: 1% = 0,0000404 e 5% = 0,0010. Logo, F calculado (0,597) > F tabelado (5%) (0,0010) - ns. Assim, chega-se à conclusão de que não existe diferença significativa, no nível de 5% de probabilidade, pelo teste F, na reação de populações segregantes de pimentão em relação ao vírus Y. O teste F também pode ser utilizado quando se quer comparar as variâncias de duas amostras (s 2 1 e s 2 2 ), supostas independentes. Assim, admitindo-se s 2 1 , calculada com N1 dados e s 2 2 , com N2 dados. Diz-se, então, que s 2 1 tem N1 – 1 graus de liberdade e, analogamente, s 2 2 tem N2 – 1 graus de liberdade. O F neste caso é o quociente entre as duas variâncias, ou seja: F = 2 2 2 1 s s Admite-se sempre s 2 1 > s 2 2 , de modo que tem-se F > 1. O valor de F calculado é comparado com o F tabelado, o qual é obtido em função dos números de graus de liberdade N1 – 1 e N2 – 1, respectivamente, de s 2 1 e s 2 2 . Neste caso, quando se aplica o teste F está-se testando as seguintes hipóteses: a) H0: S 2 1 = S 2 2 , isto é, a hipótese de nulidade admite que as duas populações têm a mesma variância; 141 b) H1: S 2 1 > S 2 2 , isto é, a hipótese alternativa admite que a população 1 tem maior variância do que a população 2. Exemplo 5: Verificar pelo teste F se existe ou não diferença significativa entre as variâncias dos dois tratamentos a partir de dados da TABELA 4.6. TABELA 4.6 – GANHOS DE PESO (kg), DE LEITOAS DUROC JERSEY ALIMENTADAS COM FENO DE ALFAFA E FENO DE QUICUIO POR UM PERÍODO DE TRÊS MESES Feno de Alfafa Feno de Quicuio 67,5 kg 70,5 kg76,0 kg 67,5 kg 65,0 kg 58,5 kg 65,0 kg 64,0 kg Médias 70,4 kg 63,1 kg FONTE: GOMES (1985). Logo, tem-se: s 2 = 1 2 2 N N X X 2 1s = 3 4 5,281 5,670,765,705,67 2 2222 = 16,062333 s 2 2 = 3 4 5,252 0,640,655,580,65 2 2222 = 9,729000 F = 2 2 2 1 s s = 729000,9 062333,16 1,65 As tabelas de F com n1 = 3 e n2 = 3 fornecem os seguintes valores: 1% = 29,46 e 5% = 9,28. 142 Desse modo, F calculado (1,65) < F tabelado (5%) (9,28) - ns. Assim, chega-se à conclusão de que não existe diferença significativa, no nível de 5% de probabilidade, pelo teste F, entre as variâncias dos tratamentos, ou seja, as duas rações proporcionam o mesmo ganho de peso em leitoas Duroc Jersey. 4.2.2 Teste t O teste t é um teste clássico usado para comparar médias de tratamentos. É mais complexo que o teste de Scheffé, porém é o teste de menor rigor. Para a sua aplicação o pesquisador deve levar em conta os seguintes requisitos: a) As comparações feitas pelo teste t devem ser escolhidas antes de serem examinados os dados experimentais; b) As comparações feitas devem ser, no máximo, iguais ao número de graus de liberdade de tratamentos; c) O teste t exige que as comparações definidas sejam contrastes ortogonais. Mas o que se deve entender por contraste e o que são contrastes ortogonais? Se ,mˆ1 ,mˆ2 3mˆ e 4mˆ são as médias de quatro tratamentos de um experimento, 1Yˆ = 1mˆ – ,mˆ2 2Yˆ = 1mˆ + 2mˆ – 2 3mˆ e 3Yˆ = 1mˆ + 2mˆ + 3mˆ – 3 4mˆ são exemplos de contrastes. O que caracteriza um contraste é que se as médias que nele ocorrem forem todas iguais, o contraste deverá ser nulo. Para que isto aconteça, a soma algébrica dos coeficientes das médias deve ser nula. De fato, com 1mˆ = 2mˆ = 3mˆ = 4mˆ = 1, tem-se: 1Yˆ = 1 – 1 = 0 „ 2Yˆ = 1 + 1 – 2 (1) = 0 3Yˆ = 1 + 1 + 1 – 3 (1) = 0 Os contrastes podem ser: a) simples – quando envolve apenas dois tratamentos; b) múltiplos – quando mais de dois tratamentos estão envolvidos. Os contrastes são ortogonais quando o somatório da multiplicação dos coeficientes de cada média em cada contraste é igual a zero. Considerando o exemplo a seguir, tem-se: 143 _______________________________________________________________ Yˆ 1mˆ 2mˆ 3mˆ 4mˆ 1Yˆ 2Yˆ 3Yˆ 1 1 1 –1 1 1 0 –2 1 0 0 –3 = 1 –1 0 0 = 0 __________________________________________________________________________ Diz-se então que os contrastes 1Yˆ , 2Yˆ e 3Yˆ são ortogonais. Pode-se tolerar o uso do teste t para alguns contrastes não ortogonais, desde que o seu número não exceda o número de graus de liberdade de tratamentos. Na análise de variância, quando se tem mais de dois tratamentos e o teste F for significativo, pode-se utilizar o teste t na comparação de médias de tratamentos, cuja fórmula é a seguinte: t = Yˆs 0Y 2 onde: Y = é um constante qualquer; s 2 Yˆ = é a estimativa da variância da estimativa de um contraste. O valor de s 2 Yˆ é obtido através da seguinte fórmula: a) Para o caso do delineamento inteiramente casualizado, tem-se: s 2 Yˆ = 2 22 2 2 1 ... 21 s rN CN r C r C onde: C = é o coeficiente do contraste; r = é o número de repetições da média; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. 144 Como, geralmente, na área da agropecuária os pesquisadores têm mais interesse pelos contrastes simples, a fórmula de s 2 Yˆ fica da seguinte maneira: s 2 Yˆ = 2s 2r 1 1r 1 onde: r = é o número de repetições da média; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. b) Para o caso do delineamento em blocos casualizados, tem-se: b.1) Quando nos contrastes simples as médias dos tratamentos avaliados apresentam o mesmo número de repetições (sem parcela perdida), a fórmula de s 2 Yˆ fica da seguinte maneira: s 2 Yˆ = 2s r 2 onde: r = é o número de repetições da média; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. b.2) Quando se tem apenas uma parcela perdida, a fórmula de s 2 Yˆ fica assim: s 2 Yˆ = 2s 1t1rr t r 2 onde: t = é o número de tratamentos do experimento; r = é o número de repetições do experimento; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. 145 Esta fórmula é usada para comparar contrastes envolvendo a média do tratamento com uma parcela perdida e a média de qualquer um dos tratamentos sem parcela perdida. b.3) Quando se tem mais de uma parcela perdida, a fórmula de s 2 Yˆ fica assim: s 2 Yˆ = 2s 2r 1 1r 1 onde: r = é o número efetivo de repetições; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. Os valores de r, número efetivo de repetições, são obtidos através da regra prática de Taylor, ou seja, considerando-se o contraste u1 mˆmˆYˆ , entre as médias dos tratamentos i e u . O tratamento i terá o seguinte número efetivo de repetições: valor 1 para os blocos onde os tratamentos i e u aparecem; valor t – 2/t – 1 nos blocos onde o tratamento i aparece e o tratamento u não aparece, sendo t = número de tratamentos do experimento; valor 0 nos blocos onde o tratamento i não aparece (o tratamento u pode aparecer ou não). A soma dos valores de todos os blocos constituirá o número efetivo de repetições do tratamento i. Para o tratamento u segue-se a mesma regra. Esta fórmula é usada para comparar contrastes envolvendo a média do tratamento com uma parcela perdida e a média de qualquer um dos tratamentos sem parcela perdida, bem como contraste envolvendo duas médias de tratamentos com parcelas perdidas. c) Para o caso do delineamento em quadrado latino, tem-se: c.1) Quando nos contrastes simples as médias dos tratamentos avaliados apresentam o mesmo número de repetições (sem parcela perdida), a fórmula de s 2 Yˆ fica da seguinte maneira: s 2 Yˆ = 2s r 2 onde: r = é o número de repetições da média; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. 146 c.2) Quando se tem apenas uma parcela perdida, a fórmula de s 2 Yˆ fica assim: s 2 Yˆ = 2s 2r1r 1 r 2 onde: r = é o número de repetições do experimento; s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo. Esta fórmula é usada para comparar contrastes envolvendo a média do tratamento com uma parcela perdida e a média de qualquer um dos tratamentos sem parcela perdida. c.3) Quando se tem mais de uma parcela perdida, deve-se seguir o mesmo procedimento visto para o delineamento em blocos casualizados. Para verificar a significância estatística dos contrastes, compara-se o valor de t calculado de cada contraste com o valor de t tabelado, com n1 = nível de significância (o nível de 5% de probabilidade é o mais utilizado na prática) e n2 = graus de liberdade do resíduo (TABELA A.7). Logo, tem-se: t calculado t tabelado (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de que o contraste seja diferente de zero); t calculado < t tabelado (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade o contraste não difere de zero). Quando se aplica o teste t está-se testando as seguintes hipóteses: a) H0 : Y = 0 (tratamentos semelhantes); b) H1 : Y 0 (tratamentos diferentes). Exemplo 6: Verificar pelo teste t se existe ou não diferença significativa em um grupo escolhido de contrastes ortogonais a partir de dados da TABELA 4.7. 147 TABELA 4.7 – PRODUÇÃO MÉDIA (kg DE AÇÚCAR/t DE CANA), E VALORES DE GLR, QMR E F DE VARIEDADES DE CANA-DE-AÇÚCAR (Saccharum officinarum L.). PIRACICABA-SP Variedades Médias 1/ 1 – Co 775 2 – Co 740 3 – Co 421 4 – Co 678 5 – Co 419 6 – Co 413 133,75 133,10 120,43 118,46 114,77 113,92 GLR 18 QMR 83,3753 F 3,77 * FONTE: CAMPOS (1984). NOTA: (1/) Dados médios provenientes de quatro repetições no delineamento inteiramente casualizado. Pode-se organizar diversos grupos de contrastes ortogonais com os seis tratamentos, sendo que cada grupo deverá ter, no máximo, cinco contrastes. Por exemplo, pode-se ter os seguintes contrastes ortogonais: 1Yˆ = 654321 mˆmˆmˆmˆmˆmˆ 2Yˆ = 653 mˆmˆmˆ2 3Yˆ = 65 mˆmˆ 4Yˆ = 421 mˆ2mˆmˆ 5Yˆ = 21 mˆmˆ Considerando-se que eles foram estabelecidos a priori, isto é, não foram sugeridos pelos próprios resultados, então se pode aplicar o teste t. Os resultados estão contidos na tabela a seguir: 148 Contraste Valor S 2 ( Yˆ ) t calculado Yˆ 1 36,19 125,0630 3,24 * Yˆ 2 12,17 125,0630 1,09 ns Yˆ 3 0,85 41,6877 0,13 ns Yˆ 4 29,93 125,0630 2,68 * Yˆ 5 0,65 41,6877 0,10 ns t tabelado (5%) 2,10 De acordo com os resultados obtidos pode-se chegar às seguintes conclusões: a) O contraste Yˆ 1 foi significativo no nível de 5% de probabilidade, ou seja, a média dos rendimentos das variedades Co 775, Co 740 e Co 678 é significativamente maior do que a média dos rendimentos das demais variedades. b) O contraste Yˆ 2 não foi significativo no nível de 5% de probabilidade, ou seja, o rendimento médio da variedade Co 421 não difere da média do rendimento das variedades Co 419 e Co 413. c) O contraste Yˆ 3 não foi significativo no nível de 5% de probabilidade, ou seja, as variedades Co 419 e Co 413 apresentam rendimento médios semelhantes. d) O contraste Yˆ 4 foi significativo no nível de 5% de probabilidade, ou seja, a média dos rendimentos das variedades Co 775 e Co 740 é significativamente maior do que o rendimento médio da variedade Co 678. e) O contraste Yˆ 5 não foi significativo no nível de 5% de probabilidade, ou seja, as variedades Co 775 e Co 740 apresentam rendimentos médios semelhantes. O teste t também pode ser utilizado quando se quer comparar as médias de duas amostras ( mˆ 1 e mˆ 2). Assim, mˆ 1 é calculada com N1 dados e mˆ 2 , com N2 dados. Diz-se, então, que mˆ 1 tem N1 – 1 graus de liberdade e, analogamente, mˆ 2 tem N2 – 1 graus de liberdade. O valor de t é dado pela fórmula: 21 2 mˆ 21 N 1 N 1 s mˆmˆ t 149 onde: s 2 mˆ = é a média das variâncias das duas amostras (s 2 1 e s 2 2 ). O valor de s 2 mˆ é dado pela fórmula: s 2 mˆ = 2 s s 22 2 1 = 2 11 2 2 2 2 1 1 2 2 N N X X N N X X Neste caso, o valor de t calculado é comparado com o de t tabelado da mesma forma como foi visto anteriormente. Contudo, o valor de t tabelado é obtido na tabela (TABELA A.7) com n1 = nível de significância (o nível de 5% de probabilidade é o mais utilizado na prática) e n2 = graus de liberdade, que é igual a N1 + N2 – 2. Quando se aplica o teste t, nesta situação, está-se testando as seguintes hipóteses: a) H0 : 1mˆ = 2mˆ , isto é, a hipótese de nulidade admite que as duas populações têm a mesma média; b) H1 : 2mˆ 2mˆ , isto é, a hipótese alternativa admite que as duas populações têm médias diferentes. Exemplo 7: Verificar pelo teste t se existe ou não diferença significativa entre as médias dos dois tratamentos a partir de dados da TABELA 4.8. TABELA 4.8 – PRODUÇÃO MÉDIA (quintais/acre) DE DUAS VARIEDADES DE BATATINHA DURANTE CINCO ANOS Variedades Ano Médias 1 o 2 o 3 o 4 o 5 o A 34 30 41 25 45 35 B 30 17 33 25 25 26 FONTE: CENTENO (1982). Logo, tem-se: 150 1 2 2 2 N N X X s 4 5 175 4525413034 s 2 22222 2 1 65,5 4 5 130 2525331730 s 2 22222 2 2 37,0 2 0,375,65 s2m 51,25 1mˆ = 5 175 = 35 2mˆ = 5 130 = 26 21 2 mˆ 21 N 1 N 1 s mˆmˆ t 5 1 5 1 25,51 2635 t 1,99 ns t tabelado (5%) = 2,31 De acordo com o resultado obtido pode-se concluir que o contraste não foi significativo no nível de 5% de probabilidade, ou seja, as duas variedades de batatinha são igualmente produtivas. 4.2.3 Teste de Bonferroni (tB) O teste de Bonferroni é um aperfeiçoamento do teste t e para a sua aplicação o pesquisador deve levar em conta os mesmos requisitos deste. 151 Esse aperfeiçoamento se deve ao fato de que o teste t aplicado para dois ou mais contrastes num mesmo experimento não é exato. Por exemplo, na aplicação do teste t, onde se usaram os dadosda TABELA 4.7 (Exemplo 6), foi de 5% o nível de significância adotado para cada um dos cinco contrastes. A probabilidade de que um, pelo menos, seja significativo, por simples acaso, é, aproximadamente, de 5 X 5 = 25%. No geral, se o nível de probabilidade for para cada contraste, a probabilidade de que um pelo menos de n contrastes ortogonais seja significativo é de n. Para resolver esse problema, o teste de Bonferroni indica o uso, para cada contraste, de um nível de probabilidade ‟ = /n, pois então, para o conjunto tem-se n‟ = . No Exemplo 6, com = 5% e n = 5, o valor de tB para cada contraste deve corresponder a uma probabilidade de 5/5 = 1%. O resultado efetivo desse procedimento é a alteração do nível de significância para a determinação do valor tabelado de t (TABELA A.7), dividindo-se o nível nominal (o nível de 5% de probabilidade é o mais utilizado na prática) pelo número de contrastes ortogonais. Na análise de variância, quando se tem mais de dois tratamentos e o teste F for significativo, pode-se utilizar o teste de Bonferroni na comparação de médias de tratamentos, cuja fórmula é a seguinte: tB = Yˆs 0Y 2 onde: Y = é um constante qualquer; s 2 Yˆ = é a estimativa da variância da estimativa de um contraste (ver teste t). Para verificar a significância estatística dos contrastes, compara-se o valor de tB calculado de cada contraste com o valor de tB tabelado, com n1 = nível de significância ‟ = /n e n2 = graus de liberdade do resíduo (TABELA A.7). Logo, tem-se: tB calculado tB tabelado (‟) - existe diferença significativa entre os tratamentos no nível ‟ de probabilidade, ou seja, há uma probabilidade acima de x% de que o contraste seja diferente de zero; tB calculado < tB tabelado (‟) - ns (não existe diferença significativa entre os tratamentos no nível ‟ de probabilidade, ou seja, com x% de probabilidade o contraste não difere de zero). Quando se aplica o teste tB está-se testando as seguintes hipóteses: a) H0 : Y = 0 (tratamentos semelhantes); 152 b) H1 : Y 0 (tratamentos diferentes). Considerando os dados do Exemplo 6, têm-se os seguintes resultados que estão contidos na tabela a seguir: Contraste Valor S 2 ( Yˆ ) tB calculado Yˆ 1 36,19 125,0630 3,24 ** Yˆ 2 12,17 125,0630 1,09 ns Yˆ 3 0,85 41,6877 0,13 ns Yˆ 4 29,93 125,0630 2,68 ns Yˆ 5 0,65 41,6877 0,10 ns tB tabelado (1%) 2,88 De acordo com os resultados obtidos pode-se chegar às seguintes conclusões: a) O contraste Yˆ 1 foi significativo no nível de 1% de probabilidade, ou seja, a média dos rendimentos das variedades Co 775, Co 740 e Co 678 é significativamente maior do que a média dos rendimentos das demais variedades. b) O contraste Yˆ 2 não foi significativo no nível de 1% de probabilidade, ou seja, o rendimento médio da variedade Co 421 não difere da média do rendimento das variedades Co 419 e Co 413. c) O contraste Yˆ 3 não foi significativo no nível de 1% de probabilidade, ou seja, as variedades Co 419 e Co 413 apresentam rendimento médios semelhantes. d) O contraste Yˆ 4 não foi significativo no nível de 1% de probabilidade, ou seja, a média dos rendimentos das variedades Co 775 e Co 740 não difere do rendimento médio da variedade Co 678. e) O contraste Yˆ 5 não foi significativo no nível de 5% de probabilidade, ou seja, as variedades Co 775 e Co 740 apresentam rendimentos médios semelhantes. Observa-se o rigor do teste de Bonferroni neste exemplo em relação ao teste t, pois ele detectou diferença significativa entre os tratamentos apenas no contraste Yˆ 1, enquanto que o teste “t” encontrou diferença significativa nos contrastes Yˆ 1 e Yˆ 4. 153 4.2.4 Teste LSD O teste da diferença mínima significativa (LSD), apesar de sujeito a severas restrições, ainda é um teste bastante empregado na comparação de médias de tratamentos. Apesar desse teste se basear no teste t, sua aplicação é muito mais simples, por ter apenas um valor do LSD para comparar com todos os contrastes, o que não ocorre com o teste t. Desde que seja utilizado com cuidado, não conduz a erros demasiados. Na análise de variância, quando o teste F for significativo e se tem mais de dois tratamentos, o teste LSD é o mais utilizado quando se deseja fazer comparações planejadas (são comparações definidas antes de serem examinados os dados experimentais) de médias pareadas. Neste caso, cada média aparece em somente uma comparação. Sua fórmula é a seguinte: LSD (5%) = t (5%) . s ( Yˆ ) = t (5%) r s.2 2 onde: t (5%) = é o valor tabelado do teste t no nível de 5% de probabilidade (TABELA A.7); s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo; r = é o número de repetições do experimento e/ou da média. Quando as médias dos tratamentos avaliados apresentarem número de repetições diferentes (caso de parcelas perdidas) o valor de s ( Yˆ ), que é a raiz quadrada da estimativa da variância da estimativa de um contraste, depende do delineamento estatístico utilizado (ver teste “t”). O valor de cada contraste ( Yˆ ) é comparado com o valor de LSD. Logo, tem-se: Yˆ LSD (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de que o contraste seja diferente de zero); Yˆ < LSD (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade o contraste não difere de zero). Quando se aplica o teste LSD, está-se testando as seguintes hipóteses: a) H0 : Yˆ = 0 (tratamentos semelhantes); b) H1 : Yˆ 0 (tratamentos diferentes). 154 Exemplo 8: Verificar pelo teste LSD se existe ou não diferença significativa entre as médias pareadas a partir de dados da TABELA 4.9. TABELA 4.9 – EFEITO DA CEROSIDADE FOLIAR NA REAÇÃO DE VARIEDADES DE CEBOLA (Allium cepa L.) A HERBICIDAS DE PÓS-EMERGÊNCIA EM PLANTAS AVALIADAS AOS 54 DIAS APÓS A SEMEADURA, EXPRESSO ATRAVÉS DE UMA ESCALA DE NOTAS, E VALORES DE GL RESÍDUO, QM RESÍDUO, F E CV. PIRACICABA-SP Variedades BENTAZON 1/ ________________________ A B PROMETRIN 1/ ________________________ A B BARREIRO SMP-IV ROXA CHATA SMP-IV BAIA PERIFORME RED CREOLE 2,7 + 4,1 3,0 3,6 2,9 4,0 3,1 4,4 3,2 4,3 3,2 3,9 3,1 4,0 3,2 4,4 GL Resíduo 60 QM Resíduo 0,17154 F Variedades 14,07 ** Coeficiente de Variação: % 11,50 FONTE: FERREIRA e COSTA (1982). NOTAS: ( **) Significativo no nível de 1% de probabilidade. (1/) Herbicidas de pós-emergência. (A) Cerosidade foliar mantida. (B) Cerosidade foliar removida. (+) Dados médios provenientes de quatro repetições no delineamento inteiramente casualizado. Considerando-se queos contrastes foram estabelecidos a priori, então se pode aplicar o teste LSD, cujos resultados estão na tabela a seguir: 155 Variedades BENTAZON PROMETRIN A B Yˆ A B Yˆ BARREIRO SMP-IV ROXA CHATA SMP-IV BAIA PERIFORME REF CREOLE 2,7 4,1 1,4 * 3,0 3,6 0,6 * 2,9 4,0 1,1 * 3,1 4,4 1,3 * 3,2 4,3 1,1 * 3,2 3,9 0,7 * 3,1 4,0 0,9 * 3,2 4,4 1,2 * LSD (5%) 0,586 0,586 NOTA: (*) Significativo no nível de 5% de probabilidade pelo teste DMS. De acordo com os resultados obtidos pode-se chegar às seguintes conclusões: a) Com relação ao herbicida de pós-emergência BENTAZON, todos os contrastes foram significativos no nível de 5% de probabilidade, ou seja, em todas as variedades de cebola avaliadas, a cerosidade foliar mantida apresentou menor índice de injúrias foliares do que a cerosidade foliar removida. b) Com relação ao herbicida de pós-emergência PROMETRIN, todos os contrastes foram significativos no nível de 5% de probabilidade, ou seja, em todas as variedades de cebola avaliadas, a cerosidade foliar mantida apresentou menor índice de injúrias foliares do que a cerosidade foliar removida. O teste LSD pode também ser utilizado na comparação de todas as médias com um tratamento controle ou testemunha, ou na comparação de todas as médias entre si. Porém, recomenda-se o uso do teste LSD em comparações planejadas de médias pareadas, visto que têm testes específicos para os outros tipos de comparações. 4.2.5 Teste de Dunnett O teste de Dunnett (d‟) é usado na análise de variância quando se procura comparar todas as médias de tratamentos com um controle ou testemunha, desde que o teste F seja significativo e se tenha mais de dois tratamentos. Sua aplicação é muito simples, por ter apenas um valor de d‟ para comparar com todos os contrastes. Sua fórmula é a seguinte: d‟(5%) = t (5%) . s ( Yˆ ) 156 = t (5%) r s.2 2 onde: t (5%) = é o valor tabelado do teste de Dunnett no nível de 5% de probabilidade (TABELAS A.8 e A.9); s 2 = é a estimativa da variância do erro experimental, que corresponde ao quadrado médio do resíduo; r = é o número de repetições do experimento e/ou da média. No caso de se querer usar o teste de Dunnett no nível de 1% de probabilidade, tem-se as mesmas tabelas (TABELAS A.8 e A.9) para se obter o valor de t. A TABELA A.8 é usada para as comparações unilaterais, ou seja, quando todas as médias dos tratamentos forem inferiores ou superiores ao controle, enquanto a TABELA A.9 é usada para comparações bilaterais, ou seja, quando algumas médias de tratamentos forem inferiores e outras superiores ao controle. Quando as médias dos tratamentos avaliados apresentarem número de repetições diferentes (caso de parcelas perdidas) o valor de s ( Yˆ ), que é a raiz quadrada da estimativa da variância da estimativa de um contrates, depende do delineamento estatístico utilizado (ver teste “t”). O valor de cada contraste ( Yˆ ) é comparado com o valor de d‟. Logo, tem-se: Yˆ d‟(5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de que o contraste seja diferente de zero); Yˆ < d‟(5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade de 95% de que o contraste não difere de zero). Quando se aplica o teste de Dunnett, está-se testando as seguintes hipóteses: a) H0 : Yˆ = 0 (tratamento semelhante ao controle); b) H1 : Yˆ 0 (tratamento diferente do controle). Exemplo 9: Verificar pelo teste de Dunnett se existe ou não diferença significativa dos tratamentos em relação ao controle a partir de dados da TABELA 4.10. 157 TABELA 4.10 – GANHOS DE PESO (kg), E VALORES DE GL RESÍDUO, QM RESÍDUO E F DE PORCOS ALIMENTADOS COM QUATRO RAÇÕES Rações Média 1/ A (Controle) B C D 26,0 39,0 32,0 22,0 GL Resíduo 16 QM Resíduo = s 2 68,75 F 3,99 * FONTE: GOMES (1985). NOTA: (1/) Dados médios provenientes de cinco repetições no delineamento inteiramente casualizado. Logo, tem-se: d‟(5%) = t 5% r s 22 = 2,63 5 75,68.2 12,2 13,79 0,390,26mˆmˆYˆ BA1 13,0 ns 0,320,26mˆmˆYˆ CA2 6,0 ns 0,220,26mˆmˆYˆ DA3 4,0 ns De acordo com os resultados, pode-se concluir que todos os contrastes foram não significativos no nível de 5% de probabilidade, ou seja, as rações B, C e D não diferem da ração A (controle) quanto ao ganho de peso em porcos. 4.2.6 Teste de Tukey O teste de Tukey ( ) é usado na análise de variância para comparar todo e qualquer contraste entre duas médias de tratamentos. É o teste de 158 comparação de médias de tratamentos mais usado na experimentação agropecuária, por ser bastante rigoroso e de fácil aplicação. Ele é mais exato quando o número de repetições das médias dos tratamentos avaliados são iguais. Quando o teste F não for significativo, é norma geral não se aplicar o teste de Tukey ou qualquer teste de comparação de médias de tratamentos (se estiver próximo da significância é aconselhável a aplicação). Por outro lado, pode ocorrer que o teste F tenha sido significativo e o teste de Tukey não acuse nenhum contraste significativo. Nestes casos tem-se três alternativas a seguir, são elas: a) Substitui-se o teste de Tukey pelo teste de Duncan que é menos rigoroso; b) Aplica-se o teste de Tukey no nível de 10% de probabilidade; c) Simplesmente aceita-se o resultado (não significativo) admitindo-se que o (s) contraste(s) significativo(s) que o teste F diz existir, envolve mais de duas médias, sendo portanto, geralmente, de pouco interesse prático. Quando as médias de tratamentos apresentam o mesmo número de repetições, sua fórmula é a seguinte: (5%) = q r s onde: q = é o valor da amplitude total estudentizada no nível de 5% de probabilidade (TABELA A.10); s = é a estimativa do desvio padrão do erro experimental, que corresponde à raiz quadrada do quadrado médio do resíduo; r = é o número de repetições do experimento e/ou da média. No caso de querer-se usar o teste de Tukey no nível de 1% de probabilidade, tem-se a TABELA A.11 para obter-se o valor de q. O valor de cada contraste ( Yˆ ) é comparado com o valor de . Logo, tem-se: Yˆ (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de que o contraste seja diferente de zero); Yˆ < (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade o contraste não difere de zero). a) H0 : Yˆ = 0 (tratamentos semelhantes); 159 b) H1 : Yˆ 0 (tratamentos diferentes). Exemplo 10: Verificarpelo teste de Tukey se existe ou não diferença significativa entre os tratamentos a partir dos dados da TABELA 4.11. TABELA 4.11 – NÚMERO TOTAL DE FOLHAS POR PLANTA EM TRÊS CULTIVARES DE ALFACE (Lactuca sativa L.), E VALORES DE GL RESÍDUO, QM RESÍDUO E F Cultivares Número total de folhas por planta 1/ 1. MARAVILHA DE QUATRO ESTAÇÕES 2. MARAVILHA DE INVERNO 3. REPOLHUDA SEM RIVAL 25,80 29,53 25,73 GL Resíduo 11 QM Resíduo 6,673264 F 5,69 * FONTE: SILVA e FERREIRA (1985). NOTA: (1/) Dados médios provenientes de oito repetições no delineamento em blocos casualizados. Logo, tem-se: 8 673264,6 82,3%)5( r s q 3,49 53,2980,25mˆmˆYˆ 211 3,73 * 73,2580,25mˆmˆYˆ 312 0,07 ns 73,2553,29mˆmˆYˆ 323 3,80 * De acordo com os resultados do teste de Tukey, pode-se concluir: a) Apenas um contraste foi não significativo no nível de 5% de probabilidade, ou seja, as cultivares de alface MARAVILHA DE QUATRO ESTAÇÕES e REPOLHODA SEM RIVAL são semelhantes quanto ao número de folhas por planta. b) Os demais contrastes foram significativos no nível de 5% de probabilidade, ou seja, a cultivar de alface MARAVILHA DE INVERNO 160 apresenta um maior número de folhas por planta do que as cultivares MARAVILHA DE QUATRO ESTAÇÕES e REPOLHUDA SEM RIVAL. Quando as médias de tratamentos apresentam número de repetições diferentes (caso de parcelas perdidas), a fórmula do teste de Tukey é a seguinte: 2 Yˆs q%)5( 2 onde: q = é o valor da amplitude total estudentizada no nível de 5% ou de 1% de probabilidade (TABELAS A.10 e A.11); s 2 = é a estimativa da variância da estimativa de um contraste, que dependerá do delineamento estatístico utilizado (ver teste “t”). 4.2.7 Teste de Duncan O teste de Duncan (D) é também usado na análise de variância para comparar todo e qualquer contraste entre duas médias de tratamentos. É, porém, menos rigoroso do que o teste de Tukey, pois detecta diferença significativa entre duas médias quando o teste de Tukey não o faz. Além disso, sua aplicação é um pouco mais trabalhosa, pois, levando em conta o número de médias abrangidas em cada contraste, deve-se calcular um valor de D para cada contraste. Na sua aplicação deve-se ordenar as médias de tratamentos em ordem crescente ou decrescente. Quando o número de médias de tratamentos for elevado, por exemplo superior a dez, a aplicação do referido teste se torna muito trabalhosa. É um teste bastante usado em trabalhos de sementes e de laboratório. Tal como o teste de Tukey, ele exige, para ser exato, que todos os tratamentos tenham o mesmo número de repetições. Quando as médias de tratamentos apresentam o mesmo número de repetições, sua fórmula é a seguinte: D (5%) = z r s onde: z = é o valor da amplitude total estudentizada no nível de 5% de probabilidade (TABELA A.12); s = é a estimativa do desvio padrão do erro experimental, que corresponde à raiz quadrada do quadrado médio do resíduo; r = é o número de repetições do experimento e/ou da média. 161 No caso de querer-se usar o teste de Duncan no nível de 1% de probabilidade, tem-se a TABELA A.13 para obter-se os valores de z. Como se deve ter vários valores de D, os valores dos contrastes com o mesmo número de médias abrangidas pelos mesmos são comparados com o seu respectivo valor de D. Logo, tem-se: Yˆ D (5%) - * (existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, há uma probabilidade acima de 95% de que o contraste seja diferente de zero); Yˆ < D (5%) - ns (não existe diferença significativa entre os tratamentos no nível de 5% de probabilidade, ou seja, com 95% de probabilidade o contraste difere de zero). Quando se aplica o teste de Duncan, está-se testando as seguintes hipóteses: a) H0 : Yˆ = 0 (tratamentos semelhantes); b) H1 : Yˆ 0 (tratamentos diferentes). Exemplo 11: Verificar pelo teste de Duncan se existe ou não diferença significativa entre os tratamentos a partir dos dados da TABELA 4.12. TABELA 4.12 – GERMINAÇÃO DE SEMENTES ESCARIFICADAS DE SEIS ESPÉCIES DE Stylosanthes, E VALORES DE GL RESÍDUO, QM RESÍDUO E F. DADOS TRANSFORMADOS EM ARCO SENO 100/% Espécies Médias 1/ 1 – Stylosanthes humilis 67,54 2 – Stylosanthes scabra 83,74 3 – Stylosanthes leiocarpa 84,75 4 – Stylosanthes hamata 87,97 5 – Stylosanthes viscosa 88,98 6 – Stylosanthes debilis 90,00 GL Resíduo 72 QM Resíduo 20,6518 F 300,32 ** FONTE: REIS (1984). NOTA: (1/) Dados médios provenientes de oito repetições no delineamento inteiramente casualizado. Logo, tem-se: 162 D2 (5%) = 8 6518,20 821,2 r s z2 4,53 74,8354,67mˆmˆYˆ 211 16,20 * 75,8474,83mˆmˆYˆ 322 1,01 ns 97,8775,84mˆmˆYˆ 433 3,22 ns 98,8897,87mˆmˆYˆ 544 1,01 ns 00,9098,88mˆmˆYˆ 655 1,02 ns D3 (5%) = 8 6518,20 971,23 r s z 4,77 75,8454,67ˆˆ 316 mmY 17,21 * 97,8774,83ˆˆˆ 427 mmY 4,23 ns 98,8875,84ˆˆˆ 538 mmY 4,23 ns 00,9097,87ˆˆˆ 649 mmY 2,03 ns D4 (5%) = 8 6518,20 071,32 r s z 4,93 879754,67ˆˆˆ 4110 mmY 20,43 * 98,8874,83ˆˆˆ 5211 mmY 5,24 * 00,9075,84ˆˆˆ 6312 mmY 5,25 * D5 (5%) = 8 6518,20 134,32 r s z 5,04 163 98,8854,67ˆˆˆ 5113 mmY 21,44 * 00,9074,83ˆˆˆ 6214 mmY 6,26 * D6 (5%) = 8 6518,20 194,32 r s z 5,13 00,9054,67ˆˆˆ 6115 mmY 22,46 * De acordo com os resultados do teste de Duncan, pode-se concluir: a) Apenas sete contrastes foram não significativos no nível de 5% de probabilidade, ou seja, a germinação de sementes escarificadas foi semelhante entre as seguintes espécies de Stylosanthes: S. scabra com S. leiocarpa e S. hamata, S. leiocarpa com S. hamata e S. viscosa, S. hamata com S. viscosa e S. debilis, e S. viscosa com S. debilis. b) Os demais contrastes foram significativos no nível de 5% de probabilidade, ou seja, a germinação de sementes escarificadas foi diferente entre as seguintes espécies de Stylosanthes: S. humilis com todas as outras, S. scabra com S. viscosa e S. debilis, e S. leiocarpa com S. debilis. c) A espécie Stylosanthes humilis apresentou a menor germinação de sementes escarificadas. d) A espécie Stylosanthes debilis apresentou a maior germinação de sementes escarificadas, apesar de não diferir estatisticamente das espécies Stylosanthes viscosa e Stylosanthes hamata. Quando as médias de tratamentos apresentam número de repetições diferentes (caso de parcelas perdidas), a fórmula do teste de Duncan é a seguinte: 2 ˆ %)5( 2 Ys zD onde: z = é o valor da amplitude total estudentizada no nível de 5% ou de 1% de probabilidade (TABELAS A.12 e A. 13); s 2 )ˆ(Y = é a estimativa da variância da estimativa de um contraste, que dependerá do delineamento estatístico utilizado (ver teste “t”). 164 4.2.8 Teste de Student-Newman-Keuls (SNK)
Compartilhar