Baixe o app para aproveitar ainda mais
Prévia do material em texto
ESTATÍSTICA EXPERIMENTAL CONCEITO A experimentação agrícola tem por objetivo o estudo dos experimentos, isto é, seu planejamento, execução, análise dos dados obtidos e interpretação dos resultados. a) Experimento ou ensaio: é um trabalho previamente planejado, que segue determinados princípios básicos e no qual se faz a comparação dos efeitos dos tratamentos. b) Tratamento: é o método, elemento ou material cujo efeito deseja-se medir ou comparar em um experimento. c) Unidade experimental ou parcela: é a unidade que vai receber o tratamento e fornecer os dados que deverão refletir seu efeito. d) Delineamento experimental: é o plano utilizado na experimentação e implica na forma como os tratamentos serão designados às unidades experimentais e em um amplo entendimento das análises a serem feitas quando todos os dados estiverem disponíveis. Em uma pesquisa científica, o procedimento geral é o de formular hipóteses e verificá-las, diretamente, ou de suas conseqüências. Para tanto, é necessário um conjunto de observações ou dados e o planejamento de experimentos é essencial para indicar o esquema sob o qual as hipóteses possam ser testadas. As hipóteses são testadas por meio de métodos de análise estatística que dependem do modo como as observações ou dados foram obtidos. O que obriga a utilizar a análise estatística para testar as hipóteses formuladas é a presença, em todas as observações, de efeitos de fatores não controlados (que podem ou não ser controláveis), que causam a variação. Esses efeitos, que sempre ocorrem, não podem ser conhecidos individualmente e tendem a mascarar o efeito do tratamento em estudo. O conjunto dos efeitos de fatores não controlados é denominado de variação aleatória. Visando tornar mínima a variação do acaso, o experimento deve fazer o planejamento do experimento de tal forma que consiga isolar os efeitos de todos os fatores que podem ser controlados. Durante a instalação e a execução do experimento, o experimentador deve procurar eliminar o efeito dos fatores não controlados. A escolha da parcela deve ser orientada de forma a minimizar o erro experimental, isto é, as parcelas devem ser o mais uniforme possível, para que, ao serem submetidas a tratamentos diferentes, seus efeitos sejam detectados. O tamanho e a forma ótimos para a parcela serão aqueles que resultem na menor variação entre parcelas dentro do bloco. Em alguns experimentos, deve-se separar as bordaduras, para evitar a influência sobre a parcela dos tratamentos aplicados nas parcelas vizinhas e, neste caso, teremos a área total e a área útil da parcela, utilizando os dados coletados apenas na área útil. Na amostra obtida de cada parcela, devem ser feitas diversas determinações, das quais é obtida uma média para representar o valor observado nessa parcela. Não deve-se confundir as diferentes determinações da mesma amostra de material, com as repetições do experimento. Essa desvantagem é compensada, pois ocorrerá tbm uma redução na soma de quadrados do resíduo e obtemos > precisão, pois há uma redução na variância residual, devida ao fato de isolarmos o efeito de fatores que normalmente seriam incluídos no resíduo. PRINCÍPIOS DA EXPERIMENTAÇÃO 1) Princípio da repetição: consiste na reprodução do experimento básico e tem por finalidade propiciar a obtenção de uma estimativa do erro experimental. 2) Princípio da casualização: tem por finalidade propiciar a todos os tratamentos a mesma probabilidade de serem designados a qualquer unidade experimental. 3) Princípio do controle local: finalidade de dividir um ambiente heterogêneo em sub-ambientes homogêneos e tornar o delineamento experimental mais eficiente, pela redução do erro experimental. Análise de variância: consiste na decomposição dos graus de liberdade e da variância total de um material heterogêneo em partes atribuídas a causas conhecidas e independentes e a uma porção residual de origem desconhecida e de natureza aleatória. Permite a partição dos graus de liberdade e das somas de quadrados, sendo que cada uma das partes nos proporciona uma estimativa de variância. Para podermos utilizar a metodologia estatística nos resultados de um experimento, é necessário que o mesmo tenha considerado pelo menos os princípios da repetição e da casualização, a fim de que possamos obter uma estimativa válida para o erro experimental, permitindo-nos a aplicação dos testes de significância. Ao fazer um experimento considerando apenas esses dois princípios, sem utilizar o princípio do controle local, temos o delineamento inteiramente casualizado. Nesse delineamento, deve ser utilizado apenas quando tivermos certeza da homogeneidade das condições experimentais, as parcelas que receberão cada um dos tratamentos são determinadas de forma inteiramente casual, por sorteio. Há apenas duas causas ou fontes de variação, que são Tratamentos (fator controlado) e Resíduo ou Erro (fator não controlado, aleatório). Se as condições forem sabidamente heterogêneas, ou se houver dúvida quanto à sua homogeneidade, devemos utilizar o princípio do controle local, estabelecendo, então os blocos, que são agrupados em parcelas homogêneas, o delineamento é denominado de delineamento em blocos casualizados ou em blocos ao caso. Neste caso, deve-se isolar mais uma causa de variação conhecida (fator controlado), que são os blocos. Como cada bloco deve conter todos os tratamentos, há uma restrição na casualização, que deve ser feita designando os tratamentos às parcelas dentro de cada bloco. As parcelas dentro de cada bloco devem ser o mais homogêneas possível, podendo existir heterogeneidade de um bloco para outro. A utilização do princípio do controle local sempre nos conduz a uma redução no número de graus de liberdade do resíduo. Se as condições experimentais forem muito heterogêneas, obrigando a controlar dois tipos de heterogeneidade, deve-se nos utilizar de um delineamento que exagera no controle local e que é denominado de delineamento em quadrado latino. O número de repetições deve ser = ao no de tratamentos e no de parcelas deve ser um quadrado perfeito. AUMENTO DA PRECISÃO A precisão se refere à ordem de grandeza da diferença entre dois tratamentos passível de ser detectada em um experimento. Os procedimentos que podem levar ao aumento da precisão são: escolha do material experimental, seleção das unidades experimentais, seleção dos tratamentos, aumento do número de repetições, agrupamento das u.e. e técnicas mais refinadas. Planejamento de um experimento: Quais as características que serão analisadas? Quais os fatores que afetam essas características? Quais desses fatores serão estudados no experimento? Como será a unidade experimental? Quantas repetições deverão ser utilizadas? Estrutura: título; responsável e colaboradores; objetivos; histórico; material e métodos (localização, materiais, tratamentos, tipo de delineamento); tempo de execução provável; orçamento. Relatório: planejamento experimental; dados gerais; tratos culturais; dados das parcelas; análise de variância e conclusões. TESTES DE SIGNIFICÂNCIA Um dos principais objetivos da Estatística é a tomada de decisões a respeito da população, com base na observação de amostras. Ao tentar tomar decisões, é conveniente a formulação de hipóteses relativas à população. Hipóteses estatísticas são considerações a respeito das distribuições de probabilidade das populações. Formula-se a hipótese de que não existem diferenças entre os efeitos dos tratamentos (qualquer diferença observada é devido aos fatores não controlados ou acaso). Essa hipótese inicial é denominada hipótese de nulidade (H0). Admitindo essa hipótese como verdade, se verificadoque os resultados obtidos em uma amostra diferem acentuadamente dos esperados para essa hipótese, com base na teoria das probabilidades, pode- se concluir que as diferenças observadas são significativas, e rejeita-se H0 em favor de outra, denominada de hipótese alternativa (Ha). Os processos que nos permitem decidir se aceitamos ou rejeitamos uma determinada hipótese são denominados de testes de hipóteses ou de testes de significância. Porém, ao tomar a decisão de rejeitar ou aceitar uma hipótese, estamos sujeitos a incorrer em um dos erros: Erro do tipo I: rejeitar uma hipótese verdadeira, que deveria ser aceita. Erro do tipo II: aceitar uma hipótese falsa, que deveria ser rejeitada. Esses dois erros estão de tal forma associados que, se diminuirmos a probabilidade de ocorrência de um deles aumentamos a probabilidade de ocorrência do outro. De modo geral, controlamos apenas o erro do tipo I, através do nível de significância do teste (α, consiste na probabilidade máxima com que nos sujeitamos a correr o risco de cometer um erro do tipo I ao testar uma hipótese dada). 5% (α = 0,05) indica que tem 5 possibilidades em 100 de rejeitar a hipótese quando ela deveria ser aceita, ou seja, confiança de 95% de ter tomado a decisão correta. A confiança de ter tomado a decisão correta ao rejeitar a hipótese é denominada de grau de confiança do teste e representada por 1 – α (em %). Teste F para análise de variância Tem a finalidade de comparar estimativas de variância. A estatística F, denominada de razão de variância, é o quociente de duas estimativas de variâncias, supostas independentes e calculadas com n graus de liberdade. 2 2 2 1 s s F = Consideramos s12 > s22, de forma que F > 1, o que caracteriza o teste unilateral. ESTATÍSTICA EXPERIMENTAL TESTES DE SIGNIFICÂNCIA As hipóteses testadas quando aplica-se o teste F: a) H0: σ12 = σ22 As duas populações possuem variâncias iguais, o que equivale admitir que as duas amostras foram retiradas de uma mesma população. b) H1: σ12 > σ22 (teste unilateral) A população 1 possui variância superior à população 2 ou, equivalentemente, q as amostras são provenientes de populações diferentes. Os valores críticos de F são tabelados em função dos números de graus de liberdade das estimativas de variâncias, a diferentes níveis de probabilidade. Sempre que o valor de F calculado igualar ou superar o valor tabelado, devemos rejeitar H0 em favor de Ha e concluímos que pelo menos dois tratamentos possuem efeitos diferentes. Testes de comparações múltiplas Os testes de comparações múltiplas ou testes de comparações de médias, servem como complemento do teste F, para detectar diferenças entre os tratamentos. a) contraste de médias Se tivermos a função linear: Y = f(x) = a1x1 + a2x2 + ...+ anxn. E verificamos que Σai = 0, dizemos que Y constitui um contraste das variáveis x. se em lugar de x, tivermos médias, obteremos um contraste de médias. Numa análise estatística devemos formular aqueles que sejam de maior interesse para o experimentador. Exemplo: Estudo da produção de frutos de abacaxi (t/ha): 1 – abacaxi (0,9 x 0,3 m) – m1 = 53,5 t/ha. 2 – abacaxi (0,8 x 0,3 m) – m2 = 56,5 t/ha. 3 – abacaxi (0,8 x 0,3 m) + amendoim – m3 = 62,0 t/há. 4 – abacaxi (0,8 x 0,3 m) + feijão – m4 = 60,4 t/ha. Verificando os tratamentos, tem-se 2 monocultivos e 2 consórcios: Y1 = m1 + m2 – m3 – m4 Y2 = m1 – m2 Y3 = m3 – m4 De um modo geral não conhecemos as verdadeiras médias, de forma que o verdadeiro valor do contraste também é desconhecido. Conhecendo as estimativas das médias, pode-se calcular as estimativas dos com- trastes. nn mcmcmcY ˆ...ˆˆ ˆ 12211 +++= b) Covariância de dois contrastes Consideremos as duas estimativas de contrastes: nn mamamaY ˆ...ˆˆ ˆ 122111 +++= nn mbmbmbY ˆ...ˆˆ ˆ 122112 +++= Nas quais as médias estimadas foram calculadas c/ r1, r2,..., rn repetições, respectivamente. A estimativa da covariância de contrastes é definida por: )ˆ(ˆ...)ˆ(ˆ)ˆ(ˆ)ˆ,ˆ(ˆ 22211121 nnn mVbamVbamVbaYYVOC +++= Lembrado que: iii rsmV 2)ˆ(ˆ = Frequentemente tem-se s12 = s22 =...= sn2 = s2, logo: n nn r ba r ba r ba YYVOC +++= ...)ˆ,ˆ(ˆ 2 22 1 11 21 Nas análises de variância de delineamentos balancea- dos, todas as médias possuem o mesmo número de repetições, r, e portanto: r s bababaYYVOC nn 2 221121 )...() ˆ,ˆ(ˆ +++= = = n i ii r s ba 1 2 c) Contrastes ortogonais A ortogonalidade entre dois contrastes indica uma inde- pendência entre suas comparações, ou seja, a variação de um contraste é inteiramente independente da varia- ção de outro. A condição necessária para que dois contrastes sejam ortogonais entre si é que a covariância entre eles seja nula. TESTES DE SIGNIFICÂNCIA Observações: 1) Três ou mais contrastes serão ortogonais entre si se eles forem ortogonais dois a dois. 2) Num experimento c/ I tratamentos, podemos formular vários grupos de contrastes ortogonais entre si, porém cada grupo terá apenas (I – 1) contrastes. d) Variância de um contraste Admitindo que todas as médias sejam independentes: )ˆ(ˆ...)ˆ(ˆ)ˆ(ˆ)ˆ,ˆ(ˆ)ˆ(ˆ 22 2 21 2 1 nn mVcmVcmVcYYVOCYV +++== n n n r s c r s c r s cYV 2 2 2 2 22 2 1 2 12 1 ...) ˆ(ˆ +++= Se s12 = s22 =...= sn2 = s2, logo: 2 2 2 2 2 1 2 1 ...)ˆ(ˆ s r c r c r c YV n n +++= Se todas as médias têm mesmo número de repetições: r s c r s cccYV n i in 2 1 2 2 22 2 2 1 )...() ˆ(ˆ = =+++= e) Erro padrão do contraste: é a raiz quadrada positiva da estimativa da variância da estimativa do contraste. )ˆ(ˆ)ˆ( YVYs = Teste t de Student Requisitos básicos: a) os contrastes testados devem ser ortogonais entre si; b) os contrastes devem ser estabelecidos antes de se- rem examinados os dados (na fase de planejamento do experimento). Este teste, que serve para confrontar médias ou grupos de média se utiliza de contrastes de médias. )ˆ( 0ˆ )ˆ(ˆ 0ˆ Ys Y YV Y t − = − = Quando se aplica o teste t a um contraste, geralmente o interesse é verificar se a sua estimativa difere siginica- tivamente de zero (valor que deveria assumir se a hipó- tese H0: as médias ou grupos de médias confrontadas no contraste não diferem entre si, ou H0: m1 = m2 =...= mn, fosse verdadeira). Às vezes existe interesse em se comparar a estimativa do contraste com um valor arbitrário de A ou a compara- ção de uma média com um valor estabelecido. )ˆ( ˆ Ys AY t − = )ˆ( ˆ Ys Am t − = O valor da estatística t deve ser comparado com os valores críticos de t, tabelados em função do número de graus de liberdade associado à variância e do nível de significância do teste. Intervalos de confiança Uma das + importantes aplicações do teste t consiste na determinação de intervalos de confiança p/ parâmetros verdadeiros, com base em suas estimativas. Se tivermos uma média estimada e seu erro padrão podemos calcular um intervalo de confiança: )ˆ(ˆ mstmIC = Onde tα é o valor crítico da tabela ao nível α de probabi- lidade com (n-1) graus de liberdade, e interpretamos que existe uma probabilidade de 100(1-α)% de que o intervalo contenha a verdadeira média m, que nos é desconhecida,ou seja: )ˆ(ˆ)ˆ(ˆ mstmmmstm +− Teste de Scheffé Pode ser aplicado para testar todo e qualquer contraste de médias, mesmo quando sugerido pelos dados. É fre- quentemente utilizado p/ testar contrastes que envolvem grupos de médias. Exige apenas q o teste F da análise de variância para tratamentos seja significativo, pois quando isso ocorre, indica que devemos ter pelo menos um contraste de médias significativo. )ˆ(ˆ)1( YVFIS −= TESTES DE SIGNIFICÂNCIA Onde I é o número de tratamentos do experimento e F é o valor crítico da tabela, ao nível α de probabilidade (geralmente 5%), em função dos números de graus de liberdade de tratamentos e do resíduo. Se o módulo de Y estimado for maior ou igual a S, o contraste é significativo ao nível α de probabilidade. Teste de Tukey Pode ser utilizado para testar todo e qualquer contraste entre 2 médias. Muito versátil, mas não permite compa- rar grupos entre si. O teste tem por base a diferença mínima significativa (DMS) representada por ∆: )ˆ(. msq r s q == Onde q é a amplitude total estudentizada, cujo valor é encontrado em tabelas, em função do no de tratamentos (I) e do número de graus de liberdade do resíduo (n’), geralmente ao nível de 5% de probabilidade; s é o desvio padrão residual (√QMRes); r é o no de repetições das médias confrontadas no contraste. Exige que todas as médias possuam o mesmo número de repetições. Calculado o valor de ∆, calcula-se todas as estimativas dos contrastes entre 2 médias: ki mmY ˆˆ ˆ −= Se o módulo de Y estimado for maior ou igual a ∆, o contraste é significativo ao nível α de probabilidade, indicando que as 2 médias não diferem entre si. Teste de Duncan Exige que as médias sejam colocadas em ordem de- crescente e que todas elas possuam o mesmo número de repetições, para ser exato. Cada contraste testado envolve apenas 2 médias, embora a amplitude do com- traste possa abranger um número maior de médias. Baseia-se na amplitude total mínima significativa: )ˆ(. msz r s zD iii == Onde z é a amplitude total estudentizada, cujo valor é encontrado em tabelas, em função do no de médias abrangidas pelo contraste (i) e do número de graus de liberdade do resíduo (n’), geralmente ao nível de 5% de probabilidade; s é o desvio padrão residual (√QMRes); r é o número de repetições das médias confrontadas no contraste. Se Y estimada for < que D i, o contraste é não significa- tivo, indicando que não se deve rejeitar H0. Se Y estimada ≥ Di, o contraste é significativo, indican- do que se deve rejeitar H0. Teste de Dunnett Utilizado quando as únicas comparações q interessam ao experimento são aquelas feitas entre um determina- do tratamento padrão, geralmente a testemunha, e cada um dos demais tratamentos. Aplicação do teste: a) calcular a estimativa de cada contraste; b) calcular a estimativa de variância da estimativa de cada contraste; c) calcular o erro padrão do contraste; d) calcular o valor do teste: )ˆ(Ystd d = Onde td é o valor dado na tabela para uso no teste de Dunnett (5% e 1%) em função do número de graus de liberdade de tratamentos (I-1) e do número de graus de liberdade do resíduo. e) comparar cada estimativa de contraste, em valor absoluto, com o valor de d’: Todo Y estimado ≥ d’ será significativo, indicando que a média da testemunha difere significativamente da média do tratamento com ela comparado. Todo Y < d’ será não significativo e as médias desse contraste não diferem entre si. f) indicar a significância do teste no valor da estimativa do contraste. ESTATÍSTICA EXPERIMENTAL DELINEAMENTO INTEIRAMENTE CASUALIZADO Características: a) utiliza apenas os princípios da repetição e da casuali- zação, deixando de lado o princípio de controle local e, portanto as repetições não são organizadas em blocos; b) os tratamentos são designados às parcelas de forma inteiramente casual, com números iguais ou diferentes de repetições por tratamentos. Para a instalação desses experimentos no campo, deve se ter certeza da homogeneidade das condições ambi- entais e do material experimental. Vantagens: a) é um delineamento bastante flexível, visto que o no de tratamentos e de repetições depende apenas do número de parcelas disponíveis; b) o número de repetições pode ser diferente de um tratamento para outro, embora o ideal seja que eles apresentem-se igualmente repetidos; c) a análise estatística é simples, mesmo quando o número de repetições por tratamento é variável; d) o número de graus de liberdade para o resíduo é o maior possível. Desvantagens: a) exige homogeneidade total das condições experimen- tais; b) pode conduzir a uma estimativa de variância residual bastante alta, uma vez que, não se utilizando o princípio do controle local, todas as variações, exceto as devidas a tratamentos, são consideradas como variação do acaso. Modelo estatístico: xij = m + ti + eij Onde xij é o valor observado na parcela que recebeu o tratamento i na repetição j; m é a média da população; t i é o efeito do tratamento i aplicado na parcela; eij é o efeito dos fatores não controlados na parcela. As hipóteses básicas que devem ser admitidas para a validade da análise de variância são: a) aditividade: os efeitos dos fatores que ocorrem no modelo devem ser aditivos. b) independência: os erros ou desvios eij, devidos ao efeito de fatores não controlados, devem ser indepen- dentes, ou seja, que não haja correlação entre eles. Isto pode não ocorrer quando os tratamentos são doses crescentes de adubos, inseticidas, etc. ocasião em que a análise de variância deve ser feita estudando-se a regressão. c) homocedasticidade: os erros ou desvios eij devidos ao efeito de fatores não controlados, devem possuir uma variância comum. Isto significa que a variabilidade das repetições de um trata-mento deve ser semelhante à dos outros tratamentos, isto é, os tratamentos devem possuir variâncias homogêneas. d) normalidade: os erros ou desvios eij devidos ao efeito de fatores não controlados, devem possuir uma distribuição normal de probabilidade. Isto implica que os dados experimentais se ajustem a uma distribuição normal de probabilidade. Uma ou mais dessas hipóteses básicas podem não ser constatadas e, então antes de se proceder à análise de variância, os dados experimentais devem ser transfor- mados, de tal forma que as suposições básicas sejam atendidas. Quando não há homocedasticidade verifica-se a hetero- cedasticidade: - heterocedasticidade irregular: ocorre quando certos tratamentos apresentam maior variabilidade que outros. - heterocedasticidade regular: ocorre devido à falta de normalidade dos dados experimentais, existindo fre- quentemente certa relação entre a média e a variância dos diversos tratamentos testados. Um dos testes mais utilizados para verificação da homo- cedasticidade é o teste de Hartley ou teste da razão máxima. DELINEAMENTO INTEIRAMENTE CASUALIZADO Calcula-se as estimativas de variância dos diferentes grupos e o teste: 2 min 2 max s s H c = Onde smax2 é a maior variância e smin2 a menor. E com- para seu valor com os valores críticos de H(g, r-1)α’. Constatada a heterocedasticidade deve-se verificar se é regular ou irregular. Se regular, deve-se buscar uma transformação tal que os dados passem a apresentar uma distribuição aproximadamente normal. a) Transformação de raiz quadrada √x: para dados de contagem, que geralmente seguem a distribuiçãode Poisson, na qual a média é igual à variância. Quando ocorrem zeros ou valores a baixo as transfor- mações recomendadas são: √x+0,5 ou √x+1. b) Transformação angular arcsen √x/100: para dados expressos em porcentagens, que geralmente seguem uma distribuição binomial. Desnecessária se as % esti- verem todas na faixa de 30 a 70% e se resultantes da divisão dos valores observados nas parcelas por uma constante. c) Transformação logarítmica log(x) ou ln(x): quando é constatada certa proporcionalidade entre as médias e os desvios padrões dos diversos tratamentos. Verificada a necessidade de transformação, os dados serão transformados e toda a análise estatística deve ser feita com os dados transformados. Se a heterocedasticidade for irregular, para eliminá-la pode-se simplesmente eliminar os tratamentos discre- pantes ou caso isto não seja possível ou recomendável, subdividi-los em grupos e testá-los separadamente, através de resíduos apropriados a cada grupo. Análise de variância do experimento I = tratamentos, J = repetições. IJ x C I i J j ij 2 1 1 = = = PLANTIO
Compartilhar