Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE FEDERAL DO PARANÁ DEPARTAMENTO DE ESTATÍSTICA Nota Metodológica sobre Modelos Lineares Mistos Professor Jomar Antonio Camarinha Filho CURITIBA - PARANÁ SETEMBRO/2003 Modelos Mistos i ÍNDICE MODELOS LINEARES MISTOS ...............................................................................................................................1 1. INTRODUÇÃO.............................................................................................................................................................1 2. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................3 3. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5 3.1 ALGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7 3.2. ALGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS...................................................... 9 4. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................11 5. TESTES DE HIPÓTESES .......................................................................................................................................13 5.1. EFEITOS FIXOS....................................................................................................................................................... 13 5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 15 6. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16 6.1. DADOS BALANCEADOS................................................................................................................................ 16 6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17 6.2.1 - MÉTODO ANOVA.....................................................................................................................................18 6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18 6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19 6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20 6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23 6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25 6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26 6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27 6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27 BIBLIOGRAFIA.............................................................................................................................................................28 Modelos Misto Prof. Jomar 1 MODELOS MISTOS 1. Introdução Um modelo linear que apresenta somente fatores de efeitos fixos, além do erro experimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo já foi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos e aplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatiza dados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dados balanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros. Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constante m, que é sempre fixa, é denominado modelo aleatório. Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como aleatórios, além do erro experimental e da constante m. Quando um modelo é considerado misto, sua análise de variância apresenta algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses, (HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes de variância, métodos adequados devem ser utilizados (HENDERSON,1953; CUNNINGHAM e HENDERSON, 1968; THOMPSON,1969; PATERSSON e THOMPSON,1971). Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear unbiased prediction) que são de grande valia em genética e melhoramentos. Para melhor compreensão das definições acima, considere o seguinte exemplo: Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e), em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelo para análise deste experimento pode ser: ijkjiijk ey +g+b+m= no qual, Modelos Misto Prof. Jomar 2 yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no local j; m é uma constante inerente a todas as observações; b i é o efeito do híbrido i; gj é o efeito do local j; eijk é o erro aleatório associado a observação yijk . Supõem-se que b i e gj são independentes. Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis e locais com três níveis. Os efeitos desses fatores podem ser classificados como fixos ou aleatórios, em função do interesse do pesquisador. Se um determinado fator é considerado de efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipóteses sobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fator seja considerado aleatório, o interesse residirá na estimação de componentes de variâncias e covariâncias associada a esse fator, uma vez que seus níveis são considerados como sendo uma amostra aleatória de certa população, a qual se deseja avaliar. No intuito de ilustrar melhor esses conceitos, considere as seguintes situações referentes ao experimento em questão: i) O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor produtividade. Note que ele está interessado apenas nos três locais estudados, e quer saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo, sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis deste fator, como por exemplo: b1 - b2 = 0 (se estimável). ii) Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado apenas em verificar se existe uma variabilidade entre os locais, em relação à produção de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o efeito de locais é considerado aleatório, não havendo portanto interesse em se testar combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por meio de seus componentes de variância). No exemplo anterior, suponha que o pesquisador esteja interessado em verificar qual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em Modelos MistoProf. Jomar 3 relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridos fixo e locais aleatório. 2. Derivação das equações de modelos mistos Seja o modelo: ijkjiijk ey +g+b+m= , no qual ijky é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao nível j de uma fonte de efeitos aleatórios; m é uma constante inerente a todas observações; ib é o efeito do nível i do fator fixo; i = 1, ..., p; jg é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q; ijke é erro aleatório associado a observação ijky . Que em termos matriciais pode ser escrito como: eZXy +g+b= em que, ny1 é o vetor de observações; nXp+1 é a matriz de incidência dos efeitos fixos (conhecida); p+1b1 é o vetor de efeitos fixos desconhecidos; nZq é a matriz de incidência dos efeitos aleatórios (conhecida); qg1 é o vetor de efeitos aleatórios desconhecidos; ne1 é o vetor de erros aleatórios. Assumindo-se que os efeitos aleatórios e os erros (resíduos) têm distribuição normal com média zero e são não correlacionados, com matrizes de variâncias e covariâncias dadas por: Var (g) = E(gg’) = D e Modelos Misto Prof. Jomar 4 Var (e) = E(ee’) = R Deste modo, tem-se que: V = Var (y) = Var ( eZX +g+b ) = ZDZ’+ R Assume-se ainda que V é não singular, e E(y) = E( eZX +g+b ) = Xb , assim, )R'ZDZ;X(N~y +b A derivação das equações de modelos mistos pode ser feita pela minimização da soma de quadrados dos resíduos ou pela maximização da função densidade de probabilidade conjunta de y e g. Aqui será adotada a segunda forma, considerando que a distribuição seja normal. A função densidade de probabilidade de y é dada por: ( ) [ ] ( )( ) ( )[ ]b-+b- -- +p =g xYR'ZDZ'Xy 2/12/n 1 2 1 e R'ZDZ)2( 1 ,yf A função densidade de probabilidade conjunta de y e g pode ser escrita como o produto entre a função densidade condicional de y, dado g, e a função densidade de probabilidade de g. )(f)/y(f),y(f g×g=g [ ] [ ])0()D()'0()ZXy()R()'ZXy( 121 2 1 2 1 1 2 1 2 1 2 n e ]D[)2( 1 e ]R[)2( 1 ),y(f -g-g-g-b-g-b-- -- p × p =g Para se proceder à maximização de f(y,g), pode-se usar o artifício da transformação por logaritmo. Isso é possível, visto que, sendo f(y,g) e log [f(y,g)] funções contínuas e crescentes no espaço R+, seus pontos de máximo são coincidentes dentro do espaço de [b’g’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,g)], tem-se: Modelos Misto Prof. Jomar 5 )D'ZR'Z'XR'X' ZR'X'2ZR'y2XR'y2yR'y( 2 1 )DlogR(log 2 1 )2log(n2 2 1 L 111 1111 gg+gg+bb+ gb+g-b--+-p= --- ---- Derivando-se L em relação a b e g, e tornando-se tais derivadas identicamente nulas, obtêm-se: ú û ù ê ë é= ú ú û ù ê ê ë é g+g+b+- g+b+- = ú ú ú ú û ù ê ê ê ê ë é g¶ ¶ b¶ ¶ ---- --- 0 0 ˆDˆZR'ZXR'ZyR'Z ˆZR'XXR'XyR'X L L 11o11 1o11 ú ú û ù ê ê ë é = ú ú û ù ê ê ë é g+g+b- g+b - - --- -- yR'Z yR'X ˆDˆZR'ZXR'Z ˆZR'XXR'X 1 1 11o1 1o1 ú ú û ù ê ê ë é =ú û ù ê ë é g b ú ú û ù ê ê ë é +g- - - --- -- yR'Z yR'X ˆDˆZR'ZXR'Z ZR'XXR'X 1 1o 111 11 Essas são as equações de modelos mistos (MME), que permitem obter soluções para os efeitos fixos (bo) e predições para os efeitos aleatórios ( gˆ ) 3. Soluções para os efeitos fixos e predições dos efeitos aleatórios A solução do sistema de equações de modelos mistos pode ser obtida por absorção ou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão: { } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o ------------- +-+-=b )Xy(R'Z)DZR'Z(ˆ o1111 b-+=g ---- . Modelos Misto Prof. Jomar 6 Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de um modelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir: Dado o modelo eZXy +g+b= , anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equações normais generalizada é dado por: yV'XXV'X 1o1 -- =b , cuja solução é: yV'X)XV'X( 11o ---=b e a predição de g seria obtida por: )Xy(V'DZˆ o1 b-=g - V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1 Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, que envolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igual ao número de observações, que muitas das vezes, principalmente na área de melhoramento genético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmente assume a forma Ins2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples. Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil. Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1 pode ser facilmente obtida por 10RI -Ä , onde R0 é a matriz de variância e covariância residual q x q, entre as q médias que compõem uma observação. D-1 por 1o 1 DA -- Ä , em que Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas q medidas que compõem uma observação, e A é a matriz de correlação, n x n, entre os efeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples, como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem Modelos Misto Prof. Jomar 7 algoritmos eficientes para obtenção direta de A-1 (HENDERSON, 1975; 1976 e 1988; QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, a despeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativos com a vantagem de rápida convergência em razão da dominância dos elementos da diagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada, elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usam iteração em blocos garantem a rápida convergência, porque os elementos dominantes passarão a estar nos blocos (QUAAS e POLLAK, 1980). 3.1 Algumas propriedades das soluções para os efeitos fixos a) A solução bo, obtida pelas MME é também uma solução de Mínimos Quadrados Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios. Prova: Foi visto que uma solução de mínimos quadrados generalizados para y = Xb + e é: yV'X)XV'X( 11o ---=b . Das equações de modelos mistos (MME), ú ú û ù ê ê ë é =ú û ù ê ë é g b ú ú û ù ê ê ë é +g- - - --- -- yR'Z yR'X ˆDˆZR'ZXR'Z ZR'XXR'X 1 1o 111 11 , tem-se que: { } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o ------------- +-+-=b )Xy(R'Z)DZR'Z(ˆ o1111 b-+=g ---- , substituindo gˆ em: yR'XˆZR'XXR'X 11o1 --- =g+b , Modelos Misto Prof. Jomar 8 tem-se: yR'X)Xy(R'Z)DZR'Z(ZR'XXR'X 1o11111o1 ------- =b-++b yR'XXR'Z)DZR'Z(ZR'XyR'Z)DZR'Z(ZR'XXR'X 1o1111111111o1 ------------ =b+-++b y]R'Z)DZR'Z(ZR'XR'X[]XR'Z)DZR'Z(ZR'XXR'X[ 111111o111111 ------------ +-=b+- y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X111111o111111 ------------ +-=b+- y]R'Z)DZR'Z(ZRR['X}X]R'Z)DZR'Z(ZRR['X{ 111111111111o ------------- +-+-=b sabendo-se que 1111111 R'Z)DZR'Z(ZRRV ------- +-= , (HENDERSON et all, 1959) então, yV'X)XV'X( 11o ---=b b) A variância de bo e dada por: ]yV'X)XV'X[(Var)(Var 11o ---=b . = (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)- = (X’V-1X)-X’V-1VV-1X(X’V-1X)- = (X’V-1X)-X’V-1X(X’V-1X)- Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversa generalizada também simétrica, leva à igualdade (SEARLE, 1971): = (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- , Modelos Misto Prof. Jomar 9 e assim, --=b )XV'X()(Var 1o = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X}- = [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-. c) Para um dado conjunto p de funções estimáveis, linearmente independentes, estabelecidas por uma matriz conhecida l, a variância de l’bo, (BLUE) de l’b é dada por: Var (l’bo) = l’Var (bo) l = l’ [(X’V-1X)-X’V-1X(X’V-1X)-] l = l’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- l . 3.2. Algumas propriedades da predição para os efeitos aleatórios a) O preditor gˆ é o Melhor Preditor Linear Não-Viesado (BLUP) de g. Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios e a Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultado da regressão dos efeitos de um fator aleatório (g) em função das observações (y) corrigidas para os efeitos dos fatores fixos (Xb), como dado na seguinte expressão; gˆ = DZ’(ZDZ’ + R)-1(y - Xbo) = DZ’V-1(y - Xbo) Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressão de g em função de y, uma vez que DZ’ é a matriz de covariâncias entre g e y. (ZDZ’ + R)-1 Modelos Misto Prof. Jomar 10 é a inversa da matriz de variância de y, enquanto o termo (y - Xbo) contém os valores das observações, y, corrigidas para os efeitos fixos Xb . Pelas MME, gˆ é dado por gˆ = (Z’R-1Z + D-1)-1Z’R-1(y - Xbo). Então, se a igualdade: DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1 for verdadeira, gˆ , obtido pelas MME, é o BLUP de g. A prova desta igualdade foi apresentada por HENDERSON et all. (1959). b) A variância de gˆ é dada por Var ( gˆ ) = Var [DZ’V-1(y - Xbo)] = DZ’V-1Var(y - Xbo)V-1ZD’ = DZ’V-1[Var(y) - 2Cov(y,bo’X’) + Var (Xbo)] V-1ZD’; mas Cov (y,bo’X’) = Var (Xbo); então, Var( gˆ ) = DZ’V-1[Var(y) - Var (Xbo)] V-1ZD’ = DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’ = DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’ Pode-se notar que a expressão V-1 - V-1 X(X’V-1X)- X’ V-1 é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que Modelos Misto Prof. Jomar 11 [V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xbo obs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1 c) A variância do erro de predição é dada por: Var (g - gˆ ) = Var (g ) - 2 Cov (g, gˆ ’) + Var( gˆ ), mas, Cov (g, gˆ ’) = Var( gˆ ), então, Var (g - gˆ ) = Var (g ) - Var( gˆ ) = D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’ d) A correlação entre os valores reais e preditos é máxima. Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que gera predições não viciadas, o BLUP maximiza a correlação (g - gˆ ) . 4. Esperanças matemáticas dos quadrados médios Dado o modelo: y = Xb + e, com Var(y) = V, tem-se que a esperança de uma forma quadrática y’Qy é dada por: E(y’Qy) = tr (QV) + E(y’)QE(y). SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma forma quadrática para modelos mistos, como mostrado a seguir Dado o modelo misto: Y=Xq + e, Modelos Misto Prof. Jomar 12 Em que q’ = [b’1 g’A g’B ... g’k ] No qual, b’1 contém todos os efeitos fixos do modelo, inclusive a constante (m) g’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente, este modelo pode ser escrito na forma: y = X1b1 + XA gA + XB gB ... XK gk + e eXXy k Ai ii11 +g+b= å = Assumindo-se que os efeitos do modelo são independentes, com média zero e covariâncias entre os efeitos aleatórios nulas, tem-se que: E(y) = X1b1 V = Var(y) = 2 k Ai |' iii IX)(VarX s+gå = Assumindo-se que os efeitos aleatórios são não correlacionados e têm variâncias uniformes ( 2is ), então, V = Var(y) = 2 k Ai 2 i |' ii IXX s+så = , E a esperança matemática de uma forma quadrática y’Qy é; E(y’Qy) = (X1b)’QX1b + )Q(tr)XX(tr 2 k Ai |' ii 2 i s+så = A partir da expressão acima, torna-se possível a obtenção das esperanças matemáticas dos quadrados médios, que são de grande valia na determinação dos Modelos Misto Prof. Jomar 13 testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nos modelos mistos. 5. Testes de hipóteses Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios, pode-se facilmente identificar os quadrados médios dos denominadores (testadores), quando da realização do teste F. Uma vez que a esperança do quadrado médio do denominador apropriado deve ser aproximadamente igual à esperança do quadrado médio do numerador, a menos do efeito a ser testado, como exemplificado a seguir: F. V. E (QM) A 2 A 2 AB 2 7143,1 f+s+s B 2 B 2 AB 2 6526,27684,1 s+s+s A*B 2 AB 2 7143,1 s+s Resíduo 2s Para se testar 2Af = 0 o denominador apropriado será o QM (A*B). Para se testar se 02AB =s o denominador adequado será o QMRes. Outras alternativas são: 5.1. Efeitos fixos Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelo misto, considera-se as combinações lineares estimáveis da seguinte forma: ú û ù ê ë é g b L . Funções dessa natureza são ditas estimáveis se a parte fixa b satisfaz a exigência de estimabilidade, uma vez que qualquer combinação linear de g é estimável. Tipicamente, Modelos Misto Prof. Jomar 14 inferência sobre efeitos fixos é o foco e neste caso, a porção g de L é assumida igual a zero. Inferências estatísticas são obtidas para testar as hipóteses: f=ú û ù ê ë é g b L:H ou para a construção de intervalos estimados. Quando L consiste de apenas uma linha, uma estatística t pode ser construída como segue: 'LCˆL ˆ ˆ L t ú û ù ê ë é g b = Sob a pressuposição de normalidade de g e e , t tem uma distribuição t exata somente para dados exibindo certos tipos de balanceamento e para alguns casos especiais desbalanceados. Em geral t é somente aproximadamente distribuída e seus graus de liberdade devem ser estimados. Se considerarmos nˆ como graus de liberdade estimado, o intervalo de confiança associado é o seguinte: 'LCˆLt ˆ ˆ L 2/,ˆ an±ú û ù ê ë é g b , em que, 2/,ˆt an é o percentil (1 - a/2)% da distribuição nˆt . Quando o rank de L é maior que 1, deve-se considerar a seguinte estatística F : ( ) )L(rank ˆ ˆ LLCˆ'L'L ˆ ˆ F 1 ' ú û ù ê ë é g b ú û ù ê ë é g b = - Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus deliberdade no numerador e nˆ graus de liberdade no denominador. As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimados para o modelo de variância e covariância selecionado. Uma alternativa é a estatística 2c associado com o teste da razão de verossimilhança. Essa estatística compara dois modelos com efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamos diferentes modelos covariância, embora deva-se usar ML e não REML por que falta o Modelos Misto Prof. Jomar 15 termo associado com verossimilhança restrita que depende da especificação dos efeitos fixos. 5.2. Efeitos aleatórios Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-se usar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald, que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Os erros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda da verossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Z de Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntos de dados e para parâmetros tais como componentes de variância, que apresentam uma distribuição assimétrica ou distribuição amostral limite. Uma alternativa melhor é a razão de verossimilhança 2c . Essa estatística compara dois modelos de covariância, um como caso especial do outro. Para realizar esse teste, ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valores correspondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML para construir esta estatística que testa se o modelo completo é melhor do que o modelo reduzido. A estatística 2c calculada desta forma tem uma distribuição amostral, que é 2c , sendo que os graus de liberdade são dados pela diferença no número de parâmetros entre os dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se um componente de variância é igual a 0. Uma possibilidade final para obter inferências relativas aos parâmetros de covariância é simular ou reamostrar dados do modelo e construir distribuições amostrais empíricas dos parâmetros. Modelos Misto Prof. Jomar 16 6. Estimação de componentes de variâncias Componentes de variância são as variâncias associadas aos efeitos aleatórios de um modelo, sendo que o seu conhecimento é de grande importância em genética e melhoramento, pois a população e o método de melhoramento a serem utilizados dependem de algumas informações que podem ser obtidas a partir desses componentes. No caso de modelos mistos, a solução das MME, depende do conhecimento da matriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seus componentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas. Existem vários métodos de estimação de componentes de variâncias, dentre os quais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson, MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima Verossimilhança Restrita (REML). Considerando-se que a estimação dos componentes de variância é um tópico muito extenso e complexo para um relato completo e detalhado, optou-se por apresentar nesse trabalho um breve levantamento dos métodos disponíveis na literatura. Começando com dados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitas metodologias para o tratamento de dados desbalanceados. Para um estudo mais aprofundado recomenda-se SEARLE (1992). 6.1. DADOS BALANCEADOS A estimação dos componentes de variância para dados balanceados é quase sempre feita pelo método da análise de variância, ANOVA. Esse método obtêm estimadores igualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise de variância aos seus respectivo valores esperados, que são combinações lineares dos componentes de variância. Portanto, esse método produz equações lineares dos componentes de variância, cujas soluções são tomadas como os estimadores dos referidos componentes. A aplicação do método ANOVA para dados balanceado, para qualquer modelo é direta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Em quase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da Modelos Misto Prof. Jomar 17 distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias já mencionadas é exigida. Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesados e têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse método não exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa de um parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, isso pode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedades dos estimadores são apresentadas em SEARLE (l971 e 1987). 6.2. DADOS DESBALANCEADOS O principal problema com a estimação dos componentes de variância para dados desbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolher um deles pode não ser uma questão tão simples. Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar os recursos da área de informática, a escolha prática tem estado entre um dos dois métodos fundamentados na máxima verossimilhança, até que ocorra maior aceitação de outras metodologias. Serão apresentados, resumidamente, os seguintes métodos: *ANOVA Análise de Variância *Método de Henderson I *Método de Henderson II *Método de Henderson III *ML: Máxima Verossimilhança *REML: Máxima Verossimilhança Restrita *MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima *MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima * I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo Modelos Misto Prof. Jomar 18 6.2.1 - MÉTODO ANOVA O princípio do método ANOVA usado com dados balanceados pode ser generalizado para dados desbalanceados. A generalização é usar qualquer forma quadrática em lugar das somas de quadrados. Seja o vetor de componentes de variância que serão estimados e seja q um vetor da mesma ordem de s2, de qualquer forma quadrática linearmente independente das observações. Suponha que q é tal que: E(q) = Cs2 para alguma matriz C não singular, s2 = C-1q é um estimador não-viesado de s2. A matriz de dispersão de 2sˆ é: ( ) ( ) ¢=s -- 112 CqvarCˆvar em que os elementos de var (q) são variâncias e covariâncias das formas quadráticas usadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suas vantagens e desvantagens. 6.2.2 - MÉTODO I DE HENDERSON HENDERSON (1953) descreve três métodos para estimar componentes de variância que são exatamente três diferentes maneiras de usar o método ANOVA geral. Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas de quadrados usadas em q. Os métodos podem produzir estimativas negativas. No método I, as formas quadráticas usadas são análogas às somas de quadrados usadas para dados balanceados, a analogia é tal que somas de quadrados em dados balanceados se tornam, para dados não balanceados, emformas quadráticas que não são necessariamente, somas de quadrados, pois nem sempre são não negetivas, devido à estrutura não balanceada dos dados. Assim, por exemplo, para o modelo: ijkijjiijky e+g+b+a+m= com i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados, Modelos Misto Prof. Jomar 19 ( ) 22 i 2 i i yIJyJnyynJ i ·········· -=- åå se tornam, para dados desbalanceados, ( ) 22 i i 2 i i i ynynyyn i ·············· -=- åå O Método I de Henderson utiliza o lado direito dessa equação. A soma de quadrados para a interação, para dados balanceados é ( )å åå ååå ················· +--=+-- i i j 2 j 2 i 22 j 2 jiijij yIJnyInyJnynyyyyn jiij A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada pelo Método I de Henderson é: åå å å ············ +-- i j i j 22 jj 2 ii 2 ijij ynynynyn O método I de Henderson consiste em igualar os quadrados médios às suas esperanças matemáticas e resolver o sistema de equações formado. Esse método fornece estimativas não-viesadas, com variância mínima, quando os dados são balanceados ou o modelo é aleatório e os efeitos não correlacionados. O método I de Henderson não pode ser usado para modelos mistos. Pode ser adaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como não existentes ou como aleatórios, neste caso os estimadores dos componentes de variância dos verdadeiros efeitos aleatórios são não-viesados. 6.2.3 - MÉTODO II DE HENDERSON O Método II de Henderson, é projetado para ter a facilidade computacional do Método I e ampliar seu uso removendo a limitação do método I, que não pode ser usado para modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que os efeitos aleatórios são fixados, e para o modelo y = Xb + Zg + e como anteriormente definido, resolve as equações normais: ú û ù ê ë é ¢ ¢ =ú û ù ê ë é g b ú û ù ê ë é ¢¢ ¢¢ yZ yX ˆ ºˆ ZZXZ ZXXX Modelos Misto Prof. Jomar 20 para bº. Então considera o vetor de dados ajustado para bº, isto é z = y - Xbº. Sob certas condições, SEARLE (1968), o modelo para z será: z = lmº + Zg + Ke em que mº difere de m e K é conhecido. Então aplica-se o Método I para z. Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, os efeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadores resultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dos fatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE (l968) fazendo estudo dos métodos de Henderson, mostrou as condições que deve satisfazer um estimador dos efeitos fixos para que os resíduos não dependam desses efeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma única solução e outra limitação consiste em não poder adotar modelos que incluam interações entre os efeitos fixos e aleatórios (SEARLE, 1968). 6.2.4 - MÉTODO III DE HENDERSON O Método III de Henderson, também chamado método de ajuste de constantes, usa as reduções nas somas de quadrados do modelo completo e de submodelos para estimar os componentes de variância. Para deduzir o método, considere o modelo y = Xbº + Zg + e = Wq + e A matriz W pode ser particionada como [W1½W2], e q' pode ser particionada como [ ]21 q¢q¢ de acordo com W, ou seja o modelo é rescrito como: y = W1q1 + W2q2 + e Note que nenhuma suposição é feita sobre o particionamento de W e q no que se refere a efeitos fixos ou aleatórios. Chamando R(q1,q2) e R(q1), respectivamente, às respectivas reduções nas somas de quadrados do modelo completo e do submodelo y = W1q1 +e, tem-se: Modelos Misto Prof. Jomar 21 R(q1½q2) = R(q1,q2) - R(q1) e portanto E[R(q1½q2) = E[R(q1,q2)] - E[R(q1)] Mas R(q1,q2) = y'W(W'W)-W'y e R(q1) = y'W1(W1'W1)-W1y Isto é, R(q1,q2) e R(q1) são formas quadráticas de y, e tem-se: E[R(q1,q2)] = E[y'W(W'W)-W'y] = tr[W(W'W)-W'var(y)] + E(y')W(W'W)-W'E(y) Mas, E(y) = E(Wq + e) = WE(q) e var(y) = (Wq + e) = Wvar(q)W' + 2es I Logo: E[R(q1,q2)] = tr[W(W'W)-W'Wvar(q)W' + W(W'W)-W' 2es I] + E(q')W'W(W'W) -W'WE(q) = tr[W'Wvar(q)] + 2es tr[W(W'W) -W' + E(q')W'WE(q) = tr{W'W[E(qq')-E(q)E(q')]} + 2es tr[W(W'W) -W'] +tr(E(q')W'WE(q)} Portanto, E[R(q1,q2)] = tr{W'WE(qq')} + 2es tr[W(W'W) -W'] ou ( )[ ] ( ) ( )WrE WWWW WWWW tr,RE 2e 1212 2111 21 s+ú û ù ê ë é q¢q÷÷ ø ö çç è æ ¢¢ ¢¢ =qq onde r(W) é o posto da matriz W. De modo análogo: E[R(q1)] = tr{W'W1(W1'W1)-W1'WE(qq')} + 2es tr[W1(W1'W) -W1'] ( )[ ] ( ) ( ) ( )1 2 e 21111212 2111 1 WrEWWWWWWWW WWWW trRE s+ú û ù ê ë é q¢q÷÷ ø ö çç è æ ¢¢¢¢ ¢¢ =q - Portanto R(q2½q1) = R(q1,q2) - R(q1) é dado por: Modelos Misto Prof. Jomar 22 ( )[ ] ( ) ( ) ( ) ( )[ ]1 2 e 211112 12 WrWrEWWWWWW trRE -s+ú û ù ê ë é q¢q÷÷ ø ö çç è æ ¢¢¢f ff =qq - ou E[R(q2½q1)] = tr{W2'[I-W1(W1'W1)-W1']W2E(q2q2')} + 2es [r(W) - r(W1)] Note que [R(q2½q1)] não envolve q1 e portanto E[R(q2½q1)] não depende do vetor de efeitos q1, sejam eles fixos ou aleatórios. Assim, o Método III de Henderson, consiste em encontrar os estimadores para os componentes de variância, montando um sistema de equações a partir das diferenças entre as reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivas esperanças. Para modelos mistos esse método é particularmente vantajoso porque, se tomar o vetor q1 como o vetor dos efeitos fixos e q2 como vetor dos efeitos aleatórios, E[R(q2½q1)] não conterá termos devido a esses efeitos fixos, a esperança é apenas função de 2es e das variâncias dos efeitos aleatórios em q2, ou seja, os próprios componentes que se deseja estimar. Para exemplificar o método, considere o modelo y = m1 + X1a + X2b + X3g + e onde m é uma constante, a é o vetor de efeitos fixos, b e g são os vetores de efeitos aleatórios. Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3] e R(m,a,b ,g) = y'W(W'W)-W'y com r(W) = r Considere os submodelos, dados por: y = m1 + e y = m1 + X1a +e y = m1 + X1a + X2b + e Sejam as reduções correspondentes: ( ) ( ) ( ) Jyy n 1 y1n1yy1111yR 1 ¢=¢¢=¢¢¢=m -- com r(W1) = r(J) = 1 ( ) ( ) yWWWWy,R 1111 ¢¢¢=am com W1 = [1 X1] e r(W1) = q Modelos Misto Prof. Jomar 23 ( ) ( ) yWWWWy,,R 1111 ¢¢¢=bam - com W1= [1 X1 X2] e r(W1) = s Então obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto de equações: Soma de Quadrados Esperanças ( ) ( ) ( ) ( ) ( )am-gbam bam-gbam gbam-= å ,R,,,R ,,R,,,R ,,,RySQE 2 ( ) ( ) ( ) 2e2322 2 e 2 1 2 e qrhh srh rn s-+s+s s-+s s- gb g A partir dessas três equações calcula-se 222 ˆ,ˆ,ˆ gb sss e . Os fatores h1, h2 e h3 são obtidos pela expressão: E[R(q2½q1)] = tr(W2'(I-W1(W1'W1)-W1')W2E(q2q2')) + I 2ˆ es [r(W) - r(W1)] em que, as matrizes W1 e W2são especificadas para cada equação. Não é necessário utilizar a quarta equação dada por R(m,a,b ,g) - R(m) cuja esperança seria ( ) 2e262524 1nhhh s-+s+s+s gba , Pois, supondo-se a como efeito fixo, não se considera a existência de 2ss . O Método III pode ser usado para qualquer modelo misto e produz estimadores que não são viesados. 6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML A estimação por máxima verossimilhança é uma método bem conhecido, originado por Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geral por HARTLEY e RAO (1967) O Método da Máxima Verossimilhança consiste em maximizar a função densidade de probabilidade das observações, em relação aos efeitos fixos e aos componentes de variância. Seja o modelo misto (1), dado por: y = Xb +Zg + e Assumindo que os efeitos aleatórios gi, i = 1, ..., r e e têm distribuição normal com média zero e matrizes de variâncias e covariâncias mi I 2s , ..., i=1, ..., r e ne I 2s , respectivamente, o Modelos Misto Prof. Jomar 24 vetor y terá distribuição normal multivariada, com média Xb e matriz de variâncias e covariâncias, V, ou seja, y ~ N(Xb , V) com: åå == s¢=s+s¢= r 0i 2 lii r 1i 2 e 2 lii ZZIZZV com 2 e 2 0 s=s e Z0=I A função de verossimilhança é: ( ) ( ) ( )12 2 112 exp 2 n L V y X V y Xp b b- - -¢é ù= - - -ê úë û sendo V o determinante da matriz V. Maximizando L em relação aos elementos de b e aos componentes de variância, os 2 s,is que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os estimadores de ML de b e { } rl 0l2l2 ==s=s . Essas equações podem ser escritas como: yV~X~XV~X 11 -- ¢=b¢ e as equações são: ( ) ( ) ( )b-¢b-=¢ --- ~XyV~ZZV~~XyZZV~tr 1ii1ii1 para i = 0, 1, ..., r As equações acima têm de ser resolvidas para 2~e~ sb , os elementos implícitos em V ~ . Claramente essas equações são não lineares nos elementos 2s~ , contudo uma vez obtido os valores 2s,l ~s , eles podem ser usados para obter b~ . Essas equações são resolvidas numericamente, por iteração. Por conveniência escreve-se: P = V-1-V-1X(X'V-1X)-X'V-1 e 2 l r 0l ii 11 zzVVVI s¢== å = -- Assim, o conjunto das r + 1 equações anteriores pode ser descrito como: ( ) ( )yP~ZZP~y~ZZV~ZZV~tr ii2ljj1ii1 ¢¢=s¢¢ -- Modelos Misto Prof. Jomar 25 Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores. Pode-se utilizar um valor inicial para 2s~ em P~eV~ , e resolver as equações acima e repetir o processo até que o critério de convergência seja satisfeito. O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativas não negativas de componentes de variância, mas estas são viesadas porque o método não considera a perda de graus de liberdade resultante da estimação dos efeitos fixos do modelo. 6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML Esse processo é uma variante do processo de máxima verossimilhança, para modelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) para delineamentos em blocos. Os estimadores REML são obtidos maximizando a parte da função de verossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelo misto y = Xb+Zg + e, é invariante para Xb . Ou de outra maneira, os estimadores REML maximizam a função de verossimilhança de um vetor de combinações lineares das observações que são invariantes para Xb . Seja Ly esse vetor. Então Ly = LXb + Lzg + Le é invariante a Xb , se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TM para M = I - X(X'X)-X' e algum T. Claramente, L deve ser de posto linha completo; e assim T também. Portanto rL = rT , e rL £ rM com rM = n - rX. As equações para a estimação REML de s2, para i, j = 0, 1, ..., r são: ( ) ( )yP~ZZP~yZZP~ZZP~tr ii2ljjii ¢¢=s¢¢ Note que essas equações são similares às equações ML, exceto por P~ em vez de 1~-V . No Método da Máxima Verossimilhança Restrita, cada observação é dividida em duas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, de maneira que a função densidade de probabilidade das observações é dada pela soma das funções densidade de probabilidade de cada parte. A maximização da função densidade de probabilidade da parte referente aos efeitos aleatórios, em relação aos componentes de variância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitos fixos do modelo. Modelos Misto Prof. Jomar 26 As equações REML com dados balanceados são idênticas aos estimadores ANOVA que são não-viesados e de variância mínima. O estimador REML leva em conta os graus de liberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores ML não. No caso de dados desbalanceados os estimadores ML e os estimadores REML são viesados SEARLE (1987). Os estimadores ML e REML dos componentes de variância não são formas explicitas, isto é, o estimador de cada componente está em função dos estimadores dos outros componentes, e só podem ser encontrados por métodos numéricos iterativos. 6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA- MINQUE RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado de modo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma forma quadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebra extensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes de variância desconhecidos. A estimação dos componentes de variância pelo método MINQUE, é feita com base na equação MINQUE, a seguir: ( ) ( )yPVPyˆVPVPtr wiw2ljwiw ¢=s sendo sˆ o vetor de componentes de variância. ( ) 1W1W1W1Ww V'XXV'XVVP ----- -= Vw é uma estimativa a priori da matriz de variâncias e covariâncias. Este método tem duas vantagens: não envolve a suposição de normalidade como ML e REML. E as equações de MINQUE têm soluções explícitas (não tem de ser resolvidas iterativamente). Por outro lado, a solução depende do conhecimento a priori dos valores dos componentes de variância a serem estimados, ou seja, depende de valores estimados a priori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativas para um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não “o” estimador MINQUE. Modelos Misto Prof. Jomar 27 Um relacionamento importante, que existe entre REML e MINQUE é que se o valor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativa MINQUE. 6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA - MIVQUE O método MINQUE não exige nenhuma suposição sobre a forma da distribuição da variável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimador MINQUE tem a propriedade de ser uma forma quadrática não-viesada das observações com variância mínima, ou seja, é um estimador quadrático não-viesado de variância mínima, MIVQUE. SEARLE (1987). SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUE concordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0). O estimador MIVQUE(A) usa as equações REML tomando as estimativas ANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valoresa priori devam ser independentes dos dados, a literatura justifica o uso das estimativas ANOVA em decorrência da facilidade de obtenção. O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz de variâncias e covariâncias é a matriz identidade. 6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, uma estimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está envolvida. No entanto, obtida uma solução, por exemplo 1V ~ , existe a idéia de usá-la como uma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser estabelecido e resolvido, produzindo 2V ~ e assim sucessivamente. Isto leva a usar as equações MINQUE iterativamente. Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, as soluções I- MINQUE têm propriedades de normalidade para grandes amostras. Modelos Misto Prof. Jomar 28 Bibliografia BROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance components. The Annals of Statistics,4, p.746-54, 1976. CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed effects and variance components in mixed model situations Biometrics 24:13-25, 1968. GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State, Massachusetts, 1976, __p. HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of variance model. Biometrika, 54, p. 93-108, 1967. HENDERSON,C.R. A simple method for computing the inverse of a numerator relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83, 1976. HENDERSON,C.R. Estimation of variance and covariance components, Biometrics, 17:226-52, 1953 HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J. Dairy Sci.,58(11):1727-30, 1975. HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire joining. J. Anim. Sci.,66:1614-21, 1988. HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The estimation of environmental and genetic trends from records subject to culling. Biometrics 15(6):192-218, 1959. HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt, Rinehart and Winston, 1973. 349p. MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto UFV, Imprensa Universitária, 1993, 46p. NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models, regression, analysis of variance and experimental designs. Richard D. Irwing, Inc. 1985, 1127p. PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block sizes are unequal. Biometrika, 58(3): 545-54, 1971. Modelos Misto Prof. Jomar 29 PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz de Queiroz”, 1998. QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator relationship matrix Biometrics, 32(12):949-53, 1976 QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle testing programs. J.Anim. Sci., 53(6):1277-87, 1980 RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the American Statistical Association, 65, p.161-72, 1970. RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal of Multivariate Analysis, 1, p.257-75, 1971 a. RAO,C.R. Estimation of variance and covariance components in linear models. Journal of Multivariate Analysis, 67, p.112-15, 1972. RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John Wiley & Sons, 1973 __p. RAO,C.R. Minimum variance quadratic unbiased estimation of variance components. Journal of Multivariate Analysis, 1, p.445-56, 1971 b. SEARLE, S.R. Another look at Henderson’s methods of estimating variance components. Biometrics, 24, p. 749-78, 1968. SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p. SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p. SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p. SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE, REML, and ML estimators of variance components. Technometrics, 26, p.47-57, 1984. THOMPSON, R. Iterative estimation of variance components for non-orthogonal data. Biometrics, 26: 767-73, 1969. Modelos Misto Prof. Jomar 30
Compartilhar