Buscar

2003 - Nota metodológica sobre modelos lineares mistos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 32 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE FEDERAL DO PARANÁ
DEPARTAMENTO DE ESTATÍSTICA
Nota Metodológica sobre Modelos Lineares Mistos
Professor Jomar Antonio Camarinha Filho
CURITIBA - PARANÁ
SETEMBRO/2003
Modelos Mistos i
ÍNDICE
MODELOS LINEARES MISTOS ...............................................................................................................................1
1. INTRODUÇÃO.............................................................................................................................................................1
2. DERIVAÇÃO DAS EQUAÇÕES DE MODELOS MISTOS...........................................................................3
3. SOLUÇÕES PARA OS EFEITOS FIXOS E PREDIÇÕES DOS EFEITOS ALEATÓRIOS ...............5
3.1 ALGUMAS PROPRIEDADES DAS SOLUÇÕES PARA OS EFEITOS FIXOS................................................................. 7
3.2. ALGUMAS PROPRIEDADES DA PREDIÇÃO PARA OS EFEITOS ALEATÓRIOS...................................................... 9
4. ESPERANÇAS MATEMÁTICAS DOS QUADRADOS MÉDIOS .............................................................11
5. TESTES DE HIPÓTESES .......................................................................................................................................13
5.1. EFEITOS FIXOS....................................................................................................................................................... 13
5.2. EFEITOS ALEATÓRIOS........................................................................................................................................... 15
6. ESTIMAÇÃO DE COMPONENTES DE VARIÂNCIAS ..............................................................................16
6.1. DADOS BALANCEADOS................................................................................................................................ 16
6.2. DADOS DESBALANCEADOS ....................................................................................................................... 17
6.2.1 - MÉTODO ANOVA.....................................................................................................................................18
6.2.2 - MÉTODO I DE HENDERSON................................................................................................................18
6.2.3 - MÉTODO II DE HENDERSON ..............................................................................................................19
6.2.4 - MÉTODO III DE HENDERSON .............................................................................................................20
6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML.........................................................................23
6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML...............................................25
6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-MINQUE ........................26
6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -MIVQUE ................27
6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE) ...............................................27
BIBLIOGRAFIA.............................................................................................................................................................28
Modelos Misto Prof. Jomar 1
MODELOS MISTOS
1. Introdução
Um modelo linear que apresenta somente fatores de efeitos fixos, além do erro
experimental, que é sempre aleatório, é denominado modelo fixo. Esse tipo de modelo já
foi amplamente estudado, existindo inúmeros livros abordando seus aspectos teóricos e
aplicados, em vários níveis de complexidade, pode-se citar: SEARLE (1971), que enfatiza
dados desbalanceados; RAO (1973), aspectos matemáticos; GRAYBILL (1976), dados
balanceados; NETER, WASSERMAN e KUTNER (1985), dentre outros.
Os modelos que apresentam apenas fatores de efeitos aleatórios, exceto a constante
m, que é sempre fixa, é denominado modelo aleatório.
Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como
aleatórios, além do erro experimental e da constante m.
Quando um modelo é considerado misto, sua análise de variância apresenta
algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados
médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses,
(HICKS, 1973). Caso o interesse do pesquisador resida na estimação dos componentes de
variância, métodos adequados devem ser utilizados (HENDERSON,1953;
CUNNINGHAM e HENDERSON, 1968; THOMPSON,1969; PATERSSON e
THOMPSON,1971).
Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a
predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear
unbiased prediction) que são de grande valia em genética e melhoramentos.
Para melhor compreensão das definições acima, considere o seguinte exemplo:
Suponha um experimento no qual são avaliados 5 híbridos de milho (a, b, c, d, e),
em 3 localidades no delineamento inteiramente casualizado com 4 repetições. Um modelo
para análise deste experimento pode ser:
ijkjiijk ey +g+b+m= no qual,
Modelos Misto Prof. Jomar 2
yijk é o valor observado da parcela que recebeu a k-ésima repetição do tratamento i, no
local j;
m é uma constante inerente a todas as observações;
b i é o efeito do híbrido i;
gj é o efeito do local j;
eijk é o erro aleatório associado a observação yijk .
Supõem-se que b i e gj são independentes.
Neste experimento estão sendo avaliados dois fatores: híbridos com cinco níveis e
locais com três níveis. Os efeitos desses fatores podem ser classificados como fixos ou
aleatórios, em função do interesse do pesquisador. Se um determinado fator é considerado
de efeito fixo, naturalmente, o interesse do pesquisador será estimar e testar hipóteses
sobre combinações lineares dos níveis do mesmo. Por outro lado, caso o efeito desse fator
seja considerado aleatório, o interesse residirá na estimação de componentes de variâncias
e covariâncias associada a esse fator, uma vez que seus níveis são considerados como
sendo uma amostra aleatória de certa população, a qual se deseja avaliar.
No intuito de ilustrar melhor esses conceitos, considere as seguintes situações
referentes ao experimento em questão:
i) O pesquisador deseja inferir qual, dentre os três locais estudados, apresenta melhor
produtividade. Note que ele está interessado apenas nos três locais estudados, e quer
saber qual deles é o melhor. Nesta situação, o efeito de locais é considerado fixo,
sendo então estimadas e testadas hipóteses sobre combinações lineares dos níveis
deste fator, como por exemplo: b1 - b2 = 0 (se estimável).
ii) Uma outra possibilidade a ser considerada é o caso do pesquisador estar interessado
apenas em verificar se existe uma variabilidade entre os locais, em relação à produção
de milho. Neste caso, os níveis estudados (três locais) são apenas uma amostra
aleatória da população de locais nos quais poder-se-ia plantar milho. Nessa situação, o
efeito de locais é considerado aleatório, não havendo portanto interesse em se testar
combinações lineares de seus níveis, mas sim, estimar e testar sua variabilidade (por
meio de seus componentes de variância).
No exemplo anterior, suponha que o pesquisador esteja interessado em verificar
qual o melhor dos híbridos avaliados e se existe uma variabilidade de sua produção em
Modelos MistoProf. Jomar 3
relação ao local onde foi cultivado, nesse caso ter-se-ia um modelo misto com híbridos
fixo e locais aleatório.
2. Derivação das equações de modelos mistos
Seja o modelo:
ijkjiijk ey +g+b+m= ,
no qual
ijky é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao
nível j de uma fonte de efeitos aleatórios;
m é uma constante inerente a todas observações;
ib é o efeito do nível i do fator fixo; i = 1, ..., p;
jg é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q;
ijke é erro aleatório associado a observação ijky .
Que em termos matriciais pode ser escrito como:
eZXy +g+b=
em que,
ny1 é o vetor de observações;
nXp+1 é a matriz de incidência dos efeitos fixos (conhecida);
p+1b1 é o vetor de efeitos fixos desconhecidos;
nZq é a matriz de incidência dos efeitos aleatórios (conhecida);
qg1 é o vetor de efeitos aleatórios desconhecidos;
ne1 é o vetor de erros aleatórios.
Assumindo-se que os efeitos aleatórios e os erros (resíduos) têm distribuição
normal com média zero e são não correlacionados, com matrizes de variâncias e
covariâncias dadas por:
Var (g) = E(gg’) = D e
Modelos Misto Prof. Jomar 4
Var (e) = E(ee’) = R
Deste modo, tem-se que:
V = Var (y) = Var ( eZX +g+b ) = ZDZ’+ R
Assume-se ainda que V é não singular, e
E(y) = E( eZX +g+b ) = Xb ,
assim,
)R'ZDZ;X(N~y +b
A derivação das equações de modelos mistos pode ser feita pela minimização da
soma de quadrados dos resíduos ou pela maximização da função densidade de
probabilidade conjunta de y e g. Aqui será adotada a segunda forma, considerando que a
distribuição seja normal.
A função densidade de probabilidade de y é dada por:
( )
[ ]
( )( ) ( )[ ]b-+b- --
+p
=g xYR'ZDZ'Xy
2/12/n
1
2
1
e
R'ZDZ)2(
1
,yf
A função densidade de probabilidade conjunta de y e g pode ser escrita como o
produto entre a função densidade condicional de y, dado g, e a função densidade de
probabilidade de g.
)(f)/y(f),y(f g×g=g
[ ] [ ])0()D()'0()ZXy()R()'ZXy( 121
2
1
2
1
1
2
1
2
1
2
n
e
]D[)2(
1
e
]R[)2(
1
),y(f -g-g-g-b-g-b--
--
p
×
p
=g
Para se proceder à maximização de f(y,g), pode-se usar o artifício da transformação
por logaritmo. Isso é possível, visto que, sendo f(y,g) e log [f(y,g)] funções contínuas e
crescentes no espaço R+, seus pontos de máximo são coincidentes dentro do espaço de
[b’g’] e ZDZ’+ R. Assim, fazendo-se L= log[f(y,g)], tem-se:
Modelos Misto Prof. Jomar 5
)D'ZR'Z'XR'X'
ZR'X'2ZR'y2XR'y2yR'y(
2
1
)DlogR(log
2
1
)2log(n2
2
1
L
111
1111
gg+gg+bb+
gb+g-b--+-p=
---
----
Derivando-se L em relação a b e g, e tornando-se tais derivadas identicamente
nulas, obtêm-se:
ú
û
ù
ê
ë
é=
ú
ú
û
ù
ê
ê
ë
é
g+g+b+-
g+b+-
=
ú
ú
ú
ú
û
ù
ê
ê
ê
ê
ë
é
g¶
¶
b¶
¶
----
---
0
0
ˆDˆZR'ZXR'ZyR'Z
ˆZR'XXR'XyR'X
L
L
11o11
1o11
ú
ú
û
ù
ê
ê
ë
é
=
ú
ú
û
ù
ê
ê
ë
é
g+g+b-
g+b
-
-
---
--
yR'Z
yR'X
ˆDˆZR'ZXR'Z
ˆZR'XXR'X
1
1
11o1
1o1
ú
ú
û
ù
ê
ê
ë
é
=ú
û
ù
ê
ë
é
g
b
ú
ú
û
ù
ê
ê
ë
é
+g- -
-
---
--
yR'Z
yR'X
ˆDˆZR'ZXR'Z
ZR'XXR'X
1
1o
111
11
Essas são as equações de modelos mistos (MME), que permitem obter soluções
para os efeitos fixos (bo) e predições para os efeitos aleatórios ( gˆ )
3. Soluções para os efeitos fixos e predições dos efeitos
aleatórios
A solução do sistema de equações de modelos mistos pode ser obtida por absorção
ou por obtenção da matriz inversa por partição. Em ambos os casos, os resultados serão:
{ } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o ------------- +-+-=b
)Xy(R'Z)DZR'Z(ˆ o1111 b-+=g ---- .
Modelos Misto Prof. Jomar 6
Outra alternativa para se obter soluções para os efeitos fixos é pelo uso de um
modelo linear generalizado, ignorado-se os efeitos aleatórios, como a seguir:
Dado o modelo
eZXy +g+b= ,
anteriormente descrito, e com Var (y) = ZDZ’+ R, tem-se que o sistema de equações
normais generalizada é dado por:
yV'XXV'X 1o1 -- =b ,
cuja solução é:
yV'X)XV'X( 11o ---=b
e a predição de g seria obtida por:
)Xy(V'DZˆ o1 b-=g -
V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1
Segundo SEARLE (1971), a desvantagem de se utilizar a segunda opção, que
envolve o cálculo de V-1 é de ordem computacional, uma vez que a dimensão de V é igual
ao número de observações, que muitas das vezes, principalmente na área de melhoramento
genético, chega a ser de algumas centenas. No caso de modelos fixos, V usualmente
assume a forma Ins2 ou, é pelo menos diagonal. Nesse caso a obtenção de V-1 é simples.
Mas em geral, V = ZDZ’+R não é diagonal, e deste modo a obtenção de V-1 não é fácil.
Segundo MARTINS et all. (1993), obter R-1Z(Z’R-1Z+D-1)-1Z’R-1 é mais simples. Pois R-1
pode ser facilmente obtida por 10RI
-Ä , onde R0 é a matriz de variância e covariância
residual q x q, entre as q médias que compõem uma observação. D-1 por 1o
1 DA -- Ä , em
que Do é a matriz de variância e covariância, q x q, entre os efeitos aleatórios nas q
medidas que compõem uma observação, e A é a matriz de correlação, n x n, entre os
efeitos aleatórios das n observações. Apesar da matriz A não possuir estrutura simples,
como ocorre na maioria das vezes, para aplicações em melhoramento animal, existem
Modelos Misto Prof. Jomar 7
algoritmos eficientes para obtenção direta de A-1 (HENDERSON, 1975; 1976 e 1988;
QUAAS, 1976). Mesmo assim persiste a necessidade de se obter (Z’R-1Z + D-1)-1 , que, a
despeito de possuir as mesmas dimensões de V, pode ser obtida por processos iterativos
com a vantagem de rápida convergência em razão da dominância dos elementos da
diagonal causada pela adição de D-1 a Z’R-1Z. Nos casos de distribuição multivariada,
elementos dominantes podem estar fora da diagonal. Nesses casos, processos que usam
iteração em blocos garantem a rápida convergência, porque os elementos dominantes
passarão a estar nos blocos (QUAAS e POLLAK, 1980).
3.1 Algumas propriedades das soluções para os efeitos fixos
a) A solução bo, obtida pelas MME é também uma solução de Mínimos Quadrados
Generalizados (GLS), utilizando o modelo que ignora os efeitos aleatórios.
Prova:
Foi visto que uma solução de mínimos quadrados generalizados para y = Xb + e é:
yV'X)XV'X( 11o ---=b .
Das equações de modelos mistos (MME),
ú
ú
û
ù
ê
ê
ë
é
=ú
û
ù
ê
ë
é
g
b
ú
ú
û
ù
ê
ê
ë
é
+g- -
-
---
--
yR'Z
yR'X
ˆDˆZR'ZXR'Z
ZR'XXR'X
1
1o
111
11
,
tem-se que:
{ } y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X 111111111111o ------------- +-+-=b
)Xy(R'Z)DZR'Z(ˆ o1111 b-+=g ---- ,
substituindo gˆ em:
yR'XˆZR'XXR'X 11o1 --- =g+b ,
Modelos Misto Prof. Jomar 8
tem-se:
yR'X)Xy(R'Z)DZR'Z(ZR'XXR'X 1o11111o1 ------- =b-++b
yR'XXR'Z)DZR'Z(ZR'XyR'Z)DZR'Z(ZR'XXR'X 1o1111111111o1 ------------ =b+-++b
y]R'Z)DZR'Z(ZR'XR'X[]XR'Z)DZR'Z(ZR'XXR'X[ 111111o111111 ------------ +-=b+-
y]R'Z)DZR'Z(ZRR['XX]R'Z)DZR'Z(ZRR['X111111o111111 ------------ +-=b+-
y]R'Z)DZR'Z(ZRR['X}X]R'Z)DZR'Z(ZRR['X{ 111111111111o ------------- +-+-=b
sabendo-se que 1111111 R'Z)DZR'Z(ZRRV ------- +-= , (HENDERSON et all, 1959)
então,
yV'X)XV'X( 11o ---=b
b) A variância de bo e dada por:
]yV'X)XV'X[(Var)(Var 11o ---=b .
= (X’V-1X)-X’V-1Var(y)V-1X(X’V-1X)-
= (X’V-1X)-X’V-1VV-1X(X’V-1X)-
= (X’V-1X)-X’V-1X(X’V-1X)-
Uma vez que X’V-1X é uma matriz simétrica, a escolha apropriada de uma inversa
generalizada também simétrica, leva à igualdade (SEARLE, 1971):
= (X’V-1X)-X’V-1X(X’V-1X)- = (X’V-1X)- ,
Modelos Misto Prof. Jomar 9
e assim,
--=b )XV'X()(Var 1o = {X’[R-1-R-1Z(Z’R-1Z+ D-1)-1Z’R-1]X}-
= [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]-.
c) Para um dado conjunto p de funções estimáveis, linearmente independentes,
estabelecidas por uma matriz conhecida l, a variância de l’bo, (BLUE) de l’b é dada
por:
Var (l’bo) = l’Var (bo) l
= l’ [(X’V-1X)-X’V-1X(X’V-1X)-] l
= l’ [X’R-1-X’R-1Z(Z’R-1Z+ D-1)-1Z’R-1X]- l .
3.2. Algumas propriedades da predição para os efeitos aleatórios
a) O preditor gˆ é o Melhor Preditor Linear Não-Viesado (BLUP) de g.
Segundo MARTINS et all. (1993), o termo predição refere-se a fatores aleatórios e
a Melhor Predição Linear Não-Viesada pode ser, resumidamente, definida como resultado
da regressão dos efeitos de um fator aleatório (g) em função das observações (y) corrigidas
para os efeitos dos fatores fixos (Xb), como dado na seguinte expressão;
gˆ = DZ’(ZDZ’ + R)-1(y - Xbo)
= DZ’V-1(y - Xbo)
Observa-se que o termo DZ’(ZDZ’ + R)-1 é o conjunto de coeficientes de regressão
de g em função de y, uma vez que DZ’ é a matriz de covariâncias entre g e y. (ZDZ’ + R)-1
Modelos Misto Prof. Jomar 10
é a inversa da matriz de variância de y, enquanto o termo (y - Xbo) contém os valores das
observações, y, corrigidas para os efeitos fixos Xb .
Pelas MME, gˆ é dado por
gˆ = (Z’R-1Z + D-1)-1Z’R-1(y - Xbo).
Então, se a igualdade:
DZ’(ZDZ’+ R)-1 = (Z’R-1Z + D-1)-1Z’R-1
for verdadeira, gˆ , obtido pelas MME, é o BLUP de g. A prova desta igualdade foi
apresentada por HENDERSON et all. (1959).
b) A variância de gˆ é dada por
Var ( gˆ ) = Var [DZ’V-1(y - Xbo)]
= DZ’V-1Var(y - Xbo)V-1ZD’
= DZ’V-1[Var(y) - 2Cov(y,bo’X’) + Var (Xbo)] V-1ZD’;
mas Cov (y,bo’X’) = Var (Xbo); então,
Var( gˆ ) = DZ’V-1[Var(y) - Var (Xbo)] V-1ZD’
= DZ’V-1[V - X(X’V-1X)- X’ ] V-1ZD’
= DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’
Pode-se notar que a expressão
V-1 - V-1 X(X’V-1X)- X’ V-1
é o complemento do projetor ortogonal de y no espaço coluna de X, o que significa que
Modelos Misto Prof. Jomar 11
[V-1 - V-1 X(X’V-1X)- X’ V-1]y = y - Xbo
obs. V-1 = R-1- R-1Z(Z’R-1Z +D-1)-1Z’R-1
c) A variância do erro de predição é dada por:
Var (g - gˆ ) = Var (g ) - 2 Cov (g, gˆ ’) + Var( gˆ ),
mas, Cov (g, gˆ ’) = Var( gˆ ), então,
Var (g - gˆ ) = Var (g ) - Var( gˆ )
= D - DZ’ [V-1 - V-1 X(X’V-1X)- X’ V-1]ZD’
d) A correlação entre os valores reais e preditos é máxima.
Segundo HENDERSON (1977 e 1984) dentre uma classe de funções lineares que
gera predições não viciadas, o BLUP maximiza a correlação (g - gˆ ) .
4. Esperanças matemáticas dos quadrados médios
Dado o modelo:
y = Xb + e,
com Var(y) = V,
tem-se que a esperança de uma forma quadrática y’Qy é dada por:
E(y’Qy) = tr (QV) + E(y’)QE(y).
SEARLE (1971) apresenta a dedução da expressão da esperança matemática de uma forma
quadrática para modelos mistos, como mostrado a seguir
Dado o modelo misto:
Y=Xq + e,
Modelos Misto Prof. Jomar 12
Em que q’ = [b’1 g’A g’B ... g’k ]
No qual,
b’1 contém todos os efeitos fixos do modelo, inclusive a constante (m)
g’ representa um conjunto de efeitos aleatórios dos fatores A, B, ... , K respectivamente,
este modelo pode ser escrito na forma:
y = X1b1 + XA gA + XB gB ... XK gk + e
eXXy
k
Ai
ii11 +g+b= å
=
Assumindo-se que os efeitos do modelo são independentes, com média zero e
covariâncias entre os efeitos aleatórios nulas, tem-se que:
E(y) = X1b1
V = Var(y) = 2
k
Ai
|'
iii IX)(VarX s+gå
=
Assumindo-se que os efeitos aleatórios são não correlacionados e têm variâncias
uniformes ( 2is ), então,
V = Var(y) = 2
k
Ai
2
i
|'
ii IXX s+så
=
,
E a esperança matemática de uma forma quadrática y’Qy é;
E(y’Qy) = (X1b)’QX1b + )Q(tr)XX(tr 2
k
Ai
|'
ii
2
i s+så
=
A partir da expressão acima, torna-se possível a obtenção das esperanças
matemáticas dos quadrados médios, que são de grande valia na determinação dos
Modelos Misto Prof. Jomar 13
testadores adequados para as hipóteses tanto sobre efeitos aleatórios quanto fixos, nos
modelos mistos.
5. Testes de hipóteses
Conhecendo-se as expressões das esperanças matemáticas dos quadrados médios,
pode-se facilmente identificar os quadrados médios dos denominadores (testadores),
quando da realização do teste F. Uma vez que a esperança do quadrado médio do
denominador apropriado deve ser aproximadamente igual à esperança do quadrado médio
do numerador, a menos do efeito a ser testado, como exemplificado a seguir:
F. V. E (QM)
A 2
A
2
AB
2 7143,1 f+s+s
B 2
B
2
AB
2 6526,27684,1 s+s+s
A*B 2
AB
2 7143,1 s+s
Resíduo 2s
Para se testar 2Af = 0 o denominador apropriado será o QM (A*B). Para se testar
se 02AB =s o denominador adequado será o QMRes.
Outras alternativas são:
5.1. Efeitos fixos
Para inferências relativas aos parâmetros de efeitos fixos e aleatórios no modelo
misto, considera-se as combinações lineares estimáveis da seguinte forma:
ú
û
ù
ê
ë
é
g
b
L .
Funções dessa natureza são ditas estimáveis se a parte fixa b satisfaz a exigência de
estimabilidade, uma vez que qualquer combinação linear de g é estimável. Tipicamente,
Modelos Misto Prof. Jomar 14
inferência sobre efeitos fixos é o foco e neste caso, a porção g de L é assumida igual a
zero.
Inferências estatísticas são obtidas para testar as hipóteses:
f=ú
û
ù
ê
ë
é
g
b
L:H
ou para a construção de intervalos estimados.
Quando L consiste de apenas uma linha, uma estatística t pode ser construída como
segue:
'LCˆL
ˆ
ˆ
L
t
ú
û
ù
ê
ë
é
g
b
=
Sob a pressuposição de normalidade de g e e , t tem uma distribuição t exata
somente para dados exibindo certos tipos de balanceamento e para alguns casos especiais
desbalanceados. Em geral t é somente aproximadamente distribuída e seus graus de
liberdade devem ser estimados.
Se considerarmos nˆ como graus de liberdade estimado, o intervalo de confiança
associado é o seguinte:
'LCˆLt
ˆ
ˆ
L 2/,ˆ an±ú
û
ù
ê
ë
é
g
b ,
em que, 2/,ˆt an é o percentil (1 - a/2)% da distribuição nˆt . Quando o rank de L é maior que
1, deve-se considerar a seguinte estatística F :
( )
)L(rank
ˆ
ˆ
LLCˆ'L'L
ˆ
ˆ
F
1
'
ú
û
ù
ê
ë
é
g
b
ú
û
ù
ê
ë
é
g
b
=
-
Análogo a t, F em geral tem uma distribuição F aproximada com rank (L) graus deliberdade no numerador e nˆ graus de liberdade no denominador.
As estatísticas t e F permitem fazer inferências sobre os efeitos fixos, estimados
para o modelo de variância e covariância selecionado. Uma alternativa é a estatística 2c
associado com o teste da razão de verossimilhança. Essa estatística compara dois modelos
com efeitos fixos, um como caso especial do outro. Ela só é calculada quando comparamos
diferentes modelos covariância, embora deva-se usar ML e não REML por que falta o
Modelos Misto Prof. Jomar 15
termo associado com verossimilhança restrita que depende da especificação dos efeitos
fixos.
5.2. Efeitos aleatórios
Para inferências relativas aos parâmetros de efeitos aleatórios do modelo, pode-se
usar estatísticas fundamentadas na verossimilhança. Uma dessas estatísticas é a Z de Wald,
que é calculada com o parâmetro estimado dividido por seu erro padrão assintótico. Os
erros padrões assintóticos são obtidos a partir da inversa da matriz de derivada segunda da
verossimilhança, em relação a cada um dos parâmetros de efeito aleatório. A estatística Z
de Wald é válida para grandes amostras, mas ela pode ser incerta para pequenos conjuntos
de dados e para parâmetros tais como componentes de variância, que apresentam uma
distribuição assimétrica ou distribuição amostral limite.
Uma alternativa melhor é a razão de verossimilhança 2c . Essa estatística compara
dois modelos de covariância, um como caso especial do outro. Para realizar esse teste,
ajusta-se o modelo completo e o modelo reduzido e então subtrai-se os valores
correspondentes a -2 vezes o log verossimilhança. Pode-se usar o ML ou REML para
construir esta estatística que testa se o modelo completo é melhor do que o modelo
reduzido.
A estatística 2c calculada desta forma tem uma distribuição amostral, que é 2c ,
sendo que os graus de liberdade são dados pela diferença no número de parâmetros entre
os dois modelos. Um exemplo comum desse caso ocorre no teste para se verificar se um
componente de variância é igual a 0.
Uma possibilidade final para obter inferências relativas aos parâmetros de
covariância é simular ou reamostrar dados do modelo e construir distribuições amostrais
empíricas dos parâmetros.
Modelos Misto Prof. Jomar 16
6. Estimação de componentes de variâncias
Componentes de variância são as variâncias associadas aos efeitos aleatórios de um
modelo, sendo que o seu conhecimento é de grande importância em genética e
melhoramento, pois a população e o método de melhoramento a serem utilizados
dependem de algumas informações que podem ser obtidas a partir desses componentes.
No caso de modelos mistos, a solução das MME, depende do conhecimento da
matriz de variâncias e covariâncias V, cuja estrutura é conhecida, porém, via de regra, seus
componentes não o são. Desse modo, torna-se necessário substituí-los por suas estimativas.
Existem vários métodos de estimação de componentes de variâncias, dentre os
quais podemos destacar: o Método da Análise da Variância, os Métodos de Henderson,
MINQUEO, MIVQUE, Máxima Verossimilhança (ML) e Máxima Verossimilhança
Restrita (REML).
Considerando-se que a estimação dos componentes de variância é um tópico muito
extenso e complexo para um relato completo e detalhado, optou-se por apresentar nesse
trabalho um breve levantamento dos métodos disponíveis na literatura. Começando com
dados balanceados, por ser o caso mais simples, e fornecendo subsídios para muitas
metodologias para o tratamento de dados desbalanceados. Para um estudo mais
aprofundado recomenda-se SEARLE (1992).
6.1. DADOS BALANCEADOS
A estimação dos componentes de variância para dados balanceados é quase sempre
feita pelo método da análise de variância, ANOVA. Esse método obtêm estimadores
igualando-se as somas de quadrados, ou quadrados médios, de um quadro de análise de
variância aos seus respectivo valores esperados, que são combinações lineares dos
componentes de variância. Portanto, esse método produz equações lineares dos
componentes de variância, cujas soluções são tomadas como os estimadores dos referidos
componentes.
A aplicação do método ANOVA para dados balanceado, para qualquer modelo é
direta e detalhes para muitos casos particulares estão disponíveis em diversos textos. Em
quase todos os casos os cálculos exigidos são fáceis. Além disso, nenhuma suposição da
Modelos Misto Prof. Jomar 17
distribuição dos dados, além das suposições básicas sobre as variâncias e covariâncias já
mencionadas é exigida.
Os estimadores ANOVA apresentam muitas propriedades, são sempre não-viesados
e têm variância mínima. Como uma desvantagem pode-se citar o fato de que esse método
não exclui a ocorrência de estimativas negativas. Claramente, uma estimativa negativa de
um parâmetro, uma variância, que por definição é positiva é um "embaraço". Contudo, isso
pode acontecer até mesmo com dados reais. Maiores detalhes dessas e outras propriedades
dos estimadores são apresentadas em SEARLE (l971 e 1987).
6.2. DADOS DESBALANCEADOS
O principal problema com a estimação dos componentes de variância para dados
desbalanceados ocorre porque muitos métodos de estimação estão disponíveis e escolher
um deles pode não ser uma questão tão simples.
Em decorrência do avanço tecnológico, da facilidade em adquirir e utilizar os
recursos da área de informática, a escolha prática tem estado entre um dos dois métodos
fundamentados na máxima verossimilhança, até que ocorra maior aceitação de outras
metodologias.
Serão apresentados, resumidamente, os seguintes métodos:
*ANOVA Análise de Variância
*Método de Henderson I
*Método de Henderson II
*Método de Henderson III
*ML: Máxima Verossimilhança
*REML: Máxima Verossimilhança Restrita
*MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima
*MIVQUE. Estimador Quadrático Não-Viesado de Variância Mínima
* I-MINQUE: Estimador Quadrático Não-Viesado de Norma Mínima Iterativo
Modelos Misto Prof. Jomar 18
6.2.1 - MÉTODO ANOVA
O princípio do método ANOVA usado com dados balanceados pode ser
generalizado para dados desbalanceados. A generalização é usar qualquer forma quadrática
em lugar das somas de quadrados.
Seja o vetor de componentes de variância que serão estimados e seja q um vetor da
mesma ordem de s2, de qualquer forma quadrática linearmente independente das
observações. Suponha que q é tal que:
E(q) = Cs2
para alguma matriz C não singular,
s2 = C-1q
é um estimador não-viesado de s2.
A matriz de dispersão de 2sˆ é:
( ) ( ) ¢=s -- 112 CqvarCˆvar
em que os elementos de var (q) são variâncias e covariâncias das formas quadráticas
usadas como elementos de q. SEARLE (l987) apresenta esse método e discute as suas
vantagens e desvantagens.
6.2.2 - MÉTODO I DE HENDERSON
HENDERSON (1953) descreve três métodos para estimar componentes de
variância que são exatamente três diferentes maneiras de usar o método ANOVA geral.
Eles diferem somente nas diferentes formas quadráticas que nem sempre são as somas de
quadrados usadas em q. Os métodos podem produzir estimativas negativas.
No método I, as formas quadráticas usadas são análogas às somas de quadrados
usadas para dados balanceados, a analogia é tal que somas de quadrados em dados
balanceados se tornam, para dados não balanceados, emformas quadráticas que não são
necessariamente, somas de quadrados, pois nem sempre são não negetivas, devido à
estrutura não balanceada dos dados. Assim, por exemplo, para o modelo:
ijkijjiijky e+g+b+a+m=
com i = 1, 2, ..., I; j = 1, 2, ..., J; k = 1, 2, ..., n, as somas de quadrados,
Modelos Misto Prof. Jomar 19
( ) 22
i
2
i
i
yIJyJnyynJ
i ··········
-=- åå
se tornam, para dados desbalanceados,
( ) 22
i
i
2
i
i
i ynynyyn i ·············· -=- åå
O Método I de Henderson utiliza o lado direito dessa equação.
A soma de quadrados para a interação, para dados balanceados é
( )å åå ååå ················· +--=+--
i i j
2
j
2
i
22
j
2
jiijij yIJnyInyJnynyyyyn jiij
A expressão, análoga a esse lado direito, para dados desbalanceados, utilizada pelo
Método I de Henderson é:
åå å å ············ +--
i j i j
22
jj
2
ii
2
ijij ynynynyn
O método I de Henderson consiste em igualar os quadrados médios às suas
esperanças matemáticas e resolver o sistema de equações formado. Esse método fornece
estimativas não-viesadas, com variância mínima, quando os dados são balanceados ou o
modelo é aleatório e os efeitos não correlacionados.
O método I de Henderson não pode ser usado para modelos mistos. Pode ser
adaptado a um modelo misto, alterando o modelo e tratando os efeitos fixos como não
existentes ou como aleatórios, neste caso os estimadores dos componentes de variância dos
verdadeiros efeitos aleatórios são não-viesados.
6.2.3 - MÉTODO II DE HENDERSON
O Método II de Henderson, é projetado para ter a facilidade computacional do
Método I e ampliar seu uso removendo a limitação do método I, que não pode ser usado
para modelos mistos. O método tem duas partes. Primeiro faz a suposição temporária que
os efeitos aleatórios são fixados, e para o modelo y = Xb + Zg + e como anteriormente
definido, resolve as equações normais:
ú
û
ù
ê
ë
é
¢
¢
=ú
û
ù
ê
ë
é
g
b
ú
û
ù
ê
ë
é
¢¢
¢¢
yZ
yX
ˆ
ºˆ
ZZXZ
ZXXX
Modelos Misto Prof. Jomar 20
para bº. Então considera o vetor de dados ajustado para bº, isto é z = y - Xbº. Sob certas
condições, SEARLE (1968), o modelo para z será: z = lmº + Zg + Ke em que mº difere de
m e K é conhecido. Então aplica-se o Método I para z.
Portanto, o método II de Henderson, consiste em estimar, em primeiro lugar, os
efeitos fixos, então, aplica o Método I para os resíduos restantes. Para que os estimadores
resultantes sejam não tendenciosos. É necessário que os resíduos dependam apenas dos
fatores aleatórios, a menos de uma constante que pode ser incluída no modelo. SEARLE
(l968) fazendo estudo dos métodos de Henderson, mostrou as condições que deve
satisfazer um estimador dos efeitos fixos para que os resíduos não dependam desses
efeitos. Há dois inconvenientes nesse método. Um deles é o fato de não haver uma única
solução e outra limitação consiste em não poder adotar modelos que incluam interações
entre os efeitos fixos e aleatórios (SEARLE, 1968).
6.2.4 - MÉTODO III DE HENDERSON
O Método III de Henderson, também chamado método de ajuste de constantes, usa
as reduções nas somas de quadrados do modelo completo e de submodelos para estimar os
componentes de variância.
Para deduzir o método, considere o modelo
y = Xbº + Zg + e = Wq + e
A matriz W pode ser particionada como [W1½W2], e q' pode ser particionada como
[ ]21 q¢q¢ de acordo com W, ou seja o modelo é rescrito como:
y = W1q1 + W2q2 + e
Note que nenhuma suposição é feita sobre o particionamento de W e q no que se
refere a efeitos fixos ou aleatórios.
Chamando R(q1,q2) e R(q1), respectivamente, às respectivas reduções nas somas de
quadrados do modelo completo e do submodelo y = W1q1 +e, tem-se:
Modelos Misto Prof. Jomar 21
R(q1½q2) = R(q1,q2) - R(q1)
e portanto
E[R(q1½q2) = E[R(q1,q2)] - E[R(q1)]
Mas R(q1,q2) = y'W(W'W)-W'y e R(q1) = y'W1(W1'W1)-W1y
Isto é,
R(q1,q2) e R(q1) são formas quadráticas de y, e tem-se:
E[R(q1,q2)] = E[y'W(W'W)-W'y]
= tr[W(W'W)-W'var(y)] + E(y')W(W'W)-W'E(y)
Mas, E(y) = E(Wq + e) = WE(q) e var(y) = (Wq + e) = Wvar(q)W' + 2es I
Logo:
E[R(q1,q2)] = tr[W(W'W)-W'Wvar(q)W' + W(W'W)-W' 2es I] + E(q')W'W(W'W)
-W'WE(q)
 = tr[W'Wvar(q)] + 2es tr[W(W'W)
-W' + E(q')W'WE(q)
 = tr{W'W[E(qq')-E(q)E(q')]} + 2es tr[W(W'W)
-W'] +tr(E(q')W'WE(q)}
Portanto,
E[R(q1,q2)] = tr{W'WE(qq')} + 2es tr[W(W'W)
-W']
ou
( )[ ] ( ) ( )WrE
WWWW
WWWW
tr,RE 2e
1212
2111
21 s+ú
û
ù
ê
ë
é
q¢q÷÷
ø
ö
çç
è
æ
¢¢
¢¢
=qq
onde r(W) é o posto da matriz W.
De modo análogo:
E[R(q1)] = tr{W'W1(W1'W1)-W1'WE(qq')} + 2es tr[W1(W1'W)
-W1']
( )[ ] ( ) ( ) ( )1
2
e
21111212
2111
1 WrEWWWWWWWW
WWWW
trRE s+ú
û
ù
ê
ë
é
q¢q÷÷
ø
ö
çç
è
æ
¢¢¢¢
¢¢
=q -
Portanto R(q2½q1) = R(q1,q2) - R(q1) é dado por:
Modelos Misto Prof. Jomar 22
( )[ ] ( ) ( ) ( ) ( )[ ]1
2
e
211112
12 WrWrEWWWWWW
trRE -s+ú
û
ù
ê
ë
é
q¢q÷÷
ø
ö
çç
è
æ
¢¢¢f
ff
=qq -
ou E[R(q2½q1)] = tr{W2'[I-W1(W1'W1)-W1']W2E(q2q2')} + 2es [r(W) - r(W1)]
Note que [R(q2½q1)] não envolve q1 e portanto E[R(q2½q1)] não depende do vetor
de efeitos q1, sejam eles fixos ou aleatórios.
Assim, o Método III de Henderson, consiste em encontrar os estimadores para os
componentes de variância, montando um sistema de equações a partir das diferenças entre
as reduções do modelo completo e um submodelo. Igualando-as, assim, às suas respectivas
esperanças.
Para modelos mistos esse método é particularmente vantajoso porque, se tomar o
vetor q1 como o vetor dos efeitos fixos e q2 como vetor dos efeitos aleatórios, E[R(q2½q1)]
não conterá termos devido a esses efeitos fixos, a esperança é apenas função de 2es e das
variâncias dos efeitos aleatórios em q2, ou seja, os próprios componentes que se deseja
estimar.
Para exemplificar o método, considere o modelo
y = m1 + X1a + X2b + X3g + e
onde m é uma constante, a é o vetor de efeitos fixos, b e g são os vetores de efeitos
aleatórios.
Nesse caso, a matriz W pode ser escrita como W=[1 X1 X2 X3] e
R(m,a,b ,g) = y'W(W'W)-W'y com r(W) = r
Considere os submodelos, dados por:
y = m1 + e
y = m1 + X1a +e
y = m1 + X1a + X2b + e
Sejam as reduções correspondentes:
( ) ( ) ( ) Jyy
n
1
y1n1yy1111yR 1 ¢=¢¢=¢¢¢=m -- com r(W1) = r(J) = 1
( ) ( ) yWWWWy,R 1111 ¢¢¢=am com W1 = [1 X1] e r(W1) = q
Modelos Misto Prof. Jomar 23
( ) ( ) yWWWWy,,R 1111 ¢¢¢=bam - com W1= [1 X1 X2] e r(W1) = s
Então obtém-se, sucessivamente os componentes de variância pelo seguinte conjunto de
equações:
Soma de Quadrados Esperanças
( )
( ) ( )
( ) ( )am-gbam
bam-gbam
gbam-= å
,R,,,R
,,R,,,R
,,,RySQE 2 ( )
( )
( ) 2e2322
2
e
2
1
2
e
qrhh
srh
rn
s-+s+s
s-+s
s-
gb
g
A partir dessas três equações calcula-se 222 ˆ,ˆ,ˆ gb sss e . Os fatores h1, h2 e h3 são
obtidos pela expressão:
E[R(q2½q1)] = tr(W2'(I-W1(W1'W1)-W1')W2E(q2q2')) + I 2ˆ es [r(W) - r(W1)]
em que, as matrizes W1 e W2são especificadas para cada equação.
Não é necessário utilizar a quarta equação dada por R(m,a,b ,g) - R(m) cuja
esperança seria ( ) 2e262524 1nhhh s-+s+s+s gba , Pois, supondo-se a como efeito fixo,
não se considera a existência de 2ss .
O Método III pode ser usado para qualquer modelo misto e produz estimadores que
não são viesados.
6.2.5 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA - ML
A estimação por máxima verossimilhança é uma método bem conhecido, originado
por Fischer em 1925. Esse método foi o primeiro a ser aplicado em modelos mistos geral
por HARTLEY e RAO (1967)
O Método da Máxima Verossimilhança consiste em maximizar a função densidade
de probabilidade das observações, em relação aos efeitos fixos e aos componentes de
variância.
Seja o modelo misto (1), dado por:
y = Xb +Zg + e
Assumindo que os efeitos aleatórios gi, i = 1, ..., r e e têm distribuição normal com média
zero e matrizes de variâncias e covariâncias mi I
2s , ..., i=1, ..., r e ne I
2s , respectivamente, o
Modelos Misto Prof. Jomar 24
vetor y terá distribuição normal multivariada, com média Xb e matriz de variâncias e
covariâncias, V, ou seja, y ~ N(Xb , V) com:
åå
==
s¢=s+s¢=
r
0i
2
lii
r
1i
2
e
2
lii ZZIZZV com 
2
e
2
0 s=s e Z0=I
A função de verossimilhança é:
( ) ( ) ( )12 2 112 exp
2
n
L V y X V y Xp b b- - -¢é ù= - - -ê úë û
 sendo V o determinante da matriz V.
Maximizando L em relação aos elementos de b e aos componentes de variância, os
2
s,is que ocorrem em V, obtém-se um sistema de equações que, resolvido, produzem os
estimadores de ML de b e { } rl 0l2l2 ==s=s . Essas equações podem ser escritas como:
yV~X~XV~X 11 -- ¢=b¢
e as equações são:
( ) ( ) ( )b-¢b-=¢ --- ~XyV~ZZV~~XyZZV~tr 1ii1ii1
para i = 0, 1, ..., r
As equações acima têm de ser resolvidas para 2~e~ sb , os elementos implícitos
em V
~
. Claramente essas equações são não lineares nos elementos 2s~ , contudo uma vez
obtido os valores 2s,l
~s , eles podem ser usados para obter b~ . Essas equações são resolvidas
numericamente, por iteração. Por conveniência escreve-se:
P = V-1-V-1X(X'V-1X)-X'V-1
e
2
l
r
0l
ii
11 zzVVVI s¢== å
=
--
Assim, o conjunto das r + 1 equações anteriores pode ser descrito como:
( ) ( )yP~ZZP~y~ZZV~ZZV~tr ii2ljj1ii1 ¢¢=s¢¢ --
Modelos Misto Prof. Jomar 25
Fornecendo uma visualização mais fácil de um processo iterativo que as anteriores.
Pode-se utilizar um valor inicial para 2s~ em P~eV~ , e resolver as equações acima e
repetir o processo até que o critério de convergência seja satisfeito.
O Método da Máxima Verossimilhança é iterativo e fornece sempre estimativas
não negativas de componentes de variância, mas estas são viesadas porque o método não
considera a perda de graus de liberdade resultante da estimação dos efeitos fixos do
modelo.
6.2.6 - MÉTODO DA MÁXIMA VEROSSIMILHANÇA RESTRITA - REML
Esse processo é uma variante do processo de máxima verossimilhança, para
modelos mistos e foi utilizada por PATTERSON e THOMPSON (1971) para
delineamentos em blocos.
Os estimadores REML são obtidos maximizando a parte da função de
verossimilhança que é invariante ao parâmetro de locação: isto é, em termos do modelo
misto y = Xb+Zg + e, é invariante para Xb . Ou de outra maneira, os estimadores REML
maximizam a função de verossimilhança de um vetor de combinações lineares das
observações que são invariantes para Xb . Seja Ly esse vetor. Então Ly = LXb + Lzg + Le
é invariante a Xb , se e somente se, LX = 0. Mas LX = 0, se e somente se, L = TM
para M = I - X(X'X)-X' e algum T. Claramente, L deve ser de posto linha completo; e
assim T também. Portanto rL = rT , e rL £ rM com rM = n - rX.
As equações para a estimação REML de s2, para i, j = 0, 1, ..., r são:
( ) ( )yP~ZZP~yZZP~ZZP~tr ii2ljjii ¢¢=s¢¢
Note que essas equações são similares às equações ML, exceto por P~ em vez de
1~-V .
No Método da Máxima Verossimilhança Restrita, cada observação é dividida em
duas partes independentes uma referente aos efeitos fixos e outras aos efeitos aleatórios, de
maneira que a função densidade de probabilidade das observações é dada pela soma das
funções densidade de probabilidade de cada parte. A maximização da função densidade de
probabilidade da parte referente aos efeitos aleatórios, em relação aos componentes de
variância, elimina o viés resultante da perda de graus de liberdade na estimação dos efeitos
fixos do modelo.
Modelos Misto Prof. Jomar 26
As equações REML com dados balanceados são idênticas aos estimadores ANOVA
que são não-viesados e de variância mínima. O estimador REML leva em conta os graus de
liberdade envolvidos nas estimativas dos efeitos fixos, ao passo que os estimadores ML
não. No caso de dados desbalanceados os estimadores ML e os estimadores REML são
viesados SEARLE (1987).
Os estimadores ML e REML dos componentes de variância não são formas
explicitas, isto é, o estimador de cada componente está em função dos estimadores dos
outros componentes, e só podem ser encontrados por métodos numéricos iterativos.
6.2.7 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE NORMA MÍNIMA-
MINQUE
RAO (l970, 1971 a, b, 1972) descreve um método de estimação que é derivado de
modo que o estimador minimize a norma euclidiana da matriz núcleo, que seja uma forma
quadrática das observações e que seja não-viesado. Seu desenvolvimento envolve álgebra
extensiva e seu conceito utiliza valores escolhidos, a priori, para os componentes de
variância desconhecidos.
A estimação dos componentes de variância pelo método MINQUE, é feita com
base na equação MINQUE, a seguir:
( ) ( )yPVPyˆVPVPtr wiw2ljwiw ¢=s
sendo sˆ o vetor de componentes de variância.
( ) 1W1W1W1Ww V'XXV'XVVP ----- -=
Vw é uma estimativa a priori da matriz de variâncias e covariâncias.
Este método tem duas vantagens: não envolve a suposição de normalidade como
ML e REML. E as equações de MINQUE têm soluções explícitas (não tem de ser
resolvidas iterativamente).
Por outro lado, a solução depende do conhecimento a priori dos valores dos
componentes de variância a serem estimados, ou seja, depende de valores estimados a
priori usados em Vw. Assim, diferentes valores de Vw podem levar a diferentes estimativas
para um mesmo conjunto de dados. Obtém-se portanto “um” estimador MINQUE e não
“o” estimador MINQUE.
Modelos Misto Prof. Jomar 27
Um relacionamento importante, que existe entre REML e MINQUE é que se o
valor inicial no processo iterativo REML é Vw, então a primeira solução é uma estimativa
MINQUE.
6.2.8 - ESTIMADOR QUADRÁTICO NÃO-VIESADO DE VARIÂNCIA MÍNIMA -
MIVQUE
O método MINQUE não exige nenhuma suposição sobre a forma da distribuição da
variável aleatória y. Mas se a suposição usual de normalidade é satisfeita, o estimador
MINQUE tem a propriedade de ser uma forma quadrática não-viesada das observações
com variância mínima, ou seja, é um estimador quadrático não-viesado de variância
mínima, MIVQUE. SEARLE (1987).
SWALLOW e MONAHAN (l984) descrevem o procedimento MIVQUE
concordância com os valores estimados a priori Vw , MIVQUE(A) e MIVQUE(0).
 O estimador MIVQUE(A) usa as equações REML tomando as estimativas
ANOVA como valores a priori. Embora a teoria MIVQUE especifique, que os valoresa
priori devam ser independentes dos dados, a literatura justifica o uso das estimativas
ANOVA em decorrência da facilidade de obtenção.
O estimador MIVQUE0 é o MIVQUE com a suposição a priori de que a matriz de
variâncias e covariâncias é a matriz identidade.
6.2.9 - MÉTODO MINQUE ITERATIVO I-MINQUE (Iterative MINQUE)
O estimador MINQUE utiliza valores estimados a priori em Vw, ou seja, uma
estimativa a priori para V, matriz de variâncias e covariâncias. Nenhuma iteração está
envolvida. No entanto, obtida uma solução, por exemplo 1V
~ , existe a idéia de usá-la como
uma nova estimativa em Vw, a partir da qual um novo conjunto de equações pode ser
estabelecido e resolvido, produzindo 2V
~ e assim sucessivamente. Isto leva a usar as
equações MINQUE iterativamente.
Além disso, BROWN (l976) mostra que sem suposição de normalidade sobre y, as
soluções I- MINQUE têm propriedades de normalidade para grandes amostras.
Modelos Misto Prof. Jomar 28
Bibliografia
BROWN, K.G. Asymptotic behavior of MINQUE-type estimators of variance
components. The Annals of Statistics,4, p.746-54, 1976.
CUNNINGHAM,E.P. ; HENDERSON,C.R. an iterative procedure for estimating fixed
effects and variance components in mixed model situations Biometrics 24:13-25,
1968.
GRAYBIL,F.A. Theory and application of the linear model. Duxbury, North State,
Massachusetts, 1976, __p.
HARTLEY,H.O. ; RAO, J.N.K. Maximum likelihood estimation for the mixed analysis of
variance model. Biometrika, 54, p. 93-108, 1967.
HENDERSON,C.R. A simple method for computing the inverse of a numerator
relationship matrix used in prediction of breeding values. Biometrics 32(3) :69-83,
1976.
HENDERSON,C.R. Estimation of variance and covariance components, Biometrics,
17:226-52, 1953
HENDERSON,C.R. Rapid method for computing the inverse of a relationship matrix. J.
Dairy Sci.,58(11):1727-30, 1975.
HENDERSON,C.R. Use of an average numerator relationship matrix for multiple-sire
joining. J. Anim. Sci.,66:1614-21, 1988.
HENDERSON,C.R.; KEMPTHORNE,O.; SEARLE,S.R.; VON KROISIG,C.M. The
estimation of environmental and genetic trends from records subject to culling.
Biometrics 15(6):192-218, 1959.
HICKS,C.R. Fundamental concepts in the design of experiment 2nd ed. New York, Holt,
Rinehart and Winston, 1973. 349p.
MARTINS,E.N.;LOPES,P.S.;SILVA,M. de A.; REGAZZI.A. J. Modelo linear misto
UFV, Imprensa Universitária, 1993, 46p.
NETER,J.;WASSERMAN,W.; KUTNER,M.H. Applied linear statistical models,
regression, analysis of variance and experimental designs. Richard D. Irwing, Inc.
1985, 1127p.
PATTERSON,H.D. ; THOMPSON,R. Recovery of inter-block information when block
sizes are unequal. Biometrika, 58(3): 545-54, 1971.
Modelos Misto Prof. Jomar 29
PERRI, S. H . V., Ajuste de Modelos Mistos de Classificação Dupla: Procedimentos do
Sistema Estatístico “SAS”. Tese apresentada à Escola Superior de Agricultura “Luiz
de Queiroz”, 1998.
QUAAS,R.L. Computing the diagonal elements and inverse of a large numerator
relationship matrix Biometrics, 32(12):949-53, 1976
QUAAS,R.L.; POLLAK,E.J. Mixed equations methodology for farm and ranch beed cattle
testing programs. J.Anim. Sci., 53(6):1277-87, 1980
RAO,C.R. Estimation of heteroscedastic variance in linear models. Journal of the
American Statistical Association, 65, p.161-72, 1970.
RAO,C.R. Estimation of variance and covariance components – MINQUE Theory. Journal
of Multivariate Analysis, 1, p.257-75, 1971 a.
RAO,C.R. Estimation of variance and covariance components in linear models. Journal of
Multivariate Analysis, 67, p.112-15, 1972.
RAO,C.R. Linear statistical inference and its applications 2nd ed. New York, John
Wiley & Sons, 1973 __p.
RAO,C.R. Minimum variance quadratic unbiased estimation of variance components.
Journal of Multivariate Analysis, 1, p.445-56, 1971 b.
SEARLE, S.R. Another look at Henderson’s methods of estimating variance components.
Biometrics, 24, p. 749-78, 1968.
SEARLE, S.R. Linear Models for Unbalanced data. New York: John Wiley, 1987. 536p.
SEARLE, S.R. Linear models. New York, John Wiley & Sons, 1971. 532p.
SEARLE, S.R. Variance Component. New York, John Wiley & Sons, 1992. 501p.
SWALLOW, W.H. ; MONAHAN, J.F. Monte Carlo comparison of ANOVA, MINQUE,
REML, and ML estimators of variance components. Technometrics, 26, p.47-57,
1984.
THOMPSON, R. Iterative estimation of variance components for non-orthogonal data.
Biometrics, 26: 767-73, 1969.
Modelos Misto Prof. Jomar 30

Outros materiais