Buscar

Amostragem AES entre outras

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 30 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 30 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 30 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Capítulo 3
Amostragem Estratificada
3.1 Notação
População dividida em H estratos; estrato h tem tamanho Nh
U =
HS
h=1
Uh Uh ∩ Uh0 = ∅
U = {(1, 1), . . . , (1, N1), . . . , (h, 1), . . . , (h, i), . . . , (h,Nh), . . . , (H, 1), . . . .(H,NH)}
Vetor da característica populacional:
Y =(Y11, . . . , Y1N1, . . . , Yhi, . . . , YHNH )
3.2 Parâmetros populacionais
• Total do estrato h
τh =
NhP
i=1
Yhi (3.1)
• Média do estrato h
μh =
1
Nh
NhP
i=1
Yhi (3.2)
• Variância do estrato h
σ2h =
1
Nh
NhP
i=1
(Yhi − μh)2 (3.3)
S2h =
1
Nh − 1
NhP
i=1
(Yhi − μh)2 (3.4)
• Peso do estrato h
Wh =
Nh
N
(3.5)
28
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 29
• Total geral
τ =
HP
h=1
NhP
i=1
Yhi =
HP
h=1
Nhμh (3.6)
• Média geral
μ =
τ
N
=
1
N
HP
h=1
Nhμh =
HP
h=1
Nhμh (3.7)
• Variância geral
σ2 =
1
N
HP
h=1
NhP
i=1
(Yhi − μ)2 =
1
N
HP
h=1
NhP
i=1
(Yhi − μh + μh − μ)2
=
1
N
HP
h=1
NhP
i=1
(Yhi − μh)2 +
1
N
HP
h=1
NhP
i=1
(μh − μ)2 +
2
N
HP
h=1
NhP
i=1
(Yhi − μh) (μh − μ)
=
1
N
HP
h=1
NhP
i=1
Nh
Nh
(Yhi − μh)2 +
1
N
HP
h=1
Nh (μh − μ)2 +
2
N
HP
h=1
(μh − μ)
NhP
i=1
(Yhi − μh)
=
HP
h=1
Nh
N
· 1
Nh
NhP
i=1
(Yhi − μh)2 +
HP
h=1
Wh (μh − μ)2 +
2
N
HP
h=1
(μh − μ)× 0 =⇒
σ2 =
HP
h=1
Whσ2h +
HP
h=1
Wh (μh − μ)2 (3.8)
Definindo a variância dentro dos estratos como a média das variâncias nos estratos
σ2d =
HP
h=1
Whσ2h (3.9)
e a variância entre estratos como
σ2e =
HP
h=1
Wh (μh − μ)2 (3.10)
resulta que
σ2 = σ2d + σ
2
e (3.11)
De (3.8) e da relação entre σ e S resulta que
N − 1
N
S2 =
HP
h=1
Wh
Nh − 1
Nh
S2h +
HP
h=1
Wh (μh − μ)2 =⇒
N − 1
N
S2 =
HP
h=1
Nh
N
Nh − 1
Nh
S2h +
HP
h=1
Nh
N
(μh − μ)2 =⇒
(N − 1)S2 =
HP
h=1
(Nh − 1)S2h +
HP
h=1
Nh (μh − μ)2 =⇒
S2 =
HP
h=1
Nh − 1
N − 1 S
2
h +
HP
h=1
Nh
N − 1 (μh − μ)
2 (3.12)
Note que, se todos os estratos têm a mesma média, então σ2 = σ2d; quanto maior σ
2
e, maior a
diferença σ2 − σ2d.
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 30
3.3 Estatísticas amostrais
Amostras independentes são selecionadas de cada estrato. Assim, do estrato h é selecionada uma
amostra sh de tamanho nh segundo um planejamento amostral Ah. Para cada estrato h, tem-se as
variáveis aleatórias y1, . . . , ynh que assumem os valores Yh1, . . . , YhNh com probabilidades definidas
pelo planejamento amostral Ah.
• Total amostral do estrato h
Th =
P
i∈sh
Yhi (3.13)
• Média amostral do estrato h
yh =
1
nh
P
i∈sh
Yhi =
Th
nh
(3.14)
• Variância amostral do estrato h
s2h =
1
nh − 1
P
i∈sh
(Yhi − yh)2 (3.15)
• Total amostral geral
T =
HP
h=1
P
i∈sh
Yhi =
HP
h=1
Th (3.16)
• Média amostral geral
y =
T
n
=
1
n
HP
h=1
P
i∈sh
Yhi =
1
n
HP
h=1
Th =
1
n
HP
h=1
nhyh (3.17)
• Variância amostral geral
s2 =
1
n− 1
HP
h=1
P
i∈sh
(Yhi − y)2 (3.18)
3.4 Estimação do total e da média populacionais
Amostras independentes são retiradas de cada estrato. Seja Ah o planejamento amostral usado no
estrato h.
• Teorema 4.1
Seja bμh um estimador não viesado para μh sob o planejamento amostral Ah. Então o estimador
Tes =
HP
h=1
Nhbμh (3.19)
é não viesado para estimar o total τ e tem variância
V ar(Tes) =
HP
h=1
N2hV ar(bμh) (3.20)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 31
Demonstração
E[Tes] =
HP
h=1
NhE[bμh] = HP
h=1
Nhμh =
HP
h=1
τh = τ
Como as amostras são independentes, o resultado sobre a variância é imediato.
• Corolário 4.1
O estimador
yes =
Tes
N
=
HP
h=1
Whbμh (3.21)
é não viesado para estimar a média μ e tem variância
V ar(yes) =
HP
h=1
W 2hV ar(bμh) (3.22)
Demonstração
E[yes] =
E[Tes]
N
=
τ
N
= μ
e a demonstração sobre a variância é imediata.
3.5 Amostragem aleatória estratificada com reposição
Consideremos agora o caso em que se sorteiam amostras independentes nos H estratos de acordo
com o planejamento de amostragem aleatória simples com reposição.
• Corolário 4.2 - AESc
Sob AASc nos estratos, o estimador
Tes =
HP
h=1
Nhyh (3.23)
é não viesado para estimar o total τ e tem variância
V ar(Tes) =
HP
h=1
N2h
σ2h
nh
(3.24)
cujo estimador não viesado é
var(Tes) =
HP
h=1
N2h
s2h
nh
(3.25)
O estimador
yes =
Tes
N
=
HP
h=1
Whyh (3.26)
é não viesado para estimar a média μ e tem variância
V ar(yes) =
HP
h=1
W 2h
σ2h
nh
(3.27)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 32
cujo estimador não viesado é
var(yes) =
HP
h=1
W 2h
s2h
nh
(3.28)
Demonstração
A demonstração segue do Teorema 4.1, do corolário 4.1 e dos resultados vistos no estudo da
AASc.
3.5.1 Alocação da amostra nos estratos
Vamos ver agora formas de alocar as n unidades da amostra nos estratos, ou seja, vamos determinar
os valores de nh e estudar as propriedades dos estimadores para cada tipo de alocação.
Alocação proporcional (Teorema 4.2 - AESc)
Na alocação proporcional, distribuem-se as unidades amostrais de forma proporcional aos tamanhos
dos estratos, ou seja:
nh
n
=
Nh
N
⇐⇒ nh = nWh ⇐⇒
nh
Nh
=
n
N
(3.29)
Neste caso temos que
yes =
HP
h=1
Whyh =
HP
h=1
Wh
Th
nh
=
HP
h=1
Wh
Th
nWh
=
T
n
= y (3.30)
V arprop(yes) =
HP
h=1
W 2h
σ2h
nh
=
HP
h=1
Wh
σ2h
n
=
1
n
HP
h=1
Whσ2h =
σ2d
n
(3.31)
Alocação Uniforme
Nessa alocação, tem-se o mesmo tamanho de amostra em cada estrato, ou seja,
nh =
n
H
Alocação ótima
Os tamanhos nh são calculados de forma a minimizar a variância para um custo fixo ou o custo
para uma variância fixa.
Consideraremos apenas funções de custo lineares
C = C0 +
HX
h=1
nhch =⇒ C 0 = C − C0 =
HX
h=1
nhch (3.32)
Na função custo C, o termo C0 corrresponde a um custo inicial comum. O termo ch corresponde
ao custo por unidade dentro do estrato h. Minimizar C é equivalente a minimizar C 0.
Na AESc, a variância é
V ar(yes) = V =
HP
h=1
W 2h
σ2h
nh
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 33
Minimizar C 0 para V fixo ou minimizar V para C 0 fixo é equivalente a minimizar o produto
V C 0.
V C 0 =
µ
HP
h=1
W 2h
σ2h
nh
¶µ
HP
h=1
nhch
¶
(3.33)
• Desigualdade de Cauchy-Schwarz
Sejam ah, bh, h = 1, . . . , L números positivos. Entãoµ
LP
i=1
aibi
¶2
≤
µ
LP
i=1
a2i
¶µ
LP
i=1
b2i
¶
(3.34)
e a igualdade só ocorre se
ai
bi
= k ∀i.
Demonstração
Temos que
0 ≤
LP
i=1
LP
j=1
(aibj − ajbi)2
=
LP
i=1
LP
j=1
(a2i b
2
j + a
2
jb
2
i − 2aibjajbi)
=
LP
i=1
a2i
LP
j=1
b2j +
LP
j=1
a2j
LP
i=1
b2i − 2
LP
i=1
aibi
LP
j=1
ajbj
= 2
LP
i=1
a2i
LP
j=1
b2j − 2
LP
i=1
aibi
LP
j=1
ajbj =⇒
0 ≤
µ
LP
i=1
a2i
¶Ã
LP
j=1
b2j
!
−
µ
LP
i=1
aibi
¶2
=⇒
µ
LP
i=1
aibi
¶2
≤
µ
LP
i=1
a2i
¶Ã
LP
j=1
b2j
!
Por outro lado, a igualdade só ocorre quando
aibj − ajbi = 0 ∀i, j
Isso é equivalente a
ai
bi
=
aj
bj
∀i, j
ou seja, a igualdade só ocorre se
ai
bi
= k ∀i = 1, . . . , L
Queremos minimizar V C 0.
V C 0 =
µ
HP
h=1
W 2h
σ2h
nh
¶µ
HP
h=1
nhch
¶
=
HP
h=1
µ
Whσh√
nh
¶2 HP
h=1
(
√
nhch)
2
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 34
Pela desigualdade de Cauchy-Schwarz resulta que
V C 0 ≥
µ
HP
h=1
Whσh√
nh
√
nhch
¶2
e o mínimo ocorre se e somente se
Whσh√
nh√
nhch
= k ⇐⇒ Whσh
nh
√
ch
= k ⇐⇒ nh =
Whσh
k
√
ch
∀h
Como isso tem que valer ∀h, resultaque
HP
h=1
nh =
HP
h=1
Whσh
k
√
ch
=⇒ n = 1
k
HP
h=1
Whσh√
ch
=⇒ k = 1
n
HP
h=1
Whσh√
ch
Ou seja, V C 0 é mínimo quando
nh = n ·
Whσh√
ch
HP
h=1
Whσh√
ch
(3.35)
Logo, se o custo C 0 é fixo, resulta
C − C0 =
HP
h=1
nhch =
HX
h=1
n ·
Whσh√
ch
HP
h=1
Whσh√
ch
· ch = n ·
HP
h=1
Whσh
√
ch
HP
h=1
Whσh√
ch
e o tamanho ótimo da amostra é
n =
(C − C0)
HP
h=1
Whσh√
ch
HP
h=1
Whσh
√
ch
(3.36)
Se a variância é fixa, resulta que
V =
HX
h=1
W 2h
σ2h
nh
=
HX
h=1
⎛
⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
W 2hσ
2
h
n ·
Whσh√
ch
HP
h=1
Whσh√
ch
⎞
⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠
=
1
n
HX
h=1
⎛
⎜⎜⎜⎝
W 2hσ
2
h
HP
h=1
Whσh√
ch
Whσh√
ch
⎞
⎟⎟⎟⎠
=
1
n
Ã
HX
h=1
Whσh
√
ch
!µ
HP
h=1
Whσh√
ch
¶
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 35
e o tamanho ótimo da amostra é
n =
1
V
Ã
HX
h=1
Whσh
√
ch
!µ
HP
h=1
Whσh√
ch
¶
(3.37)
Se ch = c, ou seja, se o custo é fixo para todos os estratos, então
nh
n
=
Whσh
HP
h=1
Whσh
(3.38)
resulta na alocação ótima de Neyman para a qual a variância é
Vot =
HX
h=1
W 2h
σ2h
nh
=
HX
h=1
⎛
⎜⎜⎜⎜⎜⎜⎜⎝
W 2hσ
2
h
n · Whσh
HP
h=1
Whσh
⎞
⎟⎟⎟⎟⎟⎟⎟⎠
=⇒
Vot =
1
n
µ
HP
h=1
Whσh
¶2
=
σ2
n
(3.39)
onde
σ =
HP
h=1
Whσh
é o desvio padrão médio.
• Teorema 4.4
Com relação à AASc, tem-se que
Vot ≤ Vprop ≤ Vc (3.40)
Demonstração
De acordo com os resultados (3.39), (3.31) e (2.7), temos que
Vot =
1
n
µ
HP
h=1
Whσh
¶2
V prop =
1
n
HP
h=1
Whσ2h =
σ2d
n
Vc =
σ2
n
Mas, por (3.11)
Vc =
σ2
n
=
σ2d + σ
2
e
n
=
σ2d
n
+
σ2e
n
= Vprop +
σ2e
n
(3.41)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 36
e, portanto
Vc ≥ Vprop (3.42)
Temos também que
Vprop − Vot =
1
n
"
HP
h=1
Whσ2h −
µ
HP
h=1
Whσh
¶2#
=
1
n
∙
HP
h=1
Whσ2h − σ2
¸
=
1
n
∙
HP
h=1
Whσ2h − 2σ2 + σ2
¸
=
1
n
∙
HP
h=1
Whσ2h − 2σ
HP
h=1
Whσh + σ2
HP
h=1
Wh
¸
=
1
n
∙
HP
h=1
Wh
¡
σ2h − 2σσh + σ2
¢¸
=
1
n
∙
HP
h=1
Wh (σh − σ)2
¸
Definindo
σ2dp =
1
n
∙
HP
h=1
Wh (σh − σ)2
¸
como uma medida de variabilidade entre os desvios-padrão, resulta que
Vprop − Vot = σ2dp =⇒ Vprop = Vot + σ2dp (3.43)
e, portanto
Vprop ≥ Vot (3.44)
A relação geral entre as variâncias é
Vc = Vprop +
σ2e
n
= Vot + σ2dp +
σ2e
n
(3.45)
Assim, se os estratos tiverem médias bem diferentes (σ2e grande), deve-se usar alocação pro-
porcional ou ótima. Se, além disso, os desvios-padrão forem muito diferentes entre si (σ2dp
grande), a alocação ótima será melhor.
3.5.2 Normalidade assintótica e intervalos de confiança
Para n grande, podemos usar as seguintes aproximações:
Tes − τs
HP
h=1
N2hσ
2
h
nh
a∼ N(0, 1) (3.46)
yes − μs
HP
h=1
W 2hσ
2
h
nh
a∼ N(0, 1) (3.47)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 37
e com isso obter os seguintes intervalos de confiança de nível de confiança aproximadamente igual
a 1− α : Ã
Tes − zα/2
s
HP
h=1
N2hσ
2
h
nh
;Tes + zα/2
s
HP
h=1
N2hσ
2
h
nh
!
(3.48)
Ã
yes − zα/2
s
HP
h=1
W 2hσ
2
h
nh
; yes + zα/2
s
HP
h=1
W 2hσ
2
h
nh
!
(3.49)
3.5.3 Determinação do tamanho da amostra
Usando-se a aproximação normal, pode-se determinar o tamanho n da amostra tal que
Pr (|yes − μ| ≤ B) = 1− α
Dado B, temos que
B = zα/2
s
HP
h=1
W 2hσ
2
h
nh
Como os termos que aparecem são os nh− e não n− vamos supor que
nh = nωh
com ωh conhecido para h = 1, . . . , H. Resulta que
B = zα/2
s
HP
h=1
W 2hσ
2
h
nωh
=⇒
n =
³zα/2
B
´2 HP
h=1
W 2hσ
2
h
ωh
=
1
D
HP
h=1
W 2hσ
2
h
ωh
(3.50)
onde
D =
µ
B
zα/2
¶2
Para o caso de alocação proporcional, por exemplo, temos que ωh = Wh e o tamanho de amostra
resultante é
n =
1
D
HP
h=1
Whσ2h =
σ2d
D
(3.51)
Se queremos controlar o erro do total (Exercício 4.28), temos que
Pr (|Tes − τ | ≤ B) = 1− α
Dado B, temos que
B = zα/2
s
HP
h=1
N2hσ
2
h
nh
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 38
Como antes, vamos supor que
nh = nωh
com ωh conhecido para h = 1, . . . , H. Resulta que
B = zα/2
s
HP
h=1
N2hσ
2
h
nωh
=⇒
n =
³zα/2
B
´2 HP
h=1
N2hσ
2
h
ωh
=
1
D
HP
h=1
N2hσ
2
h
ωh
(3.52)
onde
D =
µ
B
zα/2
¶2
Para o caso de alocação proporcional, o tamanho de amostra resultante é
n =
1
D
HP
h=1
N2hσ
2
h
Wh
=
1
D
HP
h=1
N2hσ
2
h
Nh
N
=
1
D
HP
h=1
NNhσ2h =⇒
n =
1
D
HP
h=1
N2W 2hσ
2
h =⇒ n =
N2
D
σ2d (3.53)
3.5.4 Estimação de proporções
Vamos considerar agora o caso em que a característica de interesse é descrita por uma variável
binária:
Yhi =
½
1 se elemento (h, i) possui a característica
0 caso contrário
Neste caso temos:
μh = Ph
μ = P =
HP
h=1
WhPh
σ2h =
1
Nh
NhP
i=1
(Yhi − μh)2 =
1
Nh
NhP
i=1
(Yhi − Ph)2 =
1
Nh
NhP
i=1
¡
Y 2hi − 2YhiPh + P 2h
¢
=
1
Nh
NhP
i=1
Yhi − 2Ph
NhP
i=1
Yhi
Nh
+
1
Nh
NhP 2h = Ph − 2P 2h + P 2h =⇒
σ2h = Ph − P 2h = Ph(1− Ph) (3.54)
Em termos dos estimadores, temos que bPes é um estimador não viesado para P onde
bPes = HP
h=1
Wh bPh (3.55)
bPh = yh = ph (3.56)
V ar[ bPes] = HP
h=1
W 2h
σ2h
nh
=
HP
h=1
W 2h
Ph(1− Ph)
nh
(3.57)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 39
Por outro lado, sob AASc nos estratos, E[s2h] = σ
2
h onde
s2h =
1
nh − 1
P
i∈sh
(Yhi − ph)2 =
1
nh − 1
∙P
i∈sh
¡
Y 2hi − 2Yhiph + p2h
¢¸
=
1
nh − 1
P
i∈sh
¡
Y 2hi − 2Yhiph + p2h
¢
=
1
nh − 1
µP
i∈sh
Yhi − 2ph
P
i∈sh
Yhi + nhp2h
¶
=⇒
s2h =
1
nh − 1
¡
nhph − nhp2h
¢
=
nh
nh − 1
ph(1− ph) (3.58)
e, portanto, um estimador não viesado para a variância de bPes é
var[ bPes] = HP
h=1
W 2h
s2h
nh
=
HP
h=1
W 2h
ph(1− ph)
nh − 1
(3.59)
Para uma função de custo linear, a alocação ótima resulta em
nh = n ·
Wh
r
PhQh
ch
HP
h=1
Wh
r
PhQh
ch
(3.60)
e no caso em que ch = c ∀h,
nh = n · Wh
√
PhQh
HP
h=1
Wh
√
PhQh
(3.61)
No caso de se tomar o valor mais desfavorável − PhQh = 1/4 − a alocação ótima resume-se à
alocação proporcional.
Se o custo C 0 é fixo, o tamanho ótimo da amostra é
n =
(C − C0)
HP
h=1
Wh
r
PhQh
ch
HP
h=1
Wh
√
PhQhch
(3.62)
Se a variância é fixa, o tamanho ótimo da amostra é
n =
1
V
µ
HP
h=1
Wh
p
PhQhch
¶Ã
HP
h=1
Wh
r
PhQh
ch
!
(3.63)
3.6 Amostragem aleatória estratificada sem reposição
Consideremos agora o caso em que se sorteiam amostras independentes nos H estratos de acordo
com o planejamento de amostragem aleatória simples sem reposição.
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 40
• Corolário 4.2 - AESs
Sob AASs nos estratos, o estimador
Tes =
HP
h=1
Nhyh (3.64)
é não viesado para estimar o total τ e tem variância
V ar(Tes) =
HP
h=1
N2h(1− fh)
S2h
nh
(3.65)
=
HP
h=1
N2h
µ
1− nh
Nh
¶
S2h
nh
=
HP
h=1
N2h
S2h
nh
−
HP
h=1
NhS2h (3.66)
cujo estimador não viesado é
var(Tes) =
HP
h=1
N2h(1− fh)
s2h
nh
(3.67)
O estimador
yes =
Tes
N
=
HP
h=1
Whyh (3.68)
é não viesado para estimar a média μ e tem variância
V ar(yes) =
HP
h=1
W 2h (1− fh)
S2h
nh
(3.69)
=
HP
h=1
W 2h
µ
1− nh
Nh
¶
S2h
nh
=
HP
h=1
W 2h
S2h
nh
−
HP
h=1
W 2h
S2h
Nh
(3.70)
=
HP
h=1
W 2h
S2h
nh
− 1
N
HP
h=1
WhS2h (3.71)cujo estimador não viesado é
var(yes) =
HP
h=1
W 2h (1− fh)
s2h
nh
(3.72)
Demonstração
A demonstração segue do Teorema 4.1, do corolário 4.1 e dos resultados vistos no estudo da
AASs.
3.6.1 Alocação da amostra nos estratos
Vamos ver agora formas de alocar as n unidades da amostra nos estratos, ou seja, vamos determinar
os valores de nh e estudar as propriedades dos estimadores para cada tipo de alocação.
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 41
Alocação proporcional (Teorema 4.2 - AESs)
Na alocação proporcional, distribuem-se as unidades amostrais de forma proporcional aos tamanhos
dos estratos, ou seja:
nh
n
=
Nh
N
⇐⇒ nh = nWh ⇐⇒
nh
Nh
=
n
N
⇐⇒ fh = f (3.73)
Neste caso temos que
yes =
HP
h=1
Whyh =
HP
h=1
Wh
Th
nh
=
HP
h=1
Wh
Th
nWh
=
T
n
= y (3.74)
V arprop(yes) =
HP
h=1
W 2h (1− fh)
S2h
nh
=
HP
h=1
Wh(1− f)
S2h
n
=
1− f
n
HP
h=1
WhS2h = (1− f)
S2d
n
(3.75)
Alocação ótima
Os tamanhos nh são calculados de forma a minimizar a variância para um custo fixo ou o custo
para uma variância fixa.
Consideraremos novamente a função linear
C = C0 +
HX
h=1
nhch =⇒ C 0 = C − C0 =
HX
h=1
nhch
Na AESs, a variância é (resultado 3.70)
V ar(yes) = V =
HP
h=1
W 2h
S2h
nh
−
HP
h=1
W 2h
S2h
Nh
Logo, minimizar V é equivalente a minimizar
V 0 =
HP
h=1
W 2h
S2h
nh
Note a semelhança com a variância minimizada no caso de AASc - troca-se apenas o σ pelo S; logo,
o procedimento de minimização com V 0 dará resultados análogos.
Minimizar C 0 para V 0 fixo ou minimizar V 0 para C 0 fixo é equivalente a minimizar o produto
V 0C 0.
V 0C 0 =
µ
HP
h=1
W 2h
S2h
nh
¶µ
HP
h=1
nhch
¶
(3.76)
Queremos minimizar V 0C 0.
V 0C 0 =
µ
HP
h=1
W 2h
S2h
nh
¶µ
HP
h=1
nhch
¶
=
HP
h=1
µ
WhSh√
nh
¶2 HP
h=1
(
√
nhch)
2
Pela desigualdade de Cauchy-Schwarz resulta que
V 0C 0 ≥
µ
HP
h=1
WhSh√
nh
√
nhch
¶2
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 42
e o mínimo ocorre se e somente se
WhSh√
nh√
nhch
= k ⇐⇒ WhSh
nh
√
ch
= k ⇐⇒ nh =
WhSh
k
√
ch
∀h
Como isso tem que valer ∀h, resulta que
HP
h=1
nh =
HP
h=1
WhSh
k
√
ch
=⇒ n = 1
k
HP
h=1
WhSh√
ch
=⇒ k = 1
n
HP
h=1
WhSh√
ch
Ou seja, V 0C 0 é mínimo quando
nh = n ·
WhSh√
ch
HP
h=1
WhSh√
ch
(3.77)
Logo, se o custo C 0 é fixo resulta
C − C0 =
HP
h=1
nhch =
HX
h=1
n ·
WhSh√
ch
HP
h=1
WhSh√
ch
· ch = n ·
HP
h=1
WhSh
√
ch
HP
h=1
WhSh√
ch
e o tamanho ótimo da amostra é
n =
(C − C0)
HX
h=1
WhSh√
ch
HX
h=1
WhSh
√
ch
(3.78)
Se a variância V 0 é fixa, resulta que
V 0 = V +
HP
h=1
W 2h
S2h
Nh
=
HX
h=1
W 2h
S2h
nh
=
HX
h=1
⎛
⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
W 2hS
2
h
n ·
WhSh√
ch
HP
h=1
WhSh√
ch
⎞
⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠
=
HX
h=1
⎛
⎜⎜⎜⎝
W 2hS
2
h
HP
h=1
WhSh√
ch
n · WhSh√
ch
⎞
⎟⎟⎟⎠
=
1
n
Ã
HX
h=1
WhSh
√
ch
!µ
HP
h=1
WhSh√
ch
¶
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 43
e o tamanho ótimo da amostra é
n =
µ
HP
h=1
WhSh
√
ch
¶µ
HP
h=1
WhSh√
ch
¶
V +
HP
h=1
W 2h
S2h
Nh
=
µ
HP
h=1
WhSh
√
ch
¶µ
HP
h=1
WhSh√
ch
¶
V +
1
N
HP
h=1
WhS2h
(3.79)
Se ch = c, ou seja, se o custo é fixo para todos os estratos, então
nh
n
=
WhSh
HP
h=1
WhSh
(3.80)
resulta na alocação ótima de Neyman para a qual a variância é
Vot =
HP
h=1
W 2h
S2h
nh
−
HP
h=1
W 2h
S2h
Nh
=
HX
h=1
⎛
⎜⎜⎜⎜⎜⎜⎜⎝
W 2hS
2
h
n · WhSh
HP
h=1
WhSh
−
HP
h=1
Wh
S2h
N
⎞
⎟⎟⎟⎟⎟⎟⎟⎠
=⇒
Vot =
1
n
µ
HP
h=1
WhSh
¶2
− 1
N
HP
h=1
WhS2h (3.81)
Relação entre as variâncias
De acordo com os resultados (3.81), (3.75) e (2.31), temos que
Vot =
1
n
µ
HP
h=1
WhSh
¶2
− 1
N
HP
h=1
WhS2h
Vprop =
1− f
n
HP
h=1
WhS2h
Vs = (1− f)
S2
n
Por (3.12), temos que
S2 =
HP
h=1
Nh − 1
N − 1 S
2
h +
HP
h=1
Nh
N − 1 (μh − μ)
2
=
HP
h=1
Nh · Nh − 1Nh
N · N − 1
N
S2h +
HP
h=1
Nh
N · N − 1
N
(μh − μ)2
=
HP
h=1
Nh
N
·
1− 1
Nh
1− 1
N
S2h +
HP
h=1
Nh
N
· 1
1− 1
N
(μh − μ)2
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 44
Se os termos
1
Nh
e
1
N
são desprezíveis, podemos aproximar
S2 ≈
HP
h=1
WhS2h +
HP
h=1
Wh (μh − μ)2
e nesse nível de aproximação,
Vs = (1− f)
S2
n
≈ (1− f)
n
∙
HP
h=1
WhS2h +
HP
h=1
Wh (μh − μ)2
¸
= Vprop +
(1− f)
n
HP
h=1
Wh (μh − μ)2 =⇒
Vs & Vprop
Temos também que
Vprop − Vot =
1− f
n
HP
h=1
WhS2h −
1
n
µ
HP
h=1
WhSh
¶2
+
1
N
HP
h=1
WhS2h
=
µ
1− f
n
+
1
N
¶
HP
h=1
WhS2h −
1
n
µ
HP
h=1
WhSh
¶2
=
µ
N − n
Nn
+
1
N
¶
HP
h=1
WhS2h −
1
n
µ
HP
h=1
WhSh
¶2
=
1
n
"
HP
h=1
WhS2h −
µ
HP
h=1
WhS2h
¶2#
Definindo
S =
HP
h=1
WhSh
temos que
Vprop − Vot =
1
n
∙
HP
h=1
WhS2h − S
2
¸
=
1
n
∙
HP
h=1
WhS2h − 2S
2
+ S
2
¸
=
1
n
∙
HP
h=1
WhS2h − 2σ
HP
h=1
WhSh + S
2 HP
h=1
Wh
¸
=
1
n
∙
HP
h=1
Wh
³
S2h − 2SSh + S
2
´¸
=
1
n
HP
h=1
Wh(Sh − S)2
Resulta que
Vs ≈ Vprop +
(1− f)
n
HP
h=1
Wh (μh − μ)2 = Vot +
1
n
HP
h=1
Wh(Sh − S)2 +
1
n
HP
h=1
Wh(Sh − S)2
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 45
Assim, quando os termos
1
Nh
e
1
N
são desprezíveis, valem as mesmas observações sobre o uso dos três
planejamentos: se os estratos tiverem médias bem diferentes, deve-se usar alocação proporcional ou
ótima. Se, além disso, os desvios-padrão forem muito diferentes entre si (σ2dp grande), a alocação
ótima será melhor.
Se os termos
1
Nh
e
1
N
não são desprezíveis, temos o seguinte resultado exato:
Vs = (1− f)
S2
n
=
1− f
n
∙
HP
h=1
Nh − 1
N − 1 S
2
h +
HP
h=1
Nh
N − 1 (μh − μ)
2
¸
=
1− f
n(N − 1)
∙
HP
h=1
NhS2h −
HP
h=1
S2h +
HP
h=1
Nh (μh − μ)2
¸
=
N
N − 1
1− f
n
HP
h=1
WhS2h −
1− f
n(N − 1)
HP
h=1
S2h +
1− f
n(N − 1)
HP
h=1
Nh (μh − μ)2
=
N − 1 + 1
N − 1
1− f
n
HP
h=1
WhS2h −
1− f
n(N − 1)
HP
h=1
S2h +
1− f
n(N − 1)
HP
h=1
Nh (μh − μ)2
=
1− f
n
HP
h=1
WhS2h +
1
N − 1
1− f
n
HP
h=1
WhS2h −
1− f
n(N − 1)
HP
h=1
S2h +
1− f
n(N − 1)
HP
h=1
Nh (μh − μ)2
=
1− f
n
HP
h=1
WhS2h +
1− f
n(N − 1)
∙
HP
h=1
WhS2h −
HP
h=1
S2h
¸
+
1− f
n(N − 1)
HP
h=1
Nh (μh − μ)2
= Vprop +
1− f
n(N − 1)
∙
HP
h=1
(Wh − 1)S2h +
HP
h=1
Nh (μh − μ)2
¸
= Vprop +
1− f
n(N − 1)
∙
HP
h=1
Nh (μh − μ)2 −
HP
h=1
(1−Wh)S2h
¸
= Vprop +
1− f
n(N − 1)
∙
HP
h=1
Nh (μh − μ)2 −
1
N
HP
h=1
(N −Nh)S2h
¸
Então, a estratificação proporcional pode fornecer variância maior que a AASs. Basta que
HP
h=1
Nh (μh − μ)2 −
1
N
HP
h=1
(N −Nh)S2h < 0
Isso pode acontecer. Suponha, por exemplo, que S2h = S
2
D ∀h. Então a desigualdade acima se reduz
a
HP
h=1
Nh (μh − μ)2 <
1
N
HP
h=1
(N −Nh)S2D ⇐⇒
HP
h=1
Nh (μh − μ)2 < (H − 1)S2D ⇐⇒
HP
h=1
Nh (μh − μ)2
H − 1 < S
2
D
Isso significa que a média quadrática entre estratos é menor que a média quadrática dentro dos
estratos,ou seja, que a razão F na análise de variância é menor que 1.
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 46
3.6.2 Normalidade assintótica e intervalos de confiança
Para n grande, podemos usar as seguintes aproximações:
Tes − τvuut HXh=1
N2h(1− fh)
S2h
nh
a∼ N(0, 1) (3.82)
yes − μvuut HX
h=1
N2h(1− fh)
S2h
nh
a∼ N(0, 1) (3.83)
e com isso obter os seguintes intervalos de confiança de nível de confiança aproximadamente igual
a 1− α :
⎛
⎝Tes − zα/2
vuut HX
h=1
N2h(1− fh)
S2h
nh
;Tes + zα/2
vuut HX
h=1
N2h(1− fh)
S2h
nh
⎞
⎠ (3.84)
⎛
⎝yes − zα/2
vuut HX
h=1
N2h(1− fh)
S2h
nh
; yes + zα/2
vuut HX
h=1
N2h(1− fh)
S2h
nh
⎞
⎠ (3.85)
3.6.3 Determinação do tamanho da amostra
Usando-se a aproximação normal, pode-se determinar o tamanho n da amostra tal que
Pr (|yes − μ| ≤ B) = 1− α
Dado B, temos que
B = zα/2
vuut HX
h=1
N2h(1− fh)
S2h
nh
Note que
D =
µ
B
zα/2
¶2
= V =
HP
h=1
W 2h
S2h
nh
− 1
N
HP
h=1
WhS2h
Como antes, vamos supor que
nh = nωh
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 47
com ωh conhecido para h = 1, . . . , H. Resulta que
D = V =
HP
h=1
W 2h
S2h
nωh
− 1
N
HP
h=1
WhS2h =⇒
1
n
HP
h=1
W 2h
S2h
ωh
= D +
1
N
HP
h=1
WhS2h =⇒
n =
HP
h=1
W 2h
S2h
ωh
D +
1
N
HP
h=1
WhS2h
(3.86)
Para o caso de alocação proporcional, por exemplo, temos que ωh = Wh e o tamanho de amostra
resultante é
n =
HP
h=1
W 2h
S2h
Wh
D +
1
N
HP
h=1
WhS2h
=
HP
h=1
WhS2h
D +
1
N
HP
h=1
WhS2h
(3.87)
Para o caso de alocação ótima de Neyman,
ωh =
WhSh
HP
h=1
WhSh
e o tamanho de amostra resultante é
n =
HX
h=1
⎛
⎜⎜⎜⎜⎜⎜⎜⎝
W 2hS
2
h
WhSh
HP
h=1
WhSh
⎞
⎟⎟⎟⎟⎟⎟⎟⎠
D +
1
N
HP
h=1
WhS2h
=
µ
HP
h=1
WhSh
¶2
D +
1
N
HP
h=1
WhS2h
(3.88)
Se queremos controlar o erro do total (Exercício 4.28), temos que
Pr (|Tes − τ | ≤ B) = 1− α
Dado B, temos que
B = zα/2
s
HP
h=1
N2h
S2h
nh
−
HP
h=1
NhS2h
Como antes, temos que µ
B
zα/2
¶2
= V =
HP
h=1
N2h
S2h
nh
−
HP
h=1
NhS2h
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 48
e vamos supor que
nh = nωh
com ωh conhecido para h = 1, . . . , H. Resulta que
D = V =
HP
h=1
N2h
S2h
nωh
−
HP
h=1
NhS2h =⇒
1
n
HP
h=1
N2h
S2h
ωh
= D +
HP
h=1
NhS2h =⇒
n =
HP
h=1
N2h
S2h
ωh
D +
HP
h=1
NhS2h
=
N2
HP
h=1
W 2h
S2h
ωh
D +
HP
h=1
NhS2h
(3.89)
Para o caso de alocação proporcional, em que ωh = Wh, o tamanho de amostra resultante é
n =
HP
h=1
N2h
S2h
Wh
V +
HP
h=1
NhS2h
=
N
HP
h=1
NhS2h
V +
HP
h=1
NhS2h
=
N2
HP
h=1
WhS2h
V +
HP
h=1
NhS2h
(3.90)
Para o caso de alocação ótima de Neyman,
ωh =
WhSh
HP
h=1
WhSh
=
NhSh
HP
h=1
NhSh
e o tamanho de amostra resultante é
n =
µ
HP
h=1
N2h
S2h
NhSh
¶µ
HP
h=1
NhSh
¶
V +
HP
h=1
NhS2h
=
µ
HP
h=1
NhSh
¶2
V +
HP
h=1
NhS2h
(3.91)
3.6.4 Estimação de proporções
Vamos considerar agora o caso em que a característica de interesse é descrita por uma variável
binária:
Yhi =
½
1 se elemento (h, i) possui a característica
0 caso contrário
Neste caso temos:
μh = Ph
μ = P =
HP
h=1
WhPh
S2h =
Nh
Nh − 1
σ2h =
Nh
Nh − 1
Ph(1− Ph) (3.92)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 49
Em termos dos estimadores, temos que bPes é um estimador não viesado para P onde
bPes = HP
h=1
Wh bPh (3.93)
bPh = yh = ph (3.94)
V ar[ bPes] = HX
h=1
W 2h (1− fh)
S2h
nh
=
HX
h=1
W 2h
µ
1− nh
Nh
¶
Nh
Nh − 1
Ph(1− Ph)
nh
(3.95)
=
HX
h=1
W 2h
Nh − nh
Nh − 1
Ph(1− Ph)
nh
Por outro lado, sob AASs nos estratos, E[s2h] = S
2
h onde
s2h =
1
nh − 1
P
i∈sh
(Yhi − ph)2 =
1
nh − 1
∙P
i∈sh
¡
Y 2hi − 2Yhiph + p2h
¢¸
=
1
nh − 1
P
i∈sh
¡
Y 2hi − 2Yhiph + p2h
¢
=
1
nh − 1
µP
i∈sh
Yhi − 2ph
P
i∈sh
Yhi + nhp2h
¶
=⇒
s2h =
1
nh − 1
¡
nhph − nhp2h
¢
=
nh
nh − 1
ph(1− ph) (3.96)
e, portanto, um estimador não viesado para a variância de bP é
var[ bPes] = HX
h=1
W 2h (1− fh)
s2h
nh
=
HX
h=1
W 2h (1− fh)
ph(1− ph)
nh − 1
(3.97)
Para uma função de custo linear, a alocação ótima resulta em
nh = n ·
Wh
r
Nh
Nh − 1
· PhQh
ch
HP
h=1
Wh
r
Nh
Nh − 1
· PhQh
ch
(3.98)
e no caso em que ch = c ∀h,
nh = n ·
Wh
r
Nh
Nh − 1
· PhQh
HP
h=1
Wh
r
Nh
Nh − 1
· PhQh
(3.99)
Como no caso da AESc, no caso de se tomar o valor mais desfavorável − PhQh = 1/4 − a alocação
ótima resume-se à alocação proporcional.
Se o custo C 0 é fixo resulta que o tamanho ótimo da amostra é
n =
(C − C0)
HP
h=1
Wh
r
Nh
Nh − 1
· PhQh
ch
HP
h=1
Wh
r
Nh
Nh − 1
· PhQhch
(3.100)
CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 50
Se a variância é fixa, resulta que o tamanho ótimo da amostra é
n =
µ
HP
h=1
Wh
r
Nh
Nh − 1
Ph(1− Ph)ch
¶µ
HP
h=1
Wh
r
Nh
Nh − 1
Ph(1− Ph)
ch
¶
V +
HP
h=1
W 2h
Ph(1− Ph)
Nh − 1
(3.101)
Capítulo 4
Estimador de Horwitz-Thompson
Vamos apresentar agora um estimador que se aplica a situações mais gerais envolvendo amostragem
sem reposição, ou seja, esse estimador se aplica a qualquer planejamento amostral probabilístico
sem reposição.
4.1 Algumas relações importantes
4.1.1 Probabilidades de inclusão
Consideremos as variáveis indicadoras de inclusão na amostra s:
δi(s) =
½
1 se i ∈ s
0 se i /∈ s
Temos que
E[δi(s)] =
X
s∈S
δi(s)P (s) =⇒ πi =
X
{s;s⊃i}
P (s) (4.1)
E[δi(s)δj(s)] =
X
s∈S
δi(s)δj(s)P (s) =⇒ πij =
X
{s;s⊃i,j}
P (s) (4.2)
V ar[δi(s)] =
X
s∈S
[δi(s)]
2 P (s)− π2i =
X
s∈S
δi(s)P (s)− π2i = πi − π2i =⇒
V ar[δi(s)] = πi(1− πi) (4.3)
Cov [δi(s), δj(s)] = E[δi(s)δj(s)]−E[δi(s)]E[δj(s)] =⇒ Cov [δi(s), δj(s)] = πij − πiπj (4.4)
4.1.2 Tamanho de amostra variável
O tamanho da amostra é
n(s) =
NP
i=1
δi(s) =⇒ E[n(s)] =
NP
i=1
E[δi(s)] =⇒ E[n(s)] =
NP
i=1
πi (4.5)
51
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 52
Temos também que
V ar[n(s)] =
NP
i=1
V ar[δi(s)] +
NP
i6=j
Cov [δi(s), δj(s)]
=
NP
i=1
πi(1− πi) +
NP
i6=j
(πij − πiπj)
=
NP
i=1
πi −
NP
i=1
π2i −
NP
i6=j
πiπj +
NP
i6=j
πij
= E[n(s)]−
Ã
NP
i=1
π2i +
NP
i6=j
πiπj
!
+
NP
i6=j
πij
= E[n(s)]−
NP
i=1
NP
j=1
πiπj +
NP
i6=j
πij
= [n(s)]−
NP
i=1
πi
NP
j=1
πj +
NP
i6=j
πij
= E[n(s)]−
µ
NP
i=1
πi
¶2
+
NP
i6=j
πij =⇒
V ar[n(s)] = E[n(s)]− {E[n(s)]}2 +
NP
i6=j
πij (4.6)
4.1.3 Tamanho de amostra fixo
Suponhamos agora que o tamanho da amostra seja fixo e igual a n. Nesse caso,
E[n(s)] = n =
NP
i=1
πi (4.7)
V ar[n(s)] = 0 (4.8)
Substituindo em (4.6), resulta que
0 = n− n2 +
NP
i6=j
πij =⇒
NP
i6=j
πij = n(n− 1) (4.9)
Consideremos agora a soma dos πij para um dos índices fixos. Usando o resultado (4.2), temos
NP
i=1
πij =
NP
i=1
P
s∈S
δi(s)δj(s)P (s) =
P
s∈S
NP
i=1
δi(s)δj(s)P (s)
=
P
s∈S
µ
NP
i=1
δi(s)
¶
δj(s)P (s)
Como o tamanho da amostra é fixo, por (4.1) resulta que
NP
i=1
πij =
P
s∈S
nδj(s)P (s) = n
P
s∈S
δj(s)P (s) =⇒
NP
i=1
πij = nπj (4.10)
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 53
Analogamente (ou por simetria)
NP
j=1
πij = nπi (4.11)
Resulta que
NP
i=1
(πij − πiπj) =
NP
i=1
πij − πj
NP
i=1
πi = nπj − nπj =⇒
NP
i=1
(πij − πiπj) = 0 (4.12)
Analogamente
NP
j=1
(πij − πiπj) = 0 (4.13)
Temos que
n(s) = n =
NP
i=1
δi(s) = δi(s) +
P
j 6=i
δj(s) =⇒ δi(s) = n−
P
j 6=i
δj(s)
V ar[δi(s)] = Cov[δi(s), δi(s)] = Cov[δi(s), n−
P
j 6=i
δj(s)]
= Cov[δi(s), n]− Cov
"
δi(s),
P
j 6=i
δj(s)
#
= 0−
P
j 6=iCov[δi(s), δj(s)]
Usando os resultados (4.3) e (4.4), resulta que
πi(1− πi) = −
P
j 6=i
(πij − πiπj) =⇒ πi(1− πi) =
P
j 6=i
(πiπj − πij) (4.14)
4.2 O estimador de Horwitz-Thompson
O estimador de Horwitz-Thompson (abreviado por HT) para o total populacional é definido como
bτHT =X
i∈s
Yi
πi
(4.15)
Teorema
Se todas as probabilidades de inclusão são não nulas, o estimador de Horwitz-Thompson é não
viesado para o total populacional e sua variância é dada por
V ar[bτHT ] = NP
i=1
NP
j=1
(πij − πiπj)
Yi
πi
Yj
πj
(4.16)
Demonstração
Podemos escrever bτHT =P
i∈s
Yi
πi
=
NP
i=1
Yi
πi
δi
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 54
Logo,
E[bτHT ] = E ∙ NP
i=1
Yi
πi
δi
¸
=
NP
i=1
Yi
πi
E[δi] =
NP
i=1
Yi
πi
πi =
NP
i=1
Yi = τ
V ar[bτHT ] = NP
i=1
Y 2i
π2i
V ar[δi] +
NP
i6=j
Yi
πi
Yj
πj
Cov[δi, δj]
=
NP
i=1
Y 2i
π2i
πi(1− πi) +
NP
i6=j
Yi
πi
Yj
πj
(πij − πiπj)
=
NP
i=1
Y 2i
π2i
(πi − π2i ) +
NP
i6=j
Yi
πi
Yj
πj
(πij − πiπj)
=
NP
i=1
NP
j=1
(πij − πiπj)
Yi
πi
Yj
πj
uma vez que πi = πii.
Teorema
Se o desenho amostral é de tamanho fixo, então a variância do estimador de Horwitz-Thompson
pode ser escrita como
V ar1[bτHT ] = −1
2
NP
i=1
NP
j=1
(πij − πiπj)
µ
Yi
πi
− Yj
πj
¶2
(4.17)
Demonstração
−1
2
NP
i=1
NP
j=1
(πij − πiπj)
µ
Yi
πi
− Yj
πj
¶2
= −1
2
NP
i=1
NP
j=1
(πij − πiπj)
µ
Y 2i
π2i
+
Y 2j
π2j
− 2Yi
πi
Yj
πj
¶
= −1
2
NP
i=1
NP
j=1
(πij − πiπj)
Y 2i
π2i
− 1
2
NP
i=1
NP
j=1
(πij − πiπj)
Y 2j
π2j
+
NP
i=1
NP
j=1
(πij − πiπj)
Yi
πi
Yj
πj
= −1
2
NP
i=1
Y 2i
π2i
NP
j=1
(πij − πiπj)−
1
2
NP
j=1
Y 2j
π2j
NP
i=1
(πij − πiπj) +
NP
i=1
NP
j=1
(πij − πiπj)
Yi
πi
Yj
πj
Os 2 primeiros somatórios são nulos de acordo com os resultados (4.12) e (4.13) e isso prova o
teorema.
Teorema
Os estimadores
var[bτHT ] = P
i∈s
P
j∈s
µ
πij − πiπj
πij
¶
Yi
πi
Yj
πj
var1[bτHT ] = −1
2
P
i∈s
P
j∈s
µ
πij − πiπj
πij
¶µ
Yi
πi
− Yj
πj
¶2
são não viesados para estimar as variâncias V ar[bτHT ] e V ar1[bτHT ] respectivamente.
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 55
Demonstração
var[bτHT ] = P
i∈s
P
j∈s
µ
πij − πiπj
πij
¶
Yi
πi
Yj
πj
=
NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶
Yi
πi
Yj
πj
δiδj =⇒
E [var[bτHT ]] = NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶
Yi
πi
Yj
πj
E[δiδj]
=
NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶
Yi
πi
Yj
πj
πij = V ar[bτHT ]
var1[bτHT ] = −1
2
P
i∈s
P
j∈s
µ
πij − πiπj
πij
¶µ
Yi
πi
− Yj
πj
¶2
= −1
2
NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶µ
Yi
πi
− Yj
πj
¶2
δiδj =⇒
E [var1[bτHT ]] = −1
2
NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶µ
Yi
πi
− Yj
πj
¶2
E[δiδj]
= −1
2
NP
i=1
NP
j=1
µ
πij − πiπj
πij
¶µ
Yi
πi
− Yj
πj
¶2
πij = V ar1[bτHT ]
4.2.1 Amostragem aleatória simples sem reposição
No estudo do desenho de amostagem aleatória simples sem reposição, vimos que (resultados 2.23 e
2.24)
πi =
n
N
πij =
n(n− 1)
N(N − 1)
Assim, o estimador de Horwitz-Thompson é:
bτHT =P
i∈s
Yi
πi
=
P
i∈s
N
n
Yi =
N
n
t(s)
e esse é o estimador de expansão visto anteriormente
Vamos mostrar que as variâncias são equivalentes. Coimo esse é um desenho de tamanho fixo,
vamos usar a expressão (4.17):
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 56
V ar1[bτHT ] = −1
2
NP
i=1
NP
j=1
(πij − πiπj)
µ
Yi
πi
− Yj
πj
¶2
=
= −1
2
NP
i=1
NP
j=1
∙
n(n− 1
N(N − 1) −
³ n
N
´2¸µN
n
Yi −
N
n
Yj
¶2
= −1
2
∙
n(n− 1)
N(N − 1) −
³ n
N
´2¸µN
n
¶2 NP
i=1
NP
j=1
(Yi − Yj)2
= −1
2
∙
Nn(n− 1)− n2(N − 1)
N2(N − 1)
¸µ
N
n
¶2 NP
i=1
NP
j=1
¡
Y 2i + Y
2
j − 2YiYj
¢
= −1
2
∙
−Nn+ n2
(N − 1)n2
¸"
NP
i=1
NP
j=1
Y 2i +
NP
i=1
NP
j=1
Y 2j − 2
NP
i=1
NP
j=1
YiYj
#
= −1
2
∙
n(n−N)
(N − 1)n2
¸"
NP
i=1
Y 2i
NP
j=1
1 +
NP
j=1
Y 2j
NP
i=1
1− 2
NP
i=1
Yi
NP
j=1
Yj
#
=
1
2
N − n
n(N − 1)
"
N
NP
i=1
Y 2i +N
NP
j=1
Y 2j − 2
µ
NP
i=1
Yi
¶2#
=
1
2
N − n
n(N − 1)
"
2N
NP
i=1
Y 2i − 2
µ
NP
i=1
Yi
¶2#
=
N(N − n)
n(N − 1)
"
NP
i=1
Y 2i −
1
N
µ
NP
i=1
Yi
¶2#
=
N(N − n)
n(N − 1)
∙
NP
i=1
Y 2i −Nμ2
¸
=
N(N − n)
n
1
N − 1
NP
i=1
(Yi − μ)2
=
N(N − n)
n
S2 = N2
N − n
N
S2
n
= N2(1− f)S
2
n
mesmo resultado obtido anteriormente.
4.2.2 Amostra de Bernoulli
A inclusão, na amostra, de cada elemento da população U é decidida através de repetições indepen-
dentes de um experimento de Bernoulli com probabilidade p de sucesso. Se o resultado da i−ésima
repetição é um sucesso, o elemento i é incluído na amostra. Caso contrário, o elemento i não é
incluído na amostra.
É imediato ver que o tamanho da amostra é aleatório; além disso,
n(s) ∼ Binom(N ; p)
CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 57
Logo,
E[n(s)] = Np
V ar[n(s)] = Np(1− p)
Como as repetições são independentes, segue que
πi = p
πij =
½
p se i = j
p2 se i 6= j
O estimador de Horwitz-Thompson para esse desenho é
bτBern = 1pPi∈s Yi
e sua variância, pelo resultado (4.16), é
V ar [bτBern] = NP
i=1
NP
j=1
(πij − πiπj)
Yi
πi
Yj
πj
=
NP
i6=j
(πij − πiπj)
Yi
πi
Yj
πj
+
NP
i=1
¡
πii − π2i
¢ Y 2i
π2i
=
NP
i6=j
¡
p2 − p2
¢ YiYj
p2
+
NP
i=1
¡
p− p2
¢ Y 2i
p2
=
p− p2
p2
NP
i=1
Y 2i =
1− p
p
NP
i=1
Y 2i
O estimador da variância é calculado observando que, na amostragem de Bernoulli, πij − πiπj =
p2 − p2 = 0 se i 6= j. Logo,
var[bτHT ] = P
i∈s
µ
πii − πiπi
πii
¶µ
Yi
πi
¶2
=
P
i∈s
p− p2
p
µ
Yi
p
¶2
=
1− p
p2
P
i∈s
Y 2i
=
1
p
µ
1
p
− 1
¶P
i∈s
Y 2i

Outros materiais