Baixe o app para aproveitar ainda mais
Prévia do material em texto
Capítulo 3 Amostragem Estratificada 3.1 Notação População dividida em H estratos; estrato h tem tamanho Nh U = HS h=1 Uh Uh ∩ Uh0 = ∅ U = {(1, 1), . . . , (1, N1), . . . , (h, 1), . . . , (h, i), . . . , (h,Nh), . . . , (H, 1), . . . .(H,NH)} Vetor da característica populacional: Y =(Y11, . . . , Y1N1, . . . , Yhi, . . . , YHNH ) 3.2 Parâmetros populacionais • Total do estrato h τh = NhP i=1 Yhi (3.1) • Média do estrato h μh = 1 Nh NhP i=1 Yhi (3.2) • Variância do estrato h σ2h = 1 Nh NhP i=1 (Yhi − μh)2 (3.3) S2h = 1 Nh − 1 NhP i=1 (Yhi − μh)2 (3.4) • Peso do estrato h Wh = Nh N (3.5) 28 CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 29 • Total geral τ = HP h=1 NhP i=1 Yhi = HP h=1 Nhμh (3.6) • Média geral μ = τ N = 1 N HP h=1 Nhμh = HP h=1 Nhμh (3.7) • Variância geral σ2 = 1 N HP h=1 NhP i=1 (Yhi − μ)2 = 1 N HP h=1 NhP i=1 (Yhi − μh + μh − μ)2 = 1 N HP h=1 NhP i=1 (Yhi − μh)2 + 1 N HP h=1 NhP i=1 (μh − μ)2 + 2 N HP h=1 NhP i=1 (Yhi − μh) (μh − μ) = 1 N HP h=1 NhP i=1 Nh Nh (Yhi − μh)2 + 1 N HP h=1 Nh (μh − μ)2 + 2 N HP h=1 (μh − μ) NhP i=1 (Yhi − μh) = HP h=1 Nh N · 1 Nh NhP i=1 (Yhi − μh)2 + HP h=1 Wh (μh − μ)2 + 2 N HP h=1 (μh − μ)× 0 =⇒ σ2 = HP h=1 Whσ2h + HP h=1 Wh (μh − μ)2 (3.8) Definindo a variância dentro dos estratos como a média das variâncias nos estratos σ2d = HP h=1 Whσ2h (3.9) e a variância entre estratos como σ2e = HP h=1 Wh (μh − μ)2 (3.10) resulta que σ2 = σ2d + σ 2 e (3.11) De (3.8) e da relação entre σ e S resulta que N − 1 N S2 = HP h=1 Wh Nh − 1 Nh S2h + HP h=1 Wh (μh − μ)2 =⇒ N − 1 N S2 = HP h=1 Nh N Nh − 1 Nh S2h + HP h=1 Nh N (μh − μ)2 =⇒ (N − 1)S2 = HP h=1 (Nh − 1)S2h + HP h=1 Nh (μh − μ)2 =⇒ S2 = HP h=1 Nh − 1 N − 1 S 2 h + HP h=1 Nh N − 1 (μh − μ) 2 (3.12) Note que, se todos os estratos têm a mesma média, então σ2 = σ2d; quanto maior σ 2 e, maior a diferença σ2 − σ2d. CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 30 3.3 Estatísticas amostrais Amostras independentes são selecionadas de cada estrato. Assim, do estrato h é selecionada uma amostra sh de tamanho nh segundo um planejamento amostral Ah. Para cada estrato h, tem-se as variáveis aleatórias y1, . . . , ynh que assumem os valores Yh1, . . . , YhNh com probabilidades definidas pelo planejamento amostral Ah. • Total amostral do estrato h Th = P i∈sh Yhi (3.13) • Média amostral do estrato h yh = 1 nh P i∈sh Yhi = Th nh (3.14) • Variância amostral do estrato h s2h = 1 nh − 1 P i∈sh (Yhi − yh)2 (3.15) • Total amostral geral T = HP h=1 P i∈sh Yhi = HP h=1 Th (3.16) • Média amostral geral y = T n = 1 n HP h=1 P i∈sh Yhi = 1 n HP h=1 Th = 1 n HP h=1 nhyh (3.17) • Variância amostral geral s2 = 1 n− 1 HP h=1 P i∈sh (Yhi − y)2 (3.18) 3.4 Estimação do total e da média populacionais Amostras independentes são retiradas de cada estrato. Seja Ah o planejamento amostral usado no estrato h. • Teorema 4.1 Seja bμh um estimador não viesado para μh sob o planejamento amostral Ah. Então o estimador Tes = HP h=1 Nhbμh (3.19) é não viesado para estimar o total τ e tem variância V ar(Tes) = HP h=1 N2hV ar(bμh) (3.20) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 31 Demonstração E[Tes] = HP h=1 NhE[bμh] = HP h=1 Nhμh = HP h=1 τh = τ Como as amostras são independentes, o resultado sobre a variância é imediato. • Corolário 4.1 O estimador yes = Tes N = HP h=1 Whbμh (3.21) é não viesado para estimar a média μ e tem variância V ar(yes) = HP h=1 W 2hV ar(bμh) (3.22) Demonstração E[yes] = E[Tes] N = τ N = μ e a demonstração sobre a variância é imediata. 3.5 Amostragem aleatória estratificada com reposição Consideremos agora o caso em que se sorteiam amostras independentes nos H estratos de acordo com o planejamento de amostragem aleatória simples com reposição. • Corolário 4.2 - AESc Sob AASc nos estratos, o estimador Tes = HP h=1 Nhyh (3.23) é não viesado para estimar o total τ e tem variância V ar(Tes) = HP h=1 N2h σ2h nh (3.24) cujo estimador não viesado é var(Tes) = HP h=1 N2h s2h nh (3.25) O estimador yes = Tes N = HP h=1 Whyh (3.26) é não viesado para estimar a média μ e tem variância V ar(yes) = HP h=1 W 2h σ2h nh (3.27) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 32 cujo estimador não viesado é var(yes) = HP h=1 W 2h s2h nh (3.28) Demonstração A demonstração segue do Teorema 4.1, do corolário 4.1 e dos resultados vistos no estudo da AASc. 3.5.1 Alocação da amostra nos estratos Vamos ver agora formas de alocar as n unidades da amostra nos estratos, ou seja, vamos determinar os valores de nh e estudar as propriedades dos estimadores para cada tipo de alocação. Alocação proporcional (Teorema 4.2 - AESc) Na alocação proporcional, distribuem-se as unidades amostrais de forma proporcional aos tamanhos dos estratos, ou seja: nh n = Nh N ⇐⇒ nh = nWh ⇐⇒ nh Nh = n N (3.29) Neste caso temos que yes = HP h=1 Whyh = HP h=1 Wh Th nh = HP h=1 Wh Th nWh = T n = y (3.30) V arprop(yes) = HP h=1 W 2h σ2h nh = HP h=1 Wh σ2h n = 1 n HP h=1 Whσ2h = σ2d n (3.31) Alocação Uniforme Nessa alocação, tem-se o mesmo tamanho de amostra em cada estrato, ou seja, nh = n H Alocação ótima Os tamanhos nh são calculados de forma a minimizar a variância para um custo fixo ou o custo para uma variância fixa. Consideraremos apenas funções de custo lineares C = C0 + HX h=1 nhch =⇒ C 0 = C − C0 = HX h=1 nhch (3.32) Na função custo C, o termo C0 corrresponde a um custo inicial comum. O termo ch corresponde ao custo por unidade dentro do estrato h. Minimizar C é equivalente a minimizar C 0. Na AESc, a variância é V ar(yes) = V = HP h=1 W 2h σ2h nh CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 33 Minimizar C 0 para V fixo ou minimizar V para C 0 fixo é equivalente a minimizar o produto V C 0. V C 0 = µ HP h=1 W 2h σ2h nh ¶µ HP h=1 nhch ¶ (3.33) • Desigualdade de Cauchy-Schwarz Sejam ah, bh, h = 1, . . . , L números positivos. Entãoµ LP i=1 aibi ¶2 ≤ µ LP i=1 a2i ¶µ LP i=1 b2i ¶ (3.34) e a igualdade só ocorre se ai bi = k ∀i. Demonstração Temos que 0 ≤ LP i=1 LP j=1 (aibj − ajbi)2 = LP i=1 LP j=1 (a2i b 2 j + a 2 jb 2 i − 2aibjajbi) = LP i=1 a2i LP j=1 b2j + LP j=1 a2j LP i=1 b2i − 2 LP i=1 aibi LP j=1 ajbj = 2 LP i=1 a2i LP j=1 b2j − 2 LP i=1 aibi LP j=1 ajbj =⇒ 0 ≤ µ LP i=1 a2i ¶Ã LP j=1 b2j ! − µ LP i=1 aibi ¶2 =⇒ µ LP i=1 aibi ¶2 ≤ µ LP i=1 a2i ¶Ã LP j=1 b2j ! Por outro lado, a igualdade só ocorre quando aibj − ajbi = 0 ∀i, j Isso é equivalente a ai bi = aj bj ∀i, j ou seja, a igualdade só ocorre se ai bi = k ∀i = 1, . . . , L Queremos minimizar V C 0. V C 0 = µ HP h=1 W 2h σ2h nh ¶µ HP h=1 nhch ¶ = HP h=1 µ Whσh√ nh ¶2 HP h=1 ( √ nhch) 2 CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 34 Pela desigualdade de Cauchy-Schwarz resulta que V C 0 ≥ µ HP h=1 Whσh√ nh √ nhch ¶2 e o mínimo ocorre se e somente se Whσh√ nh√ nhch = k ⇐⇒ Whσh nh √ ch = k ⇐⇒ nh = Whσh k √ ch ∀h Como isso tem que valer ∀h, resultaque HP h=1 nh = HP h=1 Whσh k √ ch =⇒ n = 1 k HP h=1 Whσh√ ch =⇒ k = 1 n HP h=1 Whσh√ ch Ou seja, V C 0 é mínimo quando nh = n · Whσh√ ch HP h=1 Whσh√ ch (3.35) Logo, se o custo C 0 é fixo, resulta C − C0 = HP h=1 nhch = HX h=1 n · Whσh√ ch HP h=1 Whσh√ ch · ch = n · HP h=1 Whσh √ ch HP h=1 Whσh√ ch e o tamanho ótimo da amostra é n = (C − C0) HP h=1 Whσh√ ch HP h=1 Whσh √ ch (3.36) Se a variância é fixa, resulta que V = HX h=1 W 2h σ2h nh = HX h=1 ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ W 2hσ 2 h n · Whσh√ ch HP h=1 Whσh√ ch ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = 1 n HX h=1 ⎛ ⎜⎜⎜⎝ W 2hσ 2 h HP h=1 Whσh√ ch Whσh√ ch ⎞ ⎟⎟⎟⎠ = 1 n à HX h=1 Whσh √ ch !µ HP h=1 Whσh√ ch ¶ CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 35 e o tamanho ótimo da amostra é n = 1 V à HX h=1 Whσh √ ch !µ HP h=1 Whσh√ ch ¶ (3.37) Se ch = c, ou seja, se o custo é fixo para todos os estratos, então nh n = Whσh HP h=1 Whσh (3.38) resulta na alocação ótima de Neyman para a qual a variância é Vot = HX h=1 W 2h σ2h nh = HX h=1 ⎛ ⎜⎜⎜⎜⎜⎜⎜⎝ W 2hσ 2 h n · Whσh HP h=1 Whσh ⎞ ⎟⎟⎟⎟⎟⎟⎟⎠ =⇒ Vot = 1 n µ HP h=1 Whσh ¶2 = σ2 n (3.39) onde σ = HP h=1 Whσh é o desvio padrão médio. • Teorema 4.4 Com relação à AASc, tem-se que Vot ≤ Vprop ≤ Vc (3.40) Demonstração De acordo com os resultados (3.39), (3.31) e (2.7), temos que Vot = 1 n µ HP h=1 Whσh ¶2 V prop = 1 n HP h=1 Whσ2h = σ2d n Vc = σ2 n Mas, por (3.11) Vc = σ2 n = σ2d + σ 2 e n = σ2d n + σ2e n = Vprop + σ2e n (3.41) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 36 e, portanto Vc ≥ Vprop (3.42) Temos também que Vprop − Vot = 1 n " HP h=1 Whσ2h − µ HP h=1 Whσh ¶2# = 1 n ∙ HP h=1 Whσ2h − σ2 ¸ = 1 n ∙ HP h=1 Whσ2h − 2σ2 + σ2 ¸ = 1 n ∙ HP h=1 Whσ2h − 2σ HP h=1 Whσh + σ2 HP h=1 Wh ¸ = 1 n ∙ HP h=1 Wh ¡ σ2h − 2σσh + σ2 ¢¸ = 1 n ∙ HP h=1 Wh (σh − σ)2 ¸ Definindo σ2dp = 1 n ∙ HP h=1 Wh (σh − σ)2 ¸ como uma medida de variabilidade entre os desvios-padrão, resulta que Vprop − Vot = σ2dp =⇒ Vprop = Vot + σ2dp (3.43) e, portanto Vprop ≥ Vot (3.44) A relação geral entre as variâncias é Vc = Vprop + σ2e n = Vot + σ2dp + σ2e n (3.45) Assim, se os estratos tiverem médias bem diferentes (σ2e grande), deve-se usar alocação pro- porcional ou ótima. Se, além disso, os desvios-padrão forem muito diferentes entre si (σ2dp grande), a alocação ótima será melhor. 3.5.2 Normalidade assintótica e intervalos de confiança Para n grande, podemos usar as seguintes aproximações: Tes − τs HP h=1 N2hσ 2 h nh a∼ N(0, 1) (3.46) yes − μs HP h=1 W 2hσ 2 h nh a∼ N(0, 1) (3.47) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 37 e com isso obter os seguintes intervalos de confiança de nível de confiança aproximadamente igual a 1− α : à Tes − zα/2 s HP h=1 N2hσ 2 h nh ;Tes + zα/2 s HP h=1 N2hσ 2 h nh ! (3.48) à yes − zα/2 s HP h=1 W 2hσ 2 h nh ; yes + zα/2 s HP h=1 W 2hσ 2 h nh ! (3.49) 3.5.3 Determinação do tamanho da amostra Usando-se a aproximação normal, pode-se determinar o tamanho n da amostra tal que Pr (|yes − μ| ≤ B) = 1− α Dado B, temos que B = zα/2 s HP h=1 W 2hσ 2 h nh Como os termos que aparecem são os nh− e não n− vamos supor que nh = nωh com ωh conhecido para h = 1, . . . , H. Resulta que B = zα/2 s HP h=1 W 2hσ 2 h nωh =⇒ n = ³zα/2 B ´2 HP h=1 W 2hσ 2 h ωh = 1 D HP h=1 W 2hσ 2 h ωh (3.50) onde D = µ B zα/2 ¶2 Para o caso de alocação proporcional, por exemplo, temos que ωh = Wh e o tamanho de amostra resultante é n = 1 D HP h=1 Whσ2h = σ2d D (3.51) Se queremos controlar o erro do total (Exercício 4.28), temos que Pr (|Tes − τ | ≤ B) = 1− α Dado B, temos que B = zα/2 s HP h=1 N2hσ 2 h nh CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 38 Como antes, vamos supor que nh = nωh com ωh conhecido para h = 1, . . . , H. Resulta que B = zα/2 s HP h=1 N2hσ 2 h nωh =⇒ n = ³zα/2 B ´2 HP h=1 N2hσ 2 h ωh = 1 D HP h=1 N2hσ 2 h ωh (3.52) onde D = µ B zα/2 ¶2 Para o caso de alocação proporcional, o tamanho de amostra resultante é n = 1 D HP h=1 N2hσ 2 h Wh = 1 D HP h=1 N2hσ 2 h Nh N = 1 D HP h=1 NNhσ2h =⇒ n = 1 D HP h=1 N2W 2hσ 2 h =⇒ n = N2 D σ2d (3.53) 3.5.4 Estimação de proporções Vamos considerar agora o caso em que a característica de interesse é descrita por uma variável binária: Yhi = ½ 1 se elemento (h, i) possui a característica 0 caso contrário Neste caso temos: μh = Ph μ = P = HP h=1 WhPh σ2h = 1 Nh NhP i=1 (Yhi − μh)2 = 1 Nh NhP i=1 (Yhi − Ph)2 = 1 Nh NhP i=1 ¡ Y 2hi − 2YhiPh + P 2h ¢ = 1 Nh NhP i=1 Yhi − 2Ph NhP i=1 Yhi Nh + 1 Nh NhP 2h = Ph − 2P 2h + P 2h =⇒ σ2h = Ph − P 2h = Ph(1− Ph) (3.54) Em termos dos estimadores, temos que bPes é um estimador não viesado para P onde bPes = HP h=1 Wh bPh (3.55) bPh = yh = ph (3.56) V ar[ bPes] = HP h=1 W 2h σ2h nh = HP h=1 W 2h Ph(1− Ph) nh (3.57) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 39 Por outro lado, sob AASc nos estratos, E[s2h] = σ 2 h onde s2h = 1 nh − 1 P i∈sh (Yhi − ph)2 = 1 nh − 1 ∙P i∈sh ¡ Y 2hi − 2Yhiph + p2h ¢¸ = 1 nh − 1 P i∈sh ¡ Y 2hi − 2Yhiph + p2h ¢ = 1 nh − 1 µP i∈sh Yhi − 2ph P i∈sh Yhi + nhp2h ¶ =⇒ s2h = 1 nh − 1 ¡ nhph − nhp2h ¢ = nh nh − 1 ph(1− ph) (3.58) e, portanto, um estimador não viesado para a variância de bPes é var[ bPes] = HP h=1 W 2h s2h nh = HP h=1 W 2h ph(1− ph) nh − 1 (3.59) Para uma função de custo linear, a alocação ótima resulta em nh = n · Wh r PhQh ch HP h=1 Wh r PhQh ch (3.60) e no caso em que ch = c ∀h, nh = n · Wh √ PhQh HP h=1 Wh √ PhQh (3.61) No caso de se tomar o valor mais desfavorável − PhQh = 1/4 − a alocação ótima resume-se à alocação proporcional. Se o custo C 0 é fixo, o tamanho ótimo da amostra é n = (C − C0) HP h=1 Wh r PhQh ch HP h=1 Wh √ PhQhch (3.62) Se a variância é fixa, o tamanho ótimo da amostra é n = 1 V µ HP h=1 Wh p PhQhch ¶Ã HP h=1 Wh r PhQh ch ! (3.63) 3.6 Amostragem aleatória estratificada sem reposição Consideremos agora o caso em que se sorteiam amostras independentes nos H estratos de acordo com o planejamento de amostragem aleatória simples sem reposição. CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 40 • Corolário 4.2 - AESs Sob AASs nos estratos, o estimador Tes = HP h=1 Nhyh (3.64) é não viesado para estimar o total τ e tem variância V ar(Tes) = HP h=1 N2h(1− fh) S2h nh (3.65) = HP h=1 N2h µ 1− nh Nh ¶ S2h nh = HP h=1 N2h S2h nh − HP h=1 NhS2h (3.66) cujo estimador não viesado é var(Tes) = HP h=1 N2h(1− fh) s2h nh (3.67) O estimador yes = Tes N = HP h=1 Whyh (3.68) é não viesado para estimar a média μ e tem variância V ar(yes) = HP h=1 W 2h (1− fh) S2h nh (3.69) = HP h=1 W 2h µ 1− nh Nh ¶ S2h nh = HP h=1 W 2h S2h nh − HP h=1 W 2h S2h Nh (3.70) = HP h=1 W 2h S2h nh − 1 N HP h=1 WhS2h (3.71)cujo estimador não viesado é var(yes) = HP h=1 W 2h (1− fh) s2h nh (3.72) Demonstração A demonstração segue do Teorema 4.1, do corolário 4.1 e dos resultados vistos no estudo da AASs. 3.6.1 Alocação da amostra nos estratos Vamos ver agora formas de alocar as n unidades da amostra nos estratos, ou seja, vamos determinar os valores de nh e estudar as propriedades dos estimadores para cada tipo de alocação. CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 41 Alocação proporcional (Teorema 4.2 - AESs) Na alocação proporcional, distribuem-se as unidades amostrais de forma proporcional aos tamanhos dos estratos, ou seja: nh n = Nh N ⇐⇒ nh = nWh ⇐⇒ nh Nh = n N ⇐⇒ fh = f (3.73) Neste caso temos que yes = HP h=1 Whyh = HP h=1 Wh Th nh = HP h=1 Wh Th nWh = T n = y (3.74) V arprop(yes) = HP h=1 W 2h (1− fh) S2h nh = HP h=1 Wh(1− f) S2h n = 1− f n HP h=1 WhS2h = (1− f) S2d n (3.75) Alocação ótima Os tamanhos nh são calculados de forma a minimizar a variância para um custo fixo ou o custo para uma variância fixa. Consideraremos novamente a função linear C = C0 + HX h=1 nhch =⇒ C 0 = C − C0 = HX h=1 nhch Na AESs, a variância é (resultado 3.70) V ar(yes) = V = HP h=1 W 2h S2h nh − HP h=1 W 2h S2h Nh Logo, minimizar V é equivalente a minimizar V 0 = HP h=1 W 2h S2h nh Note a semelhança com a variância minimizada no caso de AASc - troca-se apenas o σ pelo S; logo, o procedimento de minimização com V 0 dará resultados análogos. Minimizar C 0 para V 0 fixo ou minimizar V 0 para C 0 fixo é equivalente a minimizar o produto V 0C 0. V 0C 0 = µ HP h=1 W 2h S2h nh ¶µ HP h=1 nhch ¶ (3.76) Queremos minimizar V 0C 0. V 0C 0 = µ HP h=1 W 2h S2h nh ¶µ HP h=1 nhch ¶ = HP h=1 µ WhSh√ nh ¶2 HP h=1 ( √ nhch) 2 Pela desigualdade de Cauchy-Schwarz resulta que V 0C 0 ≥ µ HP h=1 WhSh√ nh √ nhch ¶2 CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 42 e o mínimo ocorre se e somente se WhSh√ nh√ nhch = k ⇐⇒ WhSh nh √ ch = k ⇐⇒ nh = WhSh k √ ch ∀h Como isso tem que valer ∀h, resulta que HP h=1 nh = HP h=1 WhSh k √ ch =⇒ n = 1 k HP h=1 WhSh√ ch =⇒ k = 1 n HP h=1 WhSh√ ch Ou seja, V 0C 0 é mínimo quando nh = n · WhSh√ ch HP h=1 WhSh√ ch (3.77) Logo, se o custo C 0 é fixo resulta C − C0 = HP h=1 nhch = HX h=1 n · WhSh√ ch HP h=1 WhSh√ ch · ch = n · HP h=1 WhSh √ ch HP h=1 WhSh√ ch e o tamanho ótimo da amostra é n = (C − C0) HX h=1 WhSh√ ch HX h=1 WhSh √ ch (3.78) Se a variância V 0 é fixa, resulta que V 0 = V + HP h=1 W 2h S2h Nh = HX h=1 W 2h S2h nh = HX h=1 ⎛ ⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ W 2hS 2 h n · WhSh√ ch HP h=1 WhSh√ ch ⎞ ⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = HX h=1 ⎛ ⎜⎜⎜⎝ W 2hS 2 h HP h=1 WhSh√ ch n · WhSh√ ch ⎞ ⎟⎟⎟⎠ = 1 n à HX h=1 WhSh √ ch !µ HP h=1 WhSh√ ch ¶ CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 43 e o tamanho ótimo da amostra é n = µ HP h=1 WhSh √ ch ¶µ HP h=1 WhSh√ ch ¶ V + HP h=1 W 2h S2h Nh = µ HP h=1 WhSh √ ch ¶µ HP h=1 WhSh√ ch ¶ V + 1 N HP h=1 WhS2h (3.79) Se ch = c, ou seja, se o custo é fixo para todos os estratos, então nh n = WhSh HP h=1 WhSh (3.80) resulta na alocação ótima de Neyman para a qual a variância é Vot = HP h=1 W 2h S2h nh − HP h=1 W 2h S2h Nh = HX h=1 ⎛ ⎜⎜⎜⎜⎜⎜⎜⎝ W 2hS 2 h n · WhSh HP h=1 WhSh − HP h=1 Wh S2h N ⎞ ⎟⎟⎟⎟⎟⎟⎟⎠ =⇒ Vot = 1 n µ HP h=1 WhSh ¶2 − 1 N HP h=1 WhS2h (3.81) Relação entre as variâncias De acordo com os resultados (3.81), (3.75) e (2.31), temos que Vot = 1 n µ HP h=1 WhSh ¶2 − 1 N HP h=1 WhS2h Vprop = 1− f n HP h=1 WhS2h Vs = (1− f) S2 n Por (3.12), temos que S2 = HP h=1 Nh − 1 N − 1 S 2 h + HP h=1 Nh N − 1 (μh − μ) 2 = HP h=1 Nh · Nh − 1Nh N · N − 1 N S2h + HP h=1 Nh N · N − 1 N (μh − μ)2 = HP h=1 Nh N · 1− 1 Nh 1− 1 N S2h + HP h=1 Nh N · 1 1− 1 N (μh − μ)2 CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 44 Se os termos 1 Nh e 1 N são desprezíveis, podemos aproximar S2 ≈ HP h=1 WhS2h + HP h=1 Wh (μh − μ)2 e nesse nível de aproximação, Vs = (1− f) S2 n ≈ (1− f) n ∙ HP h=1 WhS2h + HP h=1 Wh (μh − μ)2 ¸ = Vprop + (1− f) n HP h=1 Wh (μh − μ)2 =⇒ Vs & Vprop Temos também que Vprop − Vot = 1− f n HP h=1 WhS2h − 1 n µ HP h=1 WhSh ¶2 + 1 N HP h=1 WhS2h = µ 1− f n + 1 N ¶ HP h=1 WhS2h − 1 n µ HP h=1 WhSh ¶2 = µ N − n Nn + 1 N ¶ HP h=1 WhS2h − 1 n µ HP h=1 WhSh ¶2 = 1 n " HP h=1 WhS2h − µ HP h=1 WhS2h ¶2# Definindo S = HP h=1 WhSh temos que Vprop − Vot = 1 n ∙ HP h=1 WhS2h − S 2 ¸ = 1 n ∙ HP h=1 WhS2h − 2S 2 + S 2 ¸ = 1 n ∙ HP h=1 WhS2h − 2σ HP h=1 WhSh + S 2 HP h=1 Wh ¸ = 1 n ∙ HP h=1 Wh ³ S2h − 2SSh + S 2 ´¸ = 1 n HP h=1 Wh(Sh − S)2 Resulta que Vs ≈ Vprop + (1− f) n HP h=1 Wh (μh − μ)2 = Vot + 1 n HP h=1 Wh(Sh − S)2 + 1 n HP h=1 Wh(Sh − S)2 CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 45 Assim, quando os termos 1 Nh e 1 N são desprezíveis, valem as mesmas observações sobre o uso dos três planejamentos: se os estratos tiverem médias bem diferentes, deve-se usar alocação proporcional ou ótima. Se, além disso, os desvios-padrão forem muito diferentes entre si (σ2dp grande), a alocação ótima será melhor. Se os termos 1 Nh e 1 N não são desprezíveis, temos o seguinte resultado exato: Vs = (1− f) S2 n = 1− f n ∙ HP h=1 Nh − 1 N − 1 S 2 h + HP h=1 Nh N − 1 (μh − μ) 2 ¸ = 1− f n(N − 1) ∙ HP h=1 NhS2h − HP h=1 S2h + HP h=1 Nh (μh − μ)2 ¸ = N N − 1 1− f n HP h=1 WhS2h − 1− f n(N − 1) HP h=1 S2h + 1− f n(N − 1) HP h=1 Nh (μh − μ)2 = N − 1 + 1 N − 1 1− f n HP h=1 WhS2h − 1− f n(N − 1) HP h=1 S2h + 1− f n(N − 1) HP h=1 Nh (μh − μ)2 = 1− f n HP h=1 WhS2h + 1 N − 1 1− f n HP h=1 WhS2h − 1− f n(N − 1) HP h=1 S2h + 1− f n(N − 1) HP h=1 Nh (μh − μ)2 = 1− f n HP h=1 WhS2h + 1− f n(N − 1) ∙ HP h=1 WhS2h − HP h=1 S2h ¸ + 1− f n(N − 1) HP h=1 Nh (μh − μ)2 = Vprop + 1− f n(N − 1) ∙ HP h=1 (Wh − 1)S2h + HP h=1 Nh (μh − μ)2 ¸ = Vprop + 1− f n(N − 1) ∙ HP h=1 Nh (μh − μ)2 − HP h=1 (1−Wh)S2h ¸ = Vprop + 1− f n(N − 1) ∙ HP h=1 Nh (μh − μ)2 − 1 N HP h=1 (N −Nh)S2h ¸ Então, a estratificação proporcional pode fornecer variância maior que a AASs. Basta que HP h=1 Nh (μh − μ)2 − 1 N HP h=1 (N −Nh)S2h < 0 Isso pode acontecer. Suponha, por exemplo, que S2h = S 2 D ∀h. Então a desigualdade acima se reduz a HP h=1 Nh (μh − μ)2 < 1 N HP h=1 (N −Nh)S2D ⇐⇒ HP h=1 Nh (μh − μ)2 < (H − 1)S2D ⇐⇒ HP h=1 Nh (μh − μ)2 H − 1 < S 2 D Isso significa que a média quadrática entre estratos é menor que a média quadrática dentro dos estratos,ou seja, que a razão F na análise de variância é menor que 1. CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 46 3.6.2 Normalidade assintótica e intervalos de confiança Para n grande, podemos usar as seguintes aproximações: Tes − τvuut HXh=1 N2h(1− fh) S2h nh a∼ N(0, 1) (3.82) yes − μvuut HX h=1 N2h(1− fh) S2h nh a∼ N(0, 1) (3.83) e com isso obter os seguintes intervalos de confiança de nível de confiança aproximadamente igual a 1− α : ⎛ ⎝Tes − zα/2 vuut HX h=1 N2h(1− fh) S2h nh ;Tes + zα/2 vuut HX h=1 N2h(1− fh) S2h nh ⎞ ⎠ (3.84) ⎛ ⎝yes − zα/2 vuut HX h=1 N2h(1− fh) S2h nh ; yes + zα/2 vuut HX h=1 N2h(1− fh) S2h nh ⎞ ⎠ (3.85) 3.6.3 Determinação do tamanho da amostra Usando-se a aproximação normal, pode-se determinar o tamanho n da amostra tal que Pr (|yes − μ| ≤ B) = 1− α Dado B, temos que B = zα/2 vuut HX h=1 N2h(1− fh) S2h nh Note que D = µ B zα/2 ¶2 = V = HP h=1 W 2h S2h nh − 1 N HP h=1 WhS2h Como antes, vamos supor que nh = nωh CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 47 com ωh conhecido para h = 1, . . . , H. Resulta que D = V = HP h=1 W 2h S2h nωh − 1 N HP h=1 WhS2h =⇒ 1 n HP h=1 W 2h S2h ωh = D + 1 N HP h=1 WhS2h =⇒ n = HP h=1 W 2h S2h ωh D + 1 N HP h=1 WhS2h (3.86) Para o caso de alocação proporcional, por exemplo, temos que ωh = Wh e o tamanho de amostra resultante é n = HP h=1 W 2h S2h Wh D + 1 N HP h=1 WhS2h = HP h=1 WhS2h D + 1 N HP h=1 WhS2h (3.87) Para o caso de alocação ótima de Neyman, ωh = WhSh HP h=1 WhSh e o tamanho de amostra resultante é n = HX h=1 ⎛ ⎜⎜⎜⎜⎜⎜⎜⎝ W 2hS 2 h WhSh HP h=1 WhSh ⎞ ⎟⎟⎟⎟⎟⎟⎟⎠ D + 1 N HP h=1 WhS2h = µ HP h=1 WhSh ¶2 D + 1 N HP h=1 WhS2h (3.88) Se queremos controlar o erro do total (Exercício 4.28), temos que Pr (|Tes − τ | ≤ B) = 1− α Dado B, temos que B = zα/2 s HP h=1 N2h S2h nh − HP h=1 NhS2h Como antes, temos que µ B zα/2 ¶2 = V = HP h=1 N2h S2h nh − HP h=1 NhS2h CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 48 e vamos supor que nh = nωh com ωh conhecido para h = 1, . . . , H. Resulta que D = V = HP h=1 N2h S2h nωh − HP h=1 NhS2h =⇒ 1 n HP h=1 N2h S2h ωh = D + HP h=1 NhS2h =⇒ n = HP h=1 N2h S2h ωh D + HP h=1 NhS2h = N2 HP h=1 W 2h S2h ωh D + HP h=1 NhS2h (3.89) Para o caso de alocação proporcional, em que ωh = Wh, o tamanho de amostra resultante é n = HP h=1 N2h S2h Wh V + HP h=1 NhS2h = N HP h=1 NhS2h V + HP h=1 NhS2h = N2 HP h=1 WhS2h V + HP h=1 NhS2h (3.90) Para o caso de alocação ótima de Neyman, ωh = WhSh HP h=1 WhSh = NhSh HP h=1 NhSh e o tamanho de amostra resultante é n = µ HP h=1 N2h S2h NhSh ¶µ HP h=1 NhSh ¶ V + HP h=1 NhS2h = µ HP h=1 NhSh ¶2 V + HP h=1 NhS2h (3.91) 3.6.4 Estimação de proporções Vamos considerar agora o caso em que a característica de interesse é descrita por uma variável binária: Yhi = ½ 1 se elemento (h, i) possui a característica 0 caso contrário Neste caso temos: μh = Ph μ = P = HP h=1 WhPh S2h = Nh Nh − 1 σ2h = Nh Nh − 1 Ph(1− Ph) (3.92) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 49 Em termos dos estimadores, temos que bPes é um estimador não viesado para P onde bPes = HP h=1 Wh bPh (3.93) bPh = yh = ph (3.94) V ar[ bPes] = HX h=1 W 2h (1− fh) S2h nh = HX h=1 W 2h µ 1− nh Nh ¶ Nh Nh − 1 Ph(1− Ph) nh (3.95) = HX h=1 W 2h Nh − nh Nh − 1 Ph(1− Ph) nh Por outro lado, sob AASs nos estratos, E[s2h] = S 2 h onde s2h = 1 nh − 1 P i∈sh (Yhi − ph)2 = 1 nh − 1 ∙P i∈sh ¡ Y 2hi − 2Yhiph + p2h ¢¸ = 1 nh − 1 P i∈sh ¡ Y 2hi − 2Yhiph + p2h ¢ = 1 nh − 1 µP i∈sh Yhi − 2ph P i∈sh Yhi + nhp2h ¶ =⇒ s2h = 1 nh − 1 ¡ nhph − nhp2h ¢ = nh nh − 1 ph(1− ph) (3.96) e, portanto, um estimador não viesado para a variância de bP é var[ bPes] = HX h=1 W 2h (1− fh) s2h nh = HX h=1 W 2h (1− fh) ph(1− ph) nh − 1 (3.97) Para uma função de custo linear, a alocação ótima resulta em nh = n · Wh r Nh Nh − 1 · PhQh ch HP h=1 Wh r Nh Nh − 1 · PhQh ch (3.98) e no caso em que ch = c ∀h, nh = n · Wh r Nh Nh − 1 · PhQh HP h=1 Wh r Nh Nh − 1 · PhQh (3.99) Como no caso da AESc, no caso de se tomar o valor mais desfavorável − PhQh = 1/4 − a alocação ótima resume-se à alocação proporcional. Se o custo C 0 é fixo resulta que o tamanho ótimo da amostra é n = (C − C0) HP h=1 Wh r Nh Nh − 1 · PhQh ch HP h=1 Wh r Nh Nh − 1 · PhQhch (3.100) CAPÍTULO 3. AMOSTRAGEM ESTRATIFICADA 50 Se a variância é fixa, resulta que o tamanho ótimo da amostra é n = µ HP h=1 Wh r Nh Nh − 1 Ph(1− Ph)ch ¶µ HP h=1 Wh r Nh Nh − 1 Ph(1− Ph) ch ¶ V + HP h=1 W 2h Ph(1− Ph) Nh − 1 (3.101) Capítulo 4 Estimador de Horwitz-Thompson Vamos apresentar agora um estimador que se aplica a situações mais gerais envolvendo amostragem sem reposição, ou seja, esse estimador se aplica a qualquer planejamento amostral probabilístico sem reposição. 4.1 Algumas relações importantes 4.1.1 Probabilidades de inclusão Consideremos as variáveis indicadoras de inclusão na amostra s: δi(s) = ½ 1 se i ∈ s 0 se i /∈ s Temos que E[δi(s)] = X s∈S δi(s)P (s) =⇒ πi = X {s;s⊃i} P (s) (4.1) E[δi(s)δj(s)] = X s∈S δi(s)δj(s)P (s) =⇒ πij = X {s;s⊃i,j} P (s) (4.2) V ar[δi(s)] = X s∈S [δi(s)] 2 P (s)− π2i = X s∈S δi(s)P (s)− π2i = πi − π2i =⇒ V ar[δi(s)] = πi(1− πi) (4.3) Cov [δi(s), δj(s)] = E[δi(s)δj(s)]−E[δi(s)]E[δj(s)] =⇒ Cov [δi(s), δj(s)] = πij − πiπj (4.4) 4.1.2 Tamanho de amostra variável O tamanho da amostra é n(s) = NP i=1 δi(s) =⇒ E[n(s)] = NP i=1 E[δi(s)] =⇒ E[n(s)] = NP i=1 πi (4.5) 51 CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 52 Temos também que V ar[n(s)] = NP i=1 V ar[δi(s)] + NP i6=j Cov [δi(s), δj(s)] = NP i=1 πi(1− πi) + NP i6=j (πij − πiπj) = NP i=1 πi − NP i=1 π2i − NP i6=j πiπj + NP i6=j πij = E[n(s)]− à NP i=1 π2i + NP i6=j πiπj ! + NP i6=j πij = E[n(s)]− NP i=1 NP j=1 πiπj + NP i6=j πij = [n(s)]− NP i=1 πi NP j=1 πj + NP i6=j πij = E[n(s)]− µ NP i=1 πi ¶2 + NP i6=j πij =⇒ V ar[n(s)] = E[n(s)]− {E[n(s)]}2 + NP i6=j πij (4.6) 4.1.3 Tamanho de amostra fixo Suponhamos agora que o tamanho da amostra seja fixo e igual a n. Nesse caso, E[n(s)] = n = NP i=1 πi (4.7) V ar[n(s)] = 0 (4.8) Substituindo em (4.6), resulta que 0 = n− n2 + NP i6=j πij =⇒ NP i6=j πij = n(n− 1) (4.9) Consideremos agora a soma dos πij para um dos índices fixos. Usando o resultado (4.2), temos NP i=1 πij = NP i=1 P s∈S δi(s)δj(s)P (s) = P s∈S NP i=1 δi(s)δj(s)P (s) = P s∈S µ NP i=1 δi(s) ¶ δj(s)P (s) Como o tamanho da amostra é fixo, por (4.1) resulta que NP i=1 πij = P s∈S nδj(s)P (s) = n P s∈S δj(s)P (s) =⇒ NP i=1 πij = nπj (4.10) CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 53 Analogamente (ou por simetria) NP j=1 πij = nπi (4.11) Resulta que NP i=1 (πij − πiπj) = NP i=1 πij − πj NP i=1 πi = nπj − nπj =⇒ NP i=1 (πij − πiπj) = 0 (4.12) Analogamente NP j=1 (πij − πiπj) = 0 (4.13) Temos que n(s) = n = NP i=1 δi(s) = δi(s) + P j 6=i δj(s) =⇒ δi(s) = n− P j 6=i δj(s) V ar[δi(s)] = Cov[δi(s), δi(s)] = Cov[δi(s), n− P j 6=i δj(s)] = Cov[δi(s), n]− Cov " δi(s), P j 6=i δj(s) # = 0− P j 6=iCov[δi(s), δj(s)] Usando os resultados (4.3) e (4.4), resulta que πi(1− πi) = − P j 6=i (πij − πiπj) =⇒ πi(1− πi) = P j 6=i (πiπj − πij) (4.14) 4.2 O estimador de Horwitz-Thompson O estimador de Horwitz-Thompson (abreviado por HT) para o total populacional é definido como bτHT =X i∈s Yi πi (4.15) Teorema Se todas as probabilidades de inclusão são não nulas, o estimador de Horwitz-Thompson é não viesado para o total populacional e sua variância é dada por V ar[bτHT ] = NP i=1 NP j=1 (πij − πiπj) Yi πi Yj πj (4.16) Demonstração Podemos escrever bτHT =P i∈s Yi πi = NP i=1 Yi πi δi CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 54 Logo, E[bτHT ] = E ∙ NP i=1 Yi πi δi ¸ = NP i=1 Yi πi E[δi] = NP i=1 Yi πi πi = NP i=1 Yi = τ V ar[bτHT ] = NP i=1 Y 2i π2i V ar[δi] + NP i6=j Yi πi Yj πj Cov[δi, δj] = NP i=1 Y 2i π2i πi(1− πi) + NP i6=j Yi πi Yj πj (πij − πiπj) = NP i=1 Y 2i π2i (πi − π2i ) + NP i6=j Yi πi Yj πj (πij − πiπj) = NP i=1 NP j=1 (πij − πiπj) Yi πi Yj πj uma vez que πi = πii. Teorema Se o desenho amostral é de tamanho fixo, então a variância do estimador de Horwitz-Thompson pode ser escrita como V ar1[bτHT ] = −1 2 NP i=1 NP j=1 (πij − πiπj) µ Yi πi − Yj πj ¶2 (4.17) Demonstração −1 2 NP i=1 NP j=1 (πij − πiπj) µ Yi πi − Yj πj ¶2 = −1 2 NP i=1 NP j=1 (πij − πiπj) µ Y 2i π2i + Y 2j π2j − 2Yi πi Yj πj ¶ = −1 2 NP i=1 NP j=1 (πij − πiπj) Y 2i π2i − 1 2 NP i=1 NP j=1 (πij − πiπj) Y 2j π2j + NP i=1 NP j=1 (πij − πiπj) Yi πi Yj πj = −1 2 NP i=1 Y 2i π2i NP j=1 (πij − πiπj)− 1 2 NP j=1 Y 2j π2j NP i=1 (πij − πiπj) + NP i=1 NP j=1 (πij − πiπj) Yi πi Yj πj Os 2 primeiros somatórios são nulos de acordo com os resultados (4.12) e (4.13) e isso prova o teorema. Teorema Os estimadores var[bτHT ] = P i∈s P j∈s µ πij − πiπj πij ¶ Yi πi Yj πj var1[bτHT ] = −1 2 P i∈s P j∈s µ πij − πiπj πij ¶µ Yi πi − Yj πj ¶2 são não viesados para estimar as variâncias V ar[bτHT ] e V ar1[bτHT ] respectivamente. CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 55 Demonstração var[bτHT ] = P i∈s P j∈s µ πij − πiπj πij ¶ Yi πi Yj πj = NP i=1 NP j=1 µ πij − πiπj πij ¶ Yi πi Yj πj δiδj =⇒ E [var[bτHT ]] = NP i=1 NP j=1 µ πij − πiπj πij ¶ Yi πi Yj πj E[δiδj] = NP i=1 NP j=1 µ πij − πiπj πij ¶ Yi πi Yj πj πij = V ar[bτHT ] var1[bτHT ] = −1 2 P i∈s P j∈s µ πij − πiπj πij ¶µ Yi πi − Yj πj ¶2 = −1 2 NP i=1 NP j=1 µ πij − πiπj πij ¶µ Yi πi − Yj πj ¶2 δiδj =⇒ E [var1[bτHT ]] = −1 2 NP i=1 NP j=1 µ πij − πiπj πij ¶µ Yi πi − Yj πj ¶2 E[δiδj] = −1 2 NP i=1 NP j=1 µ πij − πiπj πij ¶µ Yi πi − Yj πj ¶2 πij = V ar1[bτHT ] 4.2.1 Amostragem aleatória simples sem reposição No estudo do desenho de amostagem aleatória simples sem reposição, vimos que (resultados 2.23 e 2.24) πi = n N πij = n(n− 1) N(N − 1) Assim, o estimador de Horwitz-Thompson é: bτHT =P i∈s Yi πi = P i∈s N n Yi = N n t(s) e esse é o estimador de expansão visto anteriormente Vamos mostrar que as variâncias são equivalentes. Coimo esse é um desenho de tamanho fixo, vamos usar a expressão (4.17): CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 56 V ar1[bτHT ] = −1 2 NP i=1 NP j=1 (πij − πiπj) µ Yi πi − Yj πj ¶2 = = −1 2 NP i=1 NP j=1 ∙ n(n− 1 N(N − 1) − ³ n N ´2¸µN n Yi − N n Yj ¶2 = −1 2 ∙ n(n− 1) N(N − 1) − ³ n N ´2¸µN n ¶2 NP i=1 NP j=1 (Yi − Yj)2 = −1 2 ∙ Nn(n− 1)− n2(N − 1) N2(N − 1) ¸µ N n ¶2 NP i=1 NP j=1 ¡ Y 2i + Y 2 j − 2YiYj ¢ = −1 2 ∙ −Nn+ n2 (N − 1)n2 ¸" NP i=1 NP j=1 Y 2i + NP i=1 NP j=1 Y 2j − 2 NP i=1 NP j=1 YiYj # = −1 2 ∙ n(n−N) (N − 1)n2 ¸" NP i=1 Y 2i NP j=1 1 + NP j=1 Y 2j NP i=1 1− 2 NP i=1 Yi NP j=1 Yj # = 1 2 N − n n(N − 1) " N NP i=1 Y 2i +N NP j=1 Y 2j − 2 µ NP i=1 Yi ¶2# = 1 2 N − n n(N − 1) " 2N NP i=1 Y 2i − 2 µ NP i=1 Yi ¶2# = N(N − n) n(N − 1) " NP i=1 Y 2i − 1 N µ NP i=1 Yi ¶2# = N(N − n) n(N − 1) ∙ NP i=1 Y 2i −Nμ2 ¸ = N(N − n) n 1 N − 1 NP i=1 (Yi − μ)2 = N(N − n) n S2 = N2 N − n N S2 n = N2(1− f)S 2 n mesmo resultado obtido anteriormente. 4.2.2 Amostra de Bernoulli A inclusão, na amostra, de cada elemento da população U é decidida através de repetições indepen- dentes de um experimento de Bernoulli com probabilidade p de sucesso. Se o resultado da i−ésima repetição é um sucesso, o elemento i é incluído na amostra. Caso contrário, o elemento i não é incluído na amostra. É imediato ver que o tamanho da amostra é aleatório; além disso, n(s) ∼ Binom(N ; p) CAPÍTULO 4. ESTIMADOR DE HORWITZ-THOMPSON 57 Logo, E[n(s)] = Np V ar[n(s)] = Np(1− p) Como as repetições são independentes, segue que πi = p πij = ½ p se i = j p2 se i 6= j O estimador de Horwitz-Thompson para esse desenho é bτBern = 1pPi∈s Yi e sua variância, pelo resultado (4.16), é V ar [bτBern] = NP i=1 NP j=1 (πij − πiπj) Yi πi Yj πj = NP i6=j (πij − πiπj) Yi πi Yj πj + NP i=1 ¡ πii − π2i ¢ Y 2i π2i = NP i6=j ¡ p2 − p2 ¢ YiYj p2 + NP i=1 ¡ p− p2 ¢ Y 2i p2 = p− p2 p2 NP i=1 Y 2i = 1− p p NP i=1 Y 2i O estimador da variância é calculado observando que, na amostragem de Bernoulli, πij − πiπj = p2 − p2 = 0 se i 6= j. Logo, var[bτHT ] = P i∈s µ πii − πiπi πii ¶µ Yi πi ¶2 = P i∈s p− p2 p µ Yi p ¶2 = 1− p p2 P i∈s Y 2i = 1 p µ 1 p − 1 ¶P i∈s Y 2i
Compartilhar