Buscar

M- ¦ódulo 4

Prévia do material em texto

1
4 - Amostragem Aleatória Simples 
(DEFINIÇÃO DO PLANO, ASPECTOS POSITIVOS E NEGATIVOS, 
PROBABILIDADES DE INCLUSÃO E ESQUEMAS DE SELEÇÃO)
4.1 - Definição 
A amostragem aleatória simples (AAS), é
um plano amostral de tamanho pré-fixado 
n, em que todas as amostras possíveis 
apresentam a mesma probabilidade de 
serem selecionadas, ou seja:
p(s)=cte, ∀s⊂S.
Obs - estudaremos a AAS sem reposição. O 
caso com reposição será apenas mencionado 
no módulo 5 para fins teóricos de comparação, 
já que não tem aplicação prática alguma. 
Aspectos Positivos da AAS:
1) Simplicidade de seleção da amostra.
2) Simplicidade de estimação sem vício 
de parâmetros de interesse usual 
(veremos nos módulos subsequentes). 
3) Possibilidade e simplicidade de 
estimação sem vício das variâncias 
dos parâmetros de interesse usual. 
Aspectos Negativos da AAS:
1) Requer o uso de um cadastro, que 
nem sempre está disponível.
2) Custo elevado (não há controle 
sobre a dispersão da amostra).
3) Não leva em consideração 
informações auxiliares que 
eventualmente estejam disponíveis.
4.2 - Probabilidades de Inclusão
Vimos no módulo 2 que, para obter os 
estimadores não viciados da média e total 
sob um plano amostral, é necessário obter 
as probabilidades de inclusão do plano.
É o que faremos a seguir.
Probabilidades de Inclusão
(primeira ordem):
Pode-se provar que:
.Ui,
N
n
i ∈∀=pi
2
Demonstração - usando a definição 
clássica de probabilidade: (casos 
favoráveis)/(casos possíveis). 
Casos possíveis ⇒ total de amostras de 
tamanho n selecionáveis de uma 
população de tamanho N, ou seja:
.
n
N






Casos favoráveis ⇒ como uma posição 
na amostra já é da unidade i, o número de 
formas que temos para preencher os (n-
1) lugares restantes, a partir das (N-1) 
unidades populacionais restantes (pois a 
unidade i já foi para a amostra), é:
.
1n
1N






−
−
Simplificando:
C.Q.D. ,
N
n
n
N
1n
1N
i =












−
−
=pi
No módulo 5, substituiremos esta expressão nos 
estimadores de Horvitz-Thompson (módulo 2), 
para obter os estimadores não viciados de 
média e total sob AAS.
Vimos no módulo 3 que, para calcular as 
medidas de variabilidade usuais (erro 
padrão, cv, IC), precisamos estimar a 
variância dos estimadores de média e total.
Para isto, precisamos das probabilidades 
de inclusão conjuntas ou de segunda 
ordem: piij = p[(i∈s)∩(j∈s)]. 
Vamos a elas.
Probabilidades de Inclusão
(segunda ordem):
Pode-se provar que:
.U)j,i(,
1)-N(N
)1n(n
ji ∈∀
−
=pi
3
Demonstração – mudam apenas os casos 
favoráveis, pois agora 2 posições na 
amostra são das unidades i e j, logo, o 
número de possibilidades que temos para 
preencher os (n-2) lugares que sobraram, 
a partir de (N-2) unidades populacionais, é:
.
2n
2N






−
−
Simplificando:
C.Q.D. ,)1N(N
)1n(n
n
N
2n
2N
ij
−
−
=












−
−
=pi
No módulo 5, substituiremos estes pii`s piij s 
nas expressões dos estimadores das 
variâncias dos estimadores de Horvitz-
Thompson (módulo 3), para obter os 
estimadores não viciados das variâncias dos 
estimadores de média e total sob AAS.
4.3 - Esquemas de Seleção 
Um esquema de seleção é um mecanismo 
que permite selecionar as unidades da 
amostra de acordo com as probabilidades 
p(s) que definem o plano amostral.
Ou seja, é o algoritmo (sequência de 
passos) utilizado para implementar o plano.
Existem 2 tipos de esquema de seleção:
1) Sequências de Sorteios (extrações)
No caso de uma AAS, é trivial. 
2) Processamento Sequencial de Lista
(= cadastro)
São mais usados, por serem mais 
eficientes do ponto de vista computacional 
(muitas vezes, não será preciso percorrer 
toda a lista para obter a amostra...)
Esquemas de processamento sequencial 
de lista consistem em uma série de 
experimentos aleatórios que são 
implementados para cada unidade do 
cadastro, resultando na inclusão ou não 
desta unidade da amostra, até que seja 
obtida a amostra do tamanho desejado. 
No caso da AAS, temos 2 esquemas usuais:
o de Fan, Muller e Rezucha e o de Hajèk.
4
Fan, Muller e Rezucha (1962):
Passo 1 – para a unidade 1 da lista, gerar uma 
realização u de uma v.a. U ~ Unif(0,1).
Passo 2 – verificar se u < n/N. Em caso 
positivo, incluir a unidade na lista. 
Passo 3 – Repetir o procedimento para cada 
unidade i subsequente, verificando se 
u < (n-ni-1)/(N-i+1), sendo ni-1 o número 
de unidades selecionadas até o 
processamento da unidade i-1.
Passo 4 – Interromper o processamento quando 
ni-1 = n.
Obs - perceba que a probabilidade de inclusão 
de qualquer unidade populacional i na amostra 
é n/N para i = 1, 2,..., n, como tem que ser.
Hajèk (1960):
Passo 1 - gerar, de forma independente, 
realizações ui de variáveis aleatórias Ui; 
i = 1, 2, ..., N; tais que Ui ~ Unif(0,1).
Passo 2 - colocar as realizações em ordem 
crescente.
Passo 3 - registrar os rótulos referentes às 
primeiras n unidades.
Passo 4 - incluir na amostra as unidades cujos 
rótulos foram registrados no passo 3.
Exemplo 4.1 - seja uma população de N = 5, 
da qual queremos selecionar uma AAS de 
tamanho 3, usando o algoritmo de Hajèk. 
Os valores gerados foram: u1 = 0,4; u2 = 
0,23; u3 = 0,57; u4 = 0,1 e u5 = 0,98.
Ordenando, temos: u4, u2, u1, u3 e u5.
Neste caso, nossa amostra seria: s = (1,2,4).
Perceba que o algoritmo proposto por Fan, 
Muller e Rezucha possui a vantagem de que, 
em geral, não é necessário percorrer toda a 
lista. Por outro lado, em geral, o método de 
Hajèk é bem mais simples, embora envolva 
uma ordenação dos dados, que é “time 
demanding” quando N é muito grande.
O método de Hajèk é o mais utilizado na 
prática, e é o que eu sugiro que vocês utilizem 
para gerar a amostra de fazendas do trabalho.

Outros materiais