Buscar

Aula 1 Introdução

Prévia do material em texto

1
I – INTRODUÇÃO 
INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA 
 
 A Estatística (ou Ciências Estatísticas) é uma coleção de métodos para planejar experimentos, 
obter dados e organizá-los, resumi-los, analisá-los, interpretá-los e deles extrair conclusões. A 
Estatística tem por objetivo fornecer métodos e técnicas para lidarmos, racionalmente, com 
situações sujeitas à incerteza. 
 
 A Estatística pode ser dividida em 3 “áreas”: 
1. Probabilidade: Teoria matemática utilizada para se estudar a incerteza oriunda de fenômenos 
de caráter aleatório, ou seja, trata das leis de probabilidade. 
2. Estatística Descritiva: Conjunto de técnicas destinadas a descrever e resumir informações de 
um conjunto de dados para compreensão e visualização de suas características mais importantes. 
Apenas descreve o conjunto de dados, não importando a “origem” dos dados. 
3. Inferência Estatística: É o estudo de técnicas que possibilitam a extrapolação (generalização), 
a um grande conjunto de dados, das informações e conclusões obtidas a partir de subconjuntos 
de valores, usualmente de dimensão muito menor. 
 
 2
I – INTRODUÇÃO 
INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA 
 
• Na inferência podemos construir um modelo que descreve a origem dos dados. 
• A Teoria da Probabilidade é muito útil na construção destes modelos. 
 
Exemplo: 
• Suponha que queiramos estudar a proporção de dias que um aluno de uma escola do ensino 
médio chega atrasado na aula, que começa às 7h30min. 
• Vamos denotar por p a probabilidade do aluno chegar atrasado e vamos assumir que a 
hora que ele chega em um dia seja independente da hora que ele chega nos outros dias. 
• Será anotado, durante n dias, se o aluno chega ou não atrasado. 
• Teremos então X1,...,Xn, n variáveis aleatórias Bernoulli(p) independentes e identicamente 
distribuídas, onde cada Xi pode assumir dois valores: 
o 1, se o aluno se atrasou no i-ésimo dia, e 
o 0, caso contrário. 
• Este parece ser o modelo adequado para descrever a origem destes dados. 
 
 3
I – INTRODUÇÃO 
INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA 
 
• Só definiríamos exatamente este modelo se o valor de p fosse conhecido. 
• Apesar de não conhecermos o valor deste parâmetro, através do uso de técnicas da 
Inferência Estatística iremos encontrar um valor que será um bom “chute” para nos dar 
idéia do valor deste parâmetro. 
• Veremos que a proporção amostral pˆ será bastante adequada para “representar” o valor de 
p, onde
1
ˆ
n
i
i
p x x n
=
= =∑ , x1,...,xn, é a seqüência de 0’s e 1’s dos valores observados desta 
amostra para os n dias, e 
1
n
i
i
x
=
∑ é o nº de dias que o aluno chegou atrasado dos n dias 
observados. 
 
 
 
 
 
 4
I – INTRODUÇÃO 
INTRODUÇÃO E PRINCIPAIS OBJETIVOS DA INFERÊNCIA ESTATÍSTICA 
 
• O objetivo da Inferência Estatística é produzir afirmações sobre uma dada característica da 
população na qual estamos interessados, a partir de informações colhidas de uma parte da 
população. 
Idéia geral: 
• A característica de interesse na população será representada por uma variável aleatória. 
• Iremos usar alguns modelos probabilísticos para descrever a “fonte”, a “origem” dos dados. 
• Em geral, iremos definir a “família” do modelo probabilístico que descreve a origem dos 
dados, mas, como não se conhece a população inteira, não se sabe exatamente qual modelo 
probabilístico descreve exatamente a característica de interesse. 
• Raramente se consegue obter a distribuição exata de alguma variável, ou porque é muito 
dispendioso, ou porque é muito demorado, ou, às vezes, porque consiste num processo 
destrutivo. 
• Por exemplo, se estivéssemos observando a durabilidade de lâmpadas e testássemos todas até 
queimarem, não restaria nenhuma para ser vendida. 
• Assim, precisamos selecionar uma parte (amostra), analisá-la e inferir propriedades para o 
todo (população). 
 5
I – INTRODUÇÃO 
CONCEITOS DE POPULAÇÃO E AMOSTRA 
• POPULAÇÃO: É o conjunto de todos os elementos ou resultados de interesse. É o conjunto de 
valores de uma característica (observável) associada a uma coleção de indivíduos ou objetos de 
interesse. 
• AMOSTRA: Qualquer subconjunto da população de interesse. 
 
Existem dois tipos de população: 
• População finita: População que possui um número limitado de itens, em um determinado 
momento. Neste caso, para se obter uma amostra precisa-se utilizar técnicas de amostragem para 
selecionarmos indivíduos desta população finita. Este é o caso de pesquisas por amostra de 
institutos de pesquisa, como o IBGE. 
• População infinita: Uma população que não pode ser enumerada, onde os itens são produzidos 
por um processo aleatório. Neste caso, a população de origem é mais conceitual que real. Esta 
população é tal que seria produzida se o processo fosse repetido um nº infinito de vezes. A 
amostra, neste caso, seria uma parte dos itens produzidos por esse processo. 
o Exemplo: Medições de características de itens manufaturados, tais como chips de 
computador, lâmpadas ou pneus de carro. 
 
 
 6
I – INTRODUÇÃO 
AMOSTRA ALEATÓRIA 
 
• Nem sempre a escolha adequada da amostra é fácil. 
• A maneira de se obter a amostra é tão importante que isto constitui uma especialidade dentro 
da Estatística. 
• Podemos dividir os procedimentos de obtenção de dados amostrais em três grandes grupos: 
1) Amostragem: A amostra é obtida de uma população bem definida, por meio de processos bem 
protocolados e controlados pelo pesquisador, e a característica de interesse é medida para os 
indivíduos da amostra. Existem dois tipos de amostragem: 
a) Probabilística: Técnicas que usam mecanismos aleatórios de seleção dos elementos de uma 
amostra, atribuindo a cada elemento da população de interesse uma probabilidade positiva, 
conhecida a priori ou calculável, de pertencer à amostra. 
b) Não probabilística: Procedimentos tais como amostras intencionais (elementos selecionados 
com o auxílio de especialistas) e amostras de voluntários. 
 Nas amostras probabilísticas podemos medir a precisão das estimativas obtidas, baseando-se 
no resultado contido na própria amostra. Nas amostras não probabilísticas isso fica mais difícil. 
 
 7
I – INTRODUÇÃO 
AMOSTRA ALEATÓRIA 
2) Planejamento de experimentos: Tem como objetivo analisar o efeito de uma variável sobre a 
outra. Requer interferências do pesquisador sobre o ambiente em estudo (população), bem como 
o controle de fatores externos, com o intuito de medir o efeito desejado. Utiliza-se esta técnica 
quando se quer determinar relações de causa e efeito. 
• Por exemplo, pode-se estar interessado em testar se um novo medicamento é eficaz ou não 
para curar certa doença. Pode-se, então, ministrar este novo medicamento a um grupo de 
pacientes (grupo de tratamento) e ministrar um placebo a um grupo de controle. Para evitar o 
efeito placebo, pode-se fazer um experimento cego (quando os indivíduos não sabem se 
receberam medicamento ou placebo) ou duplo cego (quando nem quem ministra o 
medicamento ou placebo sabe). 
 
3) Levantamentos observacionais: Os dados são coletados sem que o pesquisador tenha controle 
sobre as informações obtidas, exceto sobre possíveis erros grosseiros. 
• Por exemplo, a coleta de séries de dados temporais, como vendas de uma loja, para prever 
futuras vendas. 
 
 
 
 8
I – INTRODUÇÃO 
AMOSTRAGEM ALEATÓRIA SIMPLES 
• Uma amostra obtida através de uma seleção aleatória é denominada amostra aleatória. 
 
• AMOSTRAGEM ALEATÓRIA SIMPLES é a maneira mais fácil de selecionarmos uma 
amostra probabilística de uma população. 
 
• Numa amostra aleatória simples de n elementos, toda a amostra de tamanho n possível tem a 
mesmachance de ser escolhida. 
• Na amostragem aleatória simples de uma população finita, temos a listagem de todas as N 
unidades da população. Utilizando-se um procedimento aleatório, sorteia-se um elemento da 
população, sendo que todos os elementos têm a mesma probabilidade de serem selecionados. 
Repete-se o procedimento até que sejam sorteadas as n unidades da amostra. 
• A AAS pode ser com e sem reposição. 
o Com reposição: Cada unidade pode ser sorteada mais de uma vez, ou seja, em cada 
sorteio devolve-se a unidade à população antes do próximo sorteio. 
o Sem reposição: A unidade sorteada é removida da população, ou seja, cada unidade só 
pode ser sorteada uma vez. 
 
 
 9
I – INTRODUÇÃO 
AMOSTRAGEM ALEATÓRIA SIMPLES 
 
• Na AAS sem reposição, a quantidade de informação contida na amostra é maior, porém, na 
AAS com reposição, o tratamento teórico é mais simples, pois implica em termos unidades 
amostrais independentes, ou seja, a seleção de cada elemento da amostra é independente da 
seleção dos elementos anteriores. 
• Assim, sempre que for dito que foi selecionada uma AAS, significará que a amostra foi 
selecionada por AAS com reposição e, deste modo, todos os elementos da amostra serão 
independentes e identicamente distribuídos 
 
DEFINIÇÃO: Uma amostra aleatória simples de tamanho n de uma variável aleatória X, com 
distribuição FX(x), é o conjunto de n variáveis aleatórias independentes X1,...,Xn, cada uma com a 
mesma distribuição de X. Ou seja, a amostra será a n-upla ordenada (X1,...,Xn), onde Xi indica a 
observação do i-ésimo elemento sorteado. 
 Se X for discreta, a distribuição da amostra aleatória será a distribuição conjunta 
( ) ( ) ( ) ( )
1 1 2,..., 1 1 1 1 2 2
,..., ...
n nX X n n X X X n n
P X x X x P X x P X x P X x= = = = = = . 
 Se X for contínua, a distribuição da amostra aleatória será a distribuição conjunta 
( ) ( ) ( ) ( )
1 1 2,..., 1 1 2
,..., ...
n nX X n X X X n
f x x f x f x f x= . 
 
 10
I – INTRODUÇÃO 
AMOSTRAGEM ALEATÓRIA SIMPLES 
 
NOTAÇÃO: 
 
• Letra maiúscula: estamos denotando a variável aleatória (por exemplo, Xi). 
 
• Letra minúscula: estamos denotando o valor daquela variável aleatória observado na 
amostra (por exemplo, xi). 
 
• Assim, dada uma variável aleatória X, correspondente à característica de interesse, temos: 
 
o 
~
X =(X1,...,Xn) corresponde a uma amostra aleatória de tamanho n da variável aleatória 
X, onde Xi indica uma variável aleatória relacionada à i-ésima repetição do 
experimento. 
 
o 
~
x=(x1,...,xn) são os valores da amostra efetivamente observados após a realização do 
experimento. 
 11
I – INTRODUÇÃO 
MODELOS ESTATÍSTICOS 
 
• Chama-se de modelo de distribuição de uma variável em uma população a um conjunto de 
hipóteses que se supõem válidas sobre a distribuição de “origem” de uma variável em uma 
população. 
• Essas hipóteses serão satisfeitas, em geral, de forma aproximada. 
• A qualidade de um modelo para descrever a distribuição de uma variável de uma população 
será dada pelo grau de aproximação que tenham as hipóteses do modelo com a real distribuição 
dos dados. 
• Quando construímos um modelo, partimos do princípio que todo o conhecimento que se tem 
a respeito da “origem” dos dados, e de que pressuposições razoáveis podem ser feitas com 
relação às características físicas da situação em estudo, está resumido no modelo. 
 
 
 
 
 
 
 12
I – INTRODUÇÃO 
MODELOS PARAMÉTRICOS E NÃO PARAMÉTRICOS 
• Modelos Paramétricos: São modelos onde supõem-se que a distribuição F(x) da variável na 
população pertence a uma família de distribuições que depende de um nº finito de parâmetros 
reais. De um modo geral, um modelo paramétrico terá a seguinte forma: se FX(x) é a 
distribuição de uma variável X, então FX(x) pertence à família ( )
~
,XF x θ , onde 
~
θ = (θ1,...,θk) é 
o vetor de parâmetros que toma valores em um conjunto Θ ⊂ Rk. Isto significa que existe 
algum valor 
~
θ∈ Θ, digamos 0
~
θ , tal que 0
~
,XF x θ
 
 
 
 coincide com FX(x). Θ é o espaço 
paramétrico. 
o Exemplo: Modelo definido por FX(x), que pertence à família N(µ,σ2). O espaço 
paramétrico, neste caso, será: Θ = R × (0,∞). 
 
• Modelos Não Paramétricos: São modelos em que se supõem que a distribuição FX(x) da 
variável na população pertence a uma família F, mas esta família não pode ser identificada por 
um nº finito de parâmetros reais. 
 
 
 13
I – INTRODUÇÃO 
MODELOS ESTATÍSTICOS 
 
 Um modelo estatístico para um fenômeno aleatório com espaço amostral Ω será constituído de 
elementos: 
 
� Uma família F de distribuições para um vetor aleatório 
~
X . F é a classe das possíveis distribuições 
de 
~
X . 
 
� Um conjunto X de todos os possíveis valores assumidos por 
 
~
X : X = {
~
x ∈ Rn: 
~
x = X(ω) para algum ω ∈ Ω}. 
 
� Um conjunto Θ ⊂ Rk chamado de espaço paramétrico, tal que exista uma bijeção entre F e Θ 
(família paramétrica identificável). 
 
 
 
 
 14
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
1) Bernoulli 
Situação: Ensaios de Bernoulli, onde temos
1,
0,i
se sucesso
X
se fracasso

= 

, onde p = probabilidade de 
sucesso. 
Empregado em situações onde associamos a cada observação 2 tipos de resposta (sim e não, sucesso 
ou fracasso). Por exemplo, em pesquisas eleitorais, onde o indivíduo é contra ou a favor de um 
determinado candidato. 
( )P X x= =px(1-p)1-xI{0,1}(x) 
Ω = {x|x ∈{0,1}}; Θ = {
~
θ =(p) | p ∈ [0,1]} 
Média: E(X) = p Variância: Var(X) = p(1-p) 
Observações: 
Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~Bernoulli(p), 
1
n
i
i
X
=
∑ ~Binomial(n,p). 
 
 15
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
2) Binomial 
Situação: Soma de n variáveis aleatórias independentes e identicamente distribuídas, onde 
Xi~Bernoulli(p). Indica a probabilidade de x sucessos em n ensaios. 
( )P X x= = n
x
 
 
 
px(1-p)n-xI{0,1,...,n}(x) 
Ω = {x|x ∈{0,1,2,...,n}}; Θ = {
~
θ =(n,p) | p ∈ [0,1], n∈N*} 
Média: E(X) = np Variância: Var(X) = np(1-p) 
 
 16
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
3) Poisson 
Situação: Distribuição do nº de ocorrências de um evento em um grande nº de tentativas, quando 
a probabilidade de ocorrência do evento é muito pequena. Exemplo: Nº de chamadas que chegam 
a uma central telefônica, nº de pontos de bactérias na placa de Petri, nº de partículas emitidas por 
uma fonte radioativa, nº de pessoas que chegam a uma determinada fila, etc, tudo isso num intervalo 
fixo de tempo. É uma aproximação da Binomial, onde λ = np (ler página 184 do Larson) 
( )P X x= = { } ( )0,1,...!
xe I x
x
λλ−
 
 Ω = {x|x ∈N}; Θ = {
~
θ =(λ) | λ > 0} 
Média: E(X) = λ Variância: Var(X) = λ 
Observações: 
a) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~Poisson(λi), 
1
n
i
i
X
=
∑ ~Poisson(
1
n
i
i
λ
=
∑ ) 
 17
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
4) Geométrica 
Situação: Ocorrência de x fracassos até ocorrer o primeiro sucesso. p = probabilidade de sucesso. 
( )P X x= =p(1-p)xI{0,1,2,...}(x) 
Ω = {x|x ∈N}; Θ = {
~
θ =(p) | p ∈ (0,1]} 
Média: E(X) = q
p
 Variância: Var(X) = 2
q
p
 
Observações: 
a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~Geométrica(p), 
1
n
i
i
X
=
∑ ~BNegativa(p,r). 
b) Outra formulação: Ocorrência de x provas independentes até ocorrer o 1º sucesso. 
( )P X x= =p(1-p)x-1I{1,2,...}(x), Ω = {x|x ∈N*}; Θ = {
~
θ=(p) | p ∈ (0,1]} 
Média: E(X) = 1
p
 Variância: Var(X) = 2
q
p
 
 
 18
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
5) Binomial Negativa 
Situação: Probabilidade da ocorrência de x fracassos até que ocorram r sucessos. Provas 
realizadas: x+r. A Binomial Negativa é a soma de r variáveis aleatórias independentes e 
identicamente distribuídas, com distribuição geométrica. 
 ( )P X x= = 1x r
x
+ − 
 
 
pr(1-p)xI{0,1,2,...}(x) 
Ω = {x|x ∈N}; Θ = {
~
θ =(p,r) | p ∈ (0,1], r ∈N* } 
Média: E(X) = qr
p
 Variância: Var(X) = 2
q
r
p
 
Observações: 
a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~Geométrica(p), 
1
n
i
i
X
=
∑ ~BNegativa(n,p). 
 
 19
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
6) Hipergeométrica 
Situação: Probabilidade de encontrar x peças defeituosas, numa amostra de tamanho n, com r peças 
defeituosas num lote de tamanho N (amostragem sem reposição). 
( )P X x= =
r N r
x n x
N
n
−  
  
−  
 
 
 
 I{0,1,2,...,n}(x), 
Ω = {x|x ∈N}; Θ = {
~
θ =(N,r,n) | r ∈ {0,1,...,N}; N ∈ N*; n ∈ {1,...,N}} 
Média: E(X) = rn
N
 Variância: Var(X) = 
1
r N r N n
n
N N N
− −
−
 
 
 20
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES DISCRETAS 
7) Multinominal 
Situação: Usado em bio-estatística (genótipo), face de dado, etc. 
( )1 1 2 2, ,..., k kP X x X x X x= = = = 11
1 2
...
...
kxx
k
k
n
p p
x x x
 
 
 
 
Ω = {
~
X =(x1,x2,...,xk)|xi ∈{0,1,...,n},∀i=1,2,...,k, 
1
k
i
i
x n
=
=∑ } 
Θ = {
~
θ =(p1,p2,...,pk) | 
~
θ ∈ [0,1]k; pi ∈[0,1] ∀i=1,2,...,k, 
1
1
k
i
i
p
=
=∑ }} 
Distribuição Marginal: Xi~Binomial(n,pi) 
E(Xi)=n pi Var(Xi) = n pi (1-pi) Cov(Xi,Xj) = n pi pj , ∀i ≠ j, i,j ∈ {1,2,...,k}. 
 
Exercício: Um maquinista conserva um grande número de arruelas em uma gaveta. Cerca de 50% 
dessas arruelas são de ¼ de polegada de diâmetro, cerca de 30% são de 1/8 de polegada de diâmetro, 
e os restantes 20% são de 3/8. Qual é a probabilidade de que existam exatamente 5 arruelas de ¼, 
4 de 1/8 e 1 de 3/8? 
 
 21
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
1) Uniforme(a,b) 
fX(x) = ( )[ , ]1 a bI xb a− 
FX(x) = ( )[ , ] ( , ) ( )a b bx a I x I xb a ∞
−
+
−
 
Ω = {x|x ∈[a,b]}; Θ = {
~
θ =(a,b) | -∞ < a < b < ∞} 
Média: E(X) = 
2
a b+
 Variância: Var(X) = ( )
2
12
b a−
 
Observações: 
a) Se X~U[0,1] e Y~U[0,1], X⊥Y, Z=X+Y tem densidade igual a fZ(z) = z I[0,1](z)+(2-z) I(1,2](z). 
b) Se X~Exp(λ) e Y~Exp(λ), X⊥Y, Z=X/(X+Y) ~U[0,1]. 
c) Se X~U[0,1], Y=-ln(X)~Exp(1). 
d) Se X~Beta(1,1), X~U[0,1]. 
 
 22
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
2) Normal(µµµµ,σσσσ2) 
Situação: A distribuição normal é usada em situações práticas, principalmente referentes a 
características populacionais, como peso, altura, pressão arterial, QI, etc. 
fX(x) = ( )
2
22
1
exp
22
x µ
σpiσ
 
− 
− 
  
 
Ω = {x|x ∈ R}; Θ = {
~
θ =(µ,σ2) | µ ∈R, σ2>0} 
Média: E(X) = µ Variância: Var(X) = σ2 
 
 23
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
Observações: 
a) Se X~N(0,1), Y=σ X + µ ~N(µ,σ2). 
b) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~N(µi, 2iσ ), 
1
n
i
i
X
=
∑
~N(
1
n
i
i
µ
=
∑ , 2
1
n
i
i
σ
=
∑ ) 
c) Se X~N(0,1), Y~N(0,1), X⊥Y, X
Y
 ~Cauchy(0,1). 
d) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~N(0,1), 2
1
n
i
i
X
=
∑ ~ 2nχ . 
e) Se X1,...,Xn são variáveis aleatórias independentes tal que Xi~N(µi, 2iσ ), 
2
1
n
i i
i i
X µ
σ
=
 
−
 
 
∑ ~ 2nχ . 
f) Se X~N(0,1) e Y~ 2
n
χ , X⊥Y, XT
Y n
= ~tn. 
 
 24
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
3) Exponencial(λλλλ) 
Situação: O modelo exponencial é empregado geralmente para descrever tempo de vida de 
equipamentos. 
fX(x) = ( ) ( )0,xe I xλλ − ∞ 
FX(x) = ( ) ( ) ( )0,1 xe I xλ− ∞− 
Ω = {x|x>0}; Θ = {
~
θ =(λ) | λ > 0} 
Média: E(X) = 1λ Variância: Var(X) = 2
1
λ 
 
 25
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
Observações: 
a) Se X~Exp(λ) e Y~Exp(λ), X⊥Y, Z=X/(X+Y) ~U[0,1]. 
b) Se X~U[0,1], Y=-ln(X)~Exp(1). 
c) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~Exp(λ), 
1
n
i
i
X
=
∑ ~Gama(n,λ). 
d) Se X~ 22χ , X~Exp
1
2
 
 
 
, X~Gama
11,
2
 
 
 
. 
e) A Exponencial tem a propriedade de falta de memória, isto é, se T~Exp(λ), 
P(T > a+b | T > a) = P(T > b). 
f) Se X ~ Weibull(a,1), X~Exp(a). 
 
 26
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
4) Gama(r,λλλλ) 
Situação: Tempos de vida. 
fX(x) = ( ) ( ) ( )
1
0,
r
r xx e I x
r
λλ − −
∞Γ
 
Ω = {x|x>0}; Θ = {
~
θ =(r,λ) | r,λ > 0} 
Média: E(X) = rλ Variância: Var(X) = 2
r
λ 
 
 27
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
Observações: 
a) Se X1,...,Xn são variáveis aleatórias independentes e identicamente distribuídas tal que 
Xi~Exp(λ), 
1
n
i
i
X
=
∑ ~Gama(n,λ). 
b) Se X ~ Gama(r,1), Y = Xλ ~ Gama (r,λ). 
c) Se X~ 2nχ , X~Gama
1
,
2 2
n 
 
 
. 
d) Se X~Gama(n,λ), Y = 2λX~ 22nχ , 
e) Se X~ 22χ , X~Exp
1
2
 
 
 
, X~Gama
11,
2
 
 
 
. 
f) Se X~Gama(r1,λ) e Y~Gama(r2,λ) B = X
X Y+
 ~ Beta(r1,r2). 
g) Função Gama: ( ) 1
0
t xt x e dx
∞
− −Γ = ∫ , Γ(n) = (n-1) Γ(n-1) = (n-1)!; Γ(1) = 1;
1
2
 Γ 
 
 = pi . 
 
 28
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
5) Beta(αααα,ββββ) 
Situação: Fenômenos cujas variáveis de interesse têm seus valores limitados acima e abaixo por 0 
e 1. Um exemplo típico são os dados que aparecem em forma de proporção. 
fX(x) = ( )( ) ( ) ( ) ( ) ( )
11
0,11x x I x
βαα β
α β
−
−
Γ +
−
Γ Γ
 
Ω = {x|x ∈(0,1)}; Θ = {
~
θ =(α,β) | α,β > 0} 
Média: E(X) = α
α β+ Variância: Var(X) = ( ) ( )2 1
αβ
α β α β+ + + 
Observações: 
a) Se X~Beta(1,1), X~U[0,1]. 
b) Se X~Gama(r1,λ) e Y~Gama(r2,λ) B = X
X Y+
 ~ Beta(r1,r2). 
c) Se X ~Fm,n, W = ~ ,
2 21
mX n m nBeta
mX
n
 
 
+  
. 
 
 29
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
6) Cauchy(αααα,ββββ) 
Situação: Simétrica em torno da mediana. 
fX(x) = 2
1
1 x αpiβ β
  − 
+  
   
 
Ω = {x|x ∈R}; Θ = {
~
θ =(α,β) | α ∈ R,β > 0} 
Mediana: α 
Observações: 
a) Se X~Cauchy(0,1) e Y=β X + α, Y~Cauchy(α,β). 
b) Se X~N(0,1), Y~N(0,1), X⊥Y, X
Y
 ~Cauchy(0,1). 
c) Se X~t1, X~Cauchy(0,1). 
 
 30
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
7) Lognormal(µµµµ,σσσσ2) 
fX(x) = ( ) ( ) ( )
2
0,22
ln1
exp
22
x
I x
x
µ
σpiσ
∞
 
− 
− 
  
 
Ω = {x|x >0}; Θ = {
~
θ =(µ,σ2) | µ ∈R, σ>0} 
Média: E(X) = 
2
exp
2
σµ + 
 
 Variância: Var(X) = { } { }2 2exp 2 2 exp 2µ σ µ σ+ − + . 
Observações: 
a) Se X~N(µ ,σ2) e Y = eX , Y ~ lognormal(µ,σ2). 
 
 31
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
8) Weibull(a,b) 
Situação: Serve para representar a distribuição de “tempo de falha”, quando a taxa de falha aumenta 
como potência de t. 
fX(x) = ( ) ( )10,bb axabx e I x− − ∞ 
Ω = {x|x>0}; Θ = {
~
θ =(a,b) | a,b > 0} 
Média: E(X) = 
1 1 1ba
a
−  Γ + 
 
 Variância: Var(X) = 
2 2 11 1ba
b b
−     Γ + −Γ +    
    
 
Observações: 
a) Se X ~ Weibull(a,1), X~Exp(a). 
 
 32
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
9) Pareto(θθθθ,x0) 
Situação: Útil em análises econômicas, especialmente distribuição de renda. 
fX(x) = ( ) ( )00 ,1 xx I xx
θ
θ
θ
∞+
 
Ω = {x|x > x0}; Θ = {
~
θ =(θ,x0) | x0,θ > 0} 
Média: E(X) = 0
1
xθ
θ −
, para θ > 1 Variância: Var(X) = ( ) ( )
2
0
21 2
xθ
θ θ− −
, para θ > 2. 
 
 33
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
10) Distribuição Qui-quadrado (χ2k) 
Uma variável aleatória contínua X, com valores positivos, tem uma distribuição qui-quadrado com 
k graus de liberdade ( 2kχ ) se sua densidade for dada por: 
fX(x) = ( ) ( )2 12 2 0,1 12
2
k
k x
x e I x
k
− −
∞
 
 
   Γ 
 
 
Ω = {x|x >0 }; Θ = {
~
θ =(k) | k ∈N*} 
Média: E(X) = k Variância: Var(X) = 2k. 
Função geratriz de momentos: mX(t) = 
21
1 2
k
t
 
 
− 
 para t<1/2 
 
 34
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
Gráficos da distribuição qui-quadrado 2kχ , para k= 1, 2 e 3 
 
k=1 k=2 k=3 
 
 A distribuição qui-quadrado tem muitas aplicações na Estatística e, por isso, existem tabelas 
para se obter probabilidades. Por exemplo, algumas tabelas qui-quadrado podem fornecer os 
valores de y0 tais que P(X > y0) = p, para diversos valores de p e k, isto é 
 
 
 
 
 35
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
 
Valor tabelado de 2kχ 
 
 Algumas outras podem fornecer o valor de y0 tal que P(X<y0) = p1. Precisa-se prestar atenção 
no que a tabela está fornecendo. 
 
 36
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
a) Se X1,...,Xn amostra aleatória de uma N(0,1), 2 2
1
~
n
i n
i
X χ
=
∑ . 
b) Se X1,...,Xn variáveis aleatórias independentes, Xi ~ N(µi, 2iσ ), 
2
2
1
~
n
i i
n
i i
X µ χ
σ
=
 
−
 
 
∑ . 
c) Se X~ 2
m
χ e Y~ 2
n
χ , X⊥Y, X+Y ~ 2
m n
χ + . 
d) Se X~ 22χ , X~Exp
1
2
 
 
 
, X~Gama
11,
2
 
 
 
. 
e) Se X~ 2
n
χ , X~Gama 1,
2 2
n 
 
 
. 
f) Se X ~ Gama(r,λ), então 2λX~ 22rχ . 
g) Se X~N(0,1) e Y~ 2
n
χ , X⊥Y, XT
Y n
= ~tn. 
h) Se X~ 2
m
χ e Y~ 2
n
χ , X⊥Y,
,
~ m n
X
mF FY
n
= . 
 37
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
11) Distribuição t de Student 
 Uma variável aleatória contínua X tem distribuição t de Student com k graus de liberdade se 
sua densidade for dada por: 
fX(x) = 1
2 2
1
1 12
12
k
k
k k
x
k
pi
+
+ Γ 
 
 Γ    +   
 
 
Ω = {x|x ∈ R}; Θ = {
~
θ =(k) | k>0} 
Média: E(X) = 0 para k>1 Variância: Var(X) = 
2
k
k −
 para k>2. 
 O nome Student vem do pseudônimo usado pelo estatístico inglês W.S.Gosset, que introduziu 
esta distribuição no início do século passado. 
 A distribuição t de Student é simétrica em torno de 0 e suas caudas são mais “pesadas” do que 
as de uma normal padrão, ou seja, P(tν ≥ x) ≥ P(N(0,1) ≥ x), o que podemos ver ilustrado na figura 
a seguir: 
 
 38
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
A Distribuição tν (ou t(ν)) e a normal padrão 
 
 A distribuição t de Student tem muitas aplicações na Estatística, principalmente no que se 
refere a inferências sobre médias populacionais, e, por isso, existem várias tabelas para se obter 
probabilidades. Por exemplo, uma tabela t de Student pode fornecer os valores de tc tais que P(-
tc < tk < tc) = 1 - p, para diversos valores de p e k. Ou ainda, pode fornecer os valores de tC tais que 
P(tk < tc) para diversos valores de p e k. Deve-se prestar atenção a que área da distribuição a tabela 
se refere. 
 Algumas observações sobre a distribuição t de Student: 
a) Se X~N(0,1) e Y~ 2nχ , X⊥Y,
XT
Y n
= ~tn. 
b) Se T~tn, T2 ~ F(1,n). 
c) A distribuição t é simétrica em torno de 0, e as caudas de uma t são mais “pesadas” do que as 
de uma normal, ou seja, P(tn ≥ x) ≥ P(N(0,1) ≥ x). 
d) Se W ~t1, W~Cauchy(0,1). 
 39
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
12) Distribuição F(m,n) de Snedecor 
 Uma variável aleatória contínua X tem uma distribuição F de Snedecor com m e n graus de 
liberdade (Fm,n) se sua densidade for dada por: 
fX(x) = ( ) ( )
2
22
0,
2
2
12 2
mm
m n
m n
m x I x
m n n
mx
n
−
∞+
+ Γ 
  
 
     Γ Γ      +      
 
Ω = {x|x >0 }; Θ = {
~
θ =(m,n) | m,n ∈N*} 
Média: E(X) = 
2
n
n −
, para n>2 Variância: Var(X) = ( )( ) ( )
2
2
2 2
2 4
n m n
m n n
+ −
− −
, para n > 4. 
 A distribuição F também tem várias tabelas para se obter probabilidades. Por exemplo, numa 
tabela F são dados os pontos f0 tais que se W ~ Fm,n, P(W > f0) = α, para alguns valores de α e 
alguns valores de m e n. Para se encontrar os valores da cauda inferior, se usa a identidade 
Fm,n = 1 / Fn,m. 
 
 
 40
I – INTRODUÇÃO 
MODELOS PROBABILÍSTICOS - DISTRIBUIÇÕES CONTÍNUAS 
Gráfico da distribuição F 
 
 Algumas observações sobre a distribuição F de Snedecor: 
a) Se T~tn, T2 ~ F(1,n). 
b) Se X~ 2mχ e Y~ 2nχ , X⊥Y, ,~ m n
X
mF FY
n
= 
c) Se X ~Fm,n, W = ~ ,
2 21
mX n m nBeta
mX
n
 
 
+  
. 
d) Se X ~Fm,n, W = 
,
1
~ n mFX
. 
 
 41
I – INTRODUÇÃO 
DISTRIBUIÇÕES AMOSTRAIS 
 
• Vimos que uma AMOSTRA ALEATÓRIA de tamanho n de uma variável aleatória X é um 
conjunto X1,...,Xn de variáveis aleatórias independentes, todas com a mesma distribuição de 
X. 
• Esta amostra aleatória será representada como um vetor 
~
X =(X1,...,Xn), e define uma variável 
aleatória n-dimensional, com uma função de distribuição ( )
~
1,...,X nF x x . 
• Por X1,...,Xn serem independentes, tem-se que ( )
~
1,...,X nF x x = ( )1 1XF x ( )2 2XF x ... ( )nX nF x , 
onde as funções de distribuição ( )
iX i
F x , i = 1,...,n, são idênticas à função de distribuição de 
distribuição de X. 
• O vetor 
~
x=(x1,...,xn) ∈ Rn é denominado realização da variável n-dimensional (X1,...,Xn), ou 
simplesmente de realização da amostra. 
 
 
 42
I – INTRODUÇÃO 
PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA 
A) PARÂMETRO 
 Parâmetro é uma medida que descreve uma característica da população (ou de uma 
distribuição). Por exemplo, a média µ de uma v.a. N(µ,σ2), onde µ é desconhecido. 
 
B) ESTATÍSTICA 
 Uma estatística é uma função de variáveis aleatórias observáveis, e é também uma variável 
aleatória observável, e não contém nenhum parâmetro desconhecido. 
 Uma estatística é função das variáveis aleatórias componentes da amostra. 
• A média amostral 
1
1 n
i
i
X X
n
=
= ∑ é uma estatística. 
1
1 n
i
i
x x
n
=
= ∑ é uma observação da 
estatística média amostral. 
• Se X ~ N(µ, σ2), com µ e σ2 desconhecidos, e temos uma amostra aleatória com n=1, 
temos que X1 é uma estatística, mas X1 – µ e X1/σ2 não são porque são funções que 
dependem dos parâmetros desconhecidos. 
• Se ( )
~
~
,Xf x θ é uma função densidade e tem θ como parâmetro desconhecido, X -θ não é 
uma estatística pois depende de θ. ( ) ( )11 ,..., nX mín X X= e ( ) ( )1,..., nnX máx X X= 
são estatísticas. 
 43
I – INTRODUÇÃO 
PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA 
C) ESTIMADOR 
 Um estimadorT do parâmetro θ é qualquer estatística que assuma valores em Θ. Um estimador 
é uma estatística que iremos associar a um parâmetro populacional para fazermos inferências para 
este parâmetro. 
 
D) ESTIMATIVA 
 Estimativa é o valor assumido pelo estimador em uma particular amostra observada. 
 
 
 44
I – INTRODUÇÃO 
PARÂMETRO, ESTATÍSTICA, ESTIMADOR E ESTIMATIVA 
• Um procedimento geral adotado para estimar um parâmetro θ de uma população consiste em 
definir uma função da amostra (X1,X2,...,Xn) da variável aleatória X. 
• Esta função é uma estatística Gn = G(X1,...,Xn), que denominamos de estimador do parâmetro 
θ, e iremos representá-lo por ˆθ . 
• ˆθ também é uma variável aleatória pois é uma função de variáveis aleatórias. 
• Uma vez realizada a amostra, o valor observado de ˆθ é uma estimativa de θ. 
• θ e ˆθ são DIFERENTES!!! O valor observado (estimativa) de um estimador ˆθ não é 
necessariamente igual ao valor verdadeiro do parâmetro θ. 
• A notação usada para representar estes valores varia de acordo com a referência bibliográfica. 
Não será feita, no curso, distinção, em termos de notação, entre o estimador e a estimativa. 
θ Exemplo: Será usado µˆ para representar tanto o estimador X , quanto a estimativa x . 
 
 45
I – INTRODUÇÃO 
MOMENTOS AMOSTRAIS 
 
• Seja X1, X2,...,Xn uma amostra aleatória de densidade fx(•). Então, o r-ésimo MOMENTO DA 
AMOSTRA, Mr, é definido por 1
n
r
i
i
r
X
M
n
=
=
∑
. 
o Se r=1, 1
n
i
i
r
X
M X
n
=
= =
∑
, ou seja,temos a média amostral. 
• O r-ésimo MOMENTO CENTRAL DA AMOSTRA, denotado por '
r
M , é definido por 
( )
1
'
n
r
i
i
r
X X
M
n
=
−
=
∑
 
o Se r=2, 
( ) ( )
2
2
2 1
2
1
ˆ'
n
i
i
X X
n S
M
n n
σ =
−
−
= = =
∑
. 
 
 46
I – INTRODUÇÃO 
MOMENTOS AMOSTRAIS 
 
• Note que os momentos amostrais são estatísticas. 
 
• O r-ésimo MOMENTO DA POPULAÇÃO e o r-ésimo MOMENTO CENTRAL DA 
POPULAÇÃO são definidos, respectivamente, por ( )rr E Xµ = e ( )' rr E Xµ µ= − . 
Repare que ( )1 E Xµ µ= = e ( ) ( ) 22' Var X E Xµ µ= = − . 
 
TEOREMA 1: Seja 
~
X =(X1,...,Xn), uma amostra aleatória de uma população com densidade fx(•). 
O valor esperado do r-ésimo momento amostral é igual ao r-ésimo momento populacional, isto é, 
E(Mr) = µr (Se µr existir). 
 Além disso, ( ) ( ) ( ){ } ( )22 2 21 1r rr r rVar M E X E X
n n
µ µ = − = −
 
, se µ2r existir. 
 
 
 47
I – INTRODUÇÃO 
ALGUMAS ESTATÍSTICAS IMPORTANTES 
A) Média Amostral 
 Seja X1,...,Xn uma amostra aleatória de uma função de densidade f(•). A média amostral é 
definida por 1
n
i
i
X
X
n
=
=
∑
. 
 
B) Variância Amostral 
 
 Seja X1,...,Xn uma amostra aleatória de uma função de densidade f(•). A variância amostral é 
definida por 
( )2
2 1
1
n
i
i
X X
S
n
=
−
=
−
∑
 para n > 1. 
 No cálculo desta variância, somou-se n parcelas do tipo ( )2iX X− , e o resultado foi dividido 
por n-1. Como ( )
1
0
n
i
i
X X
=
− =∑ , pode-se obter qualquer uma das n parcelas, se conhecermos as 
demais. Assim, somente n-1 parcelas estão livres para variar. 
 
 48
I – INTRODUÇÃO 
ALGUMAS ESTATÍSTICAS IMPORTANTES 
 
C) Estatísticas de ordem: 
 Seja X1,...,Xn uma amostra aleatória de tamanho n de uma função de distribuição acumulada 
F(•). Definimos por estatísticas de ordem correspondentes a essa amostra as estatísticas 
X(1),≤X(2)≤...≤X(n), onde os X(i) são arrumados em ordem crescente. As estatísticas de ordem mais 
conhecidas são: 
Mínimo: X(1) = mín(X1,...,Xn) 
Máximo: X(n) = máx(X1,...,Xn) 
Mediana: Med = 
1
2
1
2 2
, n for ímpar; 
1
, n for par.
2
n
n n
X se
X X se
+ 
 
 
   
+   
   



  
 + 
   
 
Além disso, R = X(n)-X(1) é chamado de amplitude amostral. 
 
 
 49
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 
 
TEOREMA 2: DESIGUALDADE DE MARKOV 
Seja X uma variável aleatória e g(•) uma função não negativa com domínio na reta real. Então 
( )( ) ( )( )E g XP g X k k≥ ≤ para todo k > 0. 
 
TEOREMA 3: DESIGUALDADE DE CHEBYSHEV 
 Se Y é uma variável aleatória com variância finita, 
( ) ( )( )2 2 2 21Y Y Y YP Y r P Y r
r
µ σ µ σ− ≥ = − ≥ ≤ para todo r > 0. 
 
DESIGUALDADE DE CHEBYSHEV (OUTRA FORMULAÇÃO): 
 Assuma que X é uma variável aleatória tal que E(X2) existe. Então ( ) ( )
2
2
E X
P X ε
ε
≥ ≤ , 
para todo ε > 0. 
 Essa segunda formulação é equivalente à primeira, fazendo-se Y
Y
YX µ
σ
−
= . 
 50
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 
 
• Da desigualdade de Chebyshev, temos que ( ) 211Y YP Y r
r
µ σ− < > − . 
 
o Exemplo: Seja X uma variável aleatória tal que E(X) = 3 e E (X2) = 13. Determine um 
limite inferior para P(-2 < X < 8). 
 
TEOREMA 4: LEI FRACA DOS GRANDES NÚMEROS 
 Seja f(•) uma densidade com média µ e variância finita σ2 e seja 
nX a média amostral de uma 
amostra aleatória de tamanho n de f(•). Seja ε e δ dois números especificados tal que ε > 0 e 
0 < δ < 1. Se n é um número inteiro maior do que 
2
2
σ
ε δ , então ( ) 1nP Xε µ ε δ− < − < ≥ − . 
o Exemplo: Suponha que uma distribuição com média desconhecida tem variância igual a 1. 
Quão grande a amostra deve ser de modo que a probabilidade de que 
nX não se desvie por 
mais de 0,5 da média populacional é de 0,95 no mínimo? 
o Exemplo: Qual o menor tamanho da amostra que garanta, com 99% de certeza, que 
nX se 
desvie de µ por menos de 0,5σ? 
 
 51
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 
 
TEOREMA 5: TEOREMA CENTRAL DO LIMITE 
 Seja f(•) uma densidade com média µ e variância finita σ2 e seja 
nX a média amostral de uma 
amostra aleatória de tamanho n de f(•). Seja Zn uma variável aleatória definida por ( )
( )
n n n
n
n
X E X XZ
nVar X
µ
σ
−
−
= = . Então a distribuição de Zn se aproxima de uma distribuição normal 
padrão conforme n tende a infinito , ou seja, ( )0,1Dn nZ N→∞→ . 
(Demonstração: página 234 a 236 do Mood). 
 
 O que o TCL significa é que, não importando a distribuição de X, para uma amostra muito 
grande a distribuição de 
nX se aproxima da normal padrão. Por exemplo, se eu gerar 100 amostras 
com n=1, 2, 10 e 25 da U(0,1), com µ = 0,5, achar a média amostral de todas as amostras e ver o 
histograma em cada caso, eu teria os seguintes gráficos: 
 
 52
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 
 
1 , 00 , 50 , 0
8
7
6
5
4
3
2
1
0
n = 1
F
r
e
q
u
e
n
c
y
1 , 00 , 50 , 0
6
5
4
3
2
1
0
n = 2
F
r
e
q
u
e
n
c
y
1 , 00 , 50 , 0
9
8
7
6
5
4
3
2
1
0
n = 3
F
r
e
q
u
e
n
c
y
1 , 00 , 50 , 0
2 0
1 0
0
n = 2 5
F
r
e
q
u
e
n
c
y
1 , 00 , 50 , 0
3 0
2 0
1 0
0
n = 1 0 0
F
r
e
q
u
e
n
c
y
D is t r ib u iç õ e s d a s f r e q ü ê n c ia s d a s m é d ia s a m o s t r a is d e 1 0 0 a m o s t r a s c o m n = 1 , 2 , 3 , 2 5 , 1 0 0
 53
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS 
 
 Repare que como ( ) 2nVar X
n
σ
= , a distribuição de nX vai ficando cada vez mais concentrada 
em torno de µ para n grande. 
 
Exemplo: Suponha que 30 dispositivos eletrônicos, D1,...,D30 funcionem da seguinte maneira: tão 
logo D1 falhe, D2 entra em operação e, quando D2 falhar,D3 entra em operação e assim por diante. 
Suponha que a duração até Di falhar seja uma variável aleatória exponencial com média 10h. Seja 
T o tempo total de operação dos 30 dispositivos. Qual a probabilidade aproximada de que T 
ultrapasse 350 horas? 
 
 54
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - MÉDIA 
AMOSTRAL 
Corolário: Seja X1,X2,...,Xn uma amostra aleatória de densidade f(•) e seja 
1
1 n
i
i
X X
n
=
= ∑ a média 
amostral. Então ( )E X µ= e ( ) 2Var X
n
σ
= , onde µ e σ2 são, respectivamente, a média e a 
variância de f(•). 
 Note que ( ) 2 0n nVar X
n
σ
→∞
= → , ou seja, conforme a amostra fica maior, a dispersão de 
nX fica menor. A distribuição de nX tem como centro o parâmetro µ a ser estimado. 
 
TEOREMA 6: Seja 
nX a média da amostra (X1,...,Xn) de uma variável aleatória com média µ e 
desvio padrão σ. Nestas condições, 
nX converge em probabilidade para a média µ de X. 
 
 55
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - MÉDIA 
AMOSTRAL 
 
Distribuição assintótica da média amostral 
 Qual a distribuição de 
nX quando n � ∞? Pelo TCL temos que ( )0,1
D
n
n
X N
n
µ
σ →∞
−
→ . 
Distribuição da média amostral quando X não é normal 
Se X não é normal e se n não é grande, o estabelecimento da distribuição exata de 
nX é 
fundamental. 
 
Distribuição Exponencial: Se X1,...,Xn amostra aleatória, Xi ~Exp(λ), nX ~Gama(n,n λ). 
Distribuição Bernoulli: Se X1,...,Xn amostra aleatória, Xi ~Bernoulli(p),
1
n
i
i
X
=
∑ ~Binomial(n,p). 
Distribuição Poisson: Se X1,...,Xn amostra aleatória, Xi ~Poisson(λ),
1
n
i
i
X
=
∑ ~Poisson(nλ). 
 
 56
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
VARIÂNCIA AMOSTRAL 
TEOREMA 7: Seja 
~
X = (X1,...,Xn) uma amostra aleatória da densidade f(•) e seja a variância 
amostral 
( )2
2 1
1
n
i
i
X X
S
n
=
−
=
−
∑
para n>1. Então E(S2) = σ2 e Var(S2) = ' 44
1 3
1
n
n n
µ σ− − 
− 
 para 
n > 1. 
 
 57
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) 
TEOREMA 8: Seja 
~
X = (X1,...,Xn) uma amostra aleatória de tamanho n da normal com média µ 
e variância σ2 e seja 
nX a média amostral. Então nX ~N(µ, σ2/n). 
 
TEOREMA 9: Se 
~
Z = (Z1,...,Zn) é uma amostra aleatória de uma distribuição normal padrão, 
então: 
1. Z tem distribuição normal com média 0 e variância 1/n; 
2. Z e ( )2
1
n
i
i
Z Z
=
−∑ são independentes; 
3. ( )2
1
n
i
i
Z Z
=
−∑ ~ 2 1nχ − 
 
 58
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) 
Suponha X1,..,Xn uma amostra aleatória da N(µ,σ2). Com base no teorema anterior, e fazendo 
( )i
i
X
Z
µ
σ
−
= , temos que 
1. 
X µ
σ
−
~N(0,1/n) 
2. 
X µ
σ
−
 e 
( ) 2
1
n
i
i
X X
σ
=
 
−
  
 
∑ são independentes, o que implica que X e S2 são independentes. 
3. ( )
2
2
1n S
σ
−
~
2
1nχ − . 
Assim, temos que E(S2) = σ2 e Var(S2) = ( )
42
1n
σ
−
. 
 
 59
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) 
 
Corolário: Razão das variâncias de 2 amostras aleatórias independentes X1,...,Xn e Y1,...,Ym, 
Xi~N(µµµµX,σσσσ2) e Yj~N(µµµµY,σσσσ2) 
 Seja X1,...,Xn uma amostra aleatória de tamanho n de uma N(µX,σ2) e Y1,...,Ym uma amostra 
aleatória de tamanho m de uma N(µY,σ2) e Xi⊥Yj, ∀i = 1,...,n e j = 1,...,m. Então, ( )
2
2
1 Ym S
σ
−
~
2
1mχ − 
( ) 2
2
1 Xn S
σ
−
~
2
1nχ − e 
2
2
X
Y
S
S
~Fn-1,m-1. 
 
 60
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
DISTRIBUIÇÕES DE ESTATÍSTICAS DE AMOSTRAS N(µµµµ,σσσσ2) 
Corolário: Diferença entre as médias de 2 amostras aleatórias independentes de X e Y, X ~ 
N(µµµµ,σσσσ2), Y ~ N(µµµµ,σσσσ2). 
 Sejam X1,...,Xn e Y1,...,Ym amostras aleatórias independentes com distribuição N(µ,σ2). Assim 
( )2
~ 0,
m n
X Y N
mn
σ +
−  
 
. 
 Como σ é um parâmetro desconhecido, podemos substituí-lo por uma estatística da amostra, 
que é a média ponderada das variâncias amostrais 
( ) ( )
( )
2 2
2 1 1
2
X Y
p
n S m S
S
m n
− + −
=
+ −
. Como 
( ) 2
2
1 Ym S
σ
−
~
2
1mχ − , 
( ) 2
2
1 Xn S
σ
−
~
2
1nχ − e 2XS ⊥ 2YS , então 
( )
2
p
mnX Y
m n
S
−
+
~tn+m-2. 
 
 61
I – INTRODUÇÃO 
DISTRIBUIÇÕES DE PROBABILIDADE DE ALGUMAS ESTATÍSTICAS - 
ESTATÍSTICAS DE ORDEM 
� Sejam X(1),...,X(n) as estatísticas de ordem de uma amostra aleatória X1,...,Xn, da função de 
distribuição FX(•). A distribuição marginal de X(i) é dada por 
( ) ( ) ( )( ) ( ) ( )1i n j n jX X Xi j i
n
F k P X k F k F kj
−
=
 
   = ≤ = −     
 
∑ . 
� No caso de i = 1 (mínimo): ( ) ( ) ( )1 1 1
n
X XF k F k = − −  
� No caso de i = n (máximo): ( ) ( ) ( )ni
n
X XF k F k =   
� A densidade marginal da estatística de ordem X(i) é 
( ) ( ) ( ) ( ) ( ) ( ) ( )
1! 1
1 ! !i
i n i
X X X X
nf k F k F k f k
i n i
− −
   = −   
− −
. 
� A densidade conjunta de duas estatísticas de ordem X(i) e X(j) é 
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
1 1
, ,
!
, 1
1 ! 1 ! !i j
i j i n j
X X X X X X X X x
nf x y F x F y F x F y f x f y I y
i j i n j
− − − −
∞
     = − −     
− − − −
. 
� A densidade conjunta de todas as estatísticas de ordem é 
( ) ( ) ( ) ( )( ) ( )( ) ( )( ) ( ) ( )1 ,..., 1 1 1,..., ! ... ...nX X n n nf x x n f x f x para x x= < < . 
 
 62
I – INTRODUÇÃO 
Bibliografia 
• MOOD, Alexander M., GRAYBILL, Franklin A.; BOES, Duane C. Introduction to the theory 
of statistics.. New York: MCGraw-Hill, 3ª ed, 1974. 
 
• LARSON, H.J. Introduction to probability theory and statistical inference. New York: 3ª ed., 
Wiley, 1982. 
 
 
• BUSSAB, Wilton O.; MORETTIN, Pedro Alberto. Estatística básica. São Paulo: Editora 
Saraiva, 2002, 5ª edição. 
 
• MONTGOMERY, Douglas C., RUNGER, George C. Estatística Aplicada e Probabilidade 
para Engenheiros. Rio de Janeiro: Editora LTC, 2009.

Continue navegando