Buscar

Aulas 2 Variáveis e Vetores Aleatórios

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 104 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 104 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 104 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Mestrado em Engenharia Elétrica
Disciplina: Probabilidade e Processos Estocásticos
Parte 2: Variáveis e Vetores Aleatórios
José Raimundo Gomes Pereira
josergpereira@gmail.com
7 de Junho de 2017
Referências:
ROSS, S. M. Introduction to Probability Models. Ninth
Edition. Academic Press, 2007
KAY, S. Intuitive Probability and Random Processes using
MATLAB. Springer, 2006.
WASSERMAN, A. All of Statistics. A Concise Course in
Statistical Inference. Springer, 2004.
DEKKING, F.M.; KRAAIKAMP, C.; LOPUHAÃ, H.P. e
MEESTER, L.E. A Modern Introduction to Probability and
Statistics. Understanding Why and How. Springer, 2005.
STATISTICS TOLBOX. For use with MATLAB. User's Guide.
2003.(www.mathworks.com).
TORGO, L. Introdução à Programação em R. 2006.
(http://www.r-project.org)
Variáveis Aleatórias
Em problemas reais, empregamos modelos probabilísticos para
descrever o comportamento das ocorrências. As observações são
tratadas como resultantes de um experimento aleatório e
associamos números reais a cada resultado do experimento.
Definição: Uma variável aleatória é uma função X (·) que associa
um número real X (s) a cada elemento s ∈ S .
Em alguns casos os elementos s ∈ S são numéricos, podemos ter
X (s) = s.
O objetivo é obter a probabilidades da ocorrência de valores de
interesse para a variável aleatória.
Exemplo 2.1
1. Lançar três vezes uma moeda e observar o número de �caras�
obtido
X : o número de caras
2. Contar o número de �voice packets� contendo somente silêncio
produzido por N �locutores� em um período de 10ms.
Y : o número de pacotes somente com silêncio
3. Realizar experimentos para medir o consumo de energia na
execução de um código em um sistema embarcado
T : o consumo de energia
Classificação de Variáveis Aleatórias
DISCRETA se o conjunto dos seus valores é finito ou infinito
enumerável.
Exemplo:
Contar o número de �voice packets� contendo somente silêncio
produzido por N �locutores� em um período de 10ms.
CONTÍNUA se assume valores em um intervalo, ou uma coleção de
intervalos, de números reais.
Exemplo:
Realizar experimentos para medir o consumo de energia na
execução de códigos em sistemas embarcados
Eventos com Variáveis Aleatórias
Para eventos definidos para uma v.a. X , temos as equivalências
{X = x
1
} ≡ {s ∈ S : X (s) = x
1
}
{X ≤ x
2
} ≡ {s ∈ S : X (s)≤ x
2
}
{X > x
3
} ≡ {s ∈ S : X (s) > x
3
}
{x
4
≤ X ≤ x
5
} ≡ {s ∈ S : x
4
≤ X (s)≤ x
5
}
onde xi ∈ R, i = 1,2,3,4,5
Portanto, para qualquer I ⊂ R,
P(X ∈ I ) = P(s ∈ S : X (s) ∈ I )
Função de Distribuição - definição
A função de distribuição (f.d.), ou função de distribuição
acumulada (f.d.a.), para uma v.a. X é definida por
F (x) = P(X ≤ x), ∀x ∈ R.
X ∀x ∈ R, 0≤ F (x)≤ 1
X Descreve a distribuição de probabilidade sobre R, pode ser
empregada para caracterizar completamente a distribuição de
probabilidade da v.a.
X A probabilidade de qualquer evento para uma v.a. pode ser
descrita pela sua f.d.
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 5.
Exemplo 2.2
Considere o experimento de lançar três vezes uma moeda (honesta).
(a) Obter o espaço amostral para o experimento.
(b) Considere a v.a.
X : o número de caras nos lançamentos
e determine:
(b.1) P(X = 2)
(b.2) P(X ≤ 1)
(b.3) a f.d. de X .
Função de Distribuição - propriedades
1. F (x) é não decrescente em x , isto é,
x
1
< x
2
⇒ F (x
1
)≤ F (x
2
).
2. limx→−∞F (x) = F (−∞) = 0.
3. limx→∞F (x) = F (∞) = 1.
4. Para x
1
< x
2
.
P(x
1
< X ≤ x
2
) = F (x
2
)−F (x
1
).
5. P(X > x) = 1−F (x).
Exercício.
Verificar as propriedades da função de distribuição apresentadas.
Variável Aleatória Discreta
Para uma v.a. discreta X , com valores x
1
,x
2
,x
3
, ..., é definida a
função de probabilidade (f.p.) por
P(X = xi ), para cada xi ∈ {x1,x2,x3, ...}
Propriedades:
1. 0≤ P(X = xi )≤ 1, i = 1,2,3, ..
2. P(X = x) = 0, ∀x 6= xi , i = 1,2,3, ..
3. ∑i P(X = xi ) = 1
4. FX (x) = ∑xi≤x P(X = xi )
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 5.
Exemplo 2.3:
Uma fonte gera símbolos, aleatoriamente e independentemente, a
partir de quatro letras do alfabeto a,b,c, e d , com probabilidades,
respectivamente, de 1/2, 1/4, 1/8 e 1/8. Um procedimento
codifica esses símbolos em códigos binários como
a≡ 0, b ≡ 10, c ≡ 110, d ≡ 111
Seja X uma v.a. que descreve o número de símbolos binários na
codificação.
(a) Construa a f.p. de X .
(b) Encontre P(X > 1).
(c) Obtenha a f.d. de X .
Modelo de Bernoulli
Considere uma v.a X discreta que assume valores em {0,1}, e para
p ∈ (0,1),
P(X = 1) = p e P(X = 0) = 1−p.
Podemos escrever
P(X = x) = px(1−p)1−x , x ∈ {0,1}.
1. Experimentos de Bernoulli: experimentos que admitem apenas
dois resultados possíveis, denotados por
�Sucesso� = 1 �Fracasso� = 0.
2. Notação: X ∼ Bernoulli(p)
Exemplo 2.4:
Considere o experimento de selecionar ao acaso uma peça em um
lote com 96 peças boas e 4 defeituosas. Defina a v.a.
X =
{
1 se a peça é defeituosa
0 se a peça é boa
Temos P(X = 1) = 0,04 e P(X = 0) = 0,96
X ∼ Bernoulli(p = 0,04)
P(X = x) = (0,04)x(1−0,04)1−x , x = 0,1
Modelo Binomial
Considere m repetições independentes de um experimento com dois
resultados de interesse, denominados de �fracasso� e �sucesso�, com
suas respectivas probabilidades constantes em todas as repetições,
defina a v.a.
Y : o número de �sucessos� nas m repetições.
Então,
P(Y = y) =
(
m
y
)
py (1−p)m−y , y = 0,1,2, ...,m.
onde p = P(“sucesso ′′).
1. Experimento Binomial (Sequência de Bernoulli): são
repetições independentes de um experimento de Bernoulli(p),
com p constante em todas as repetições.
2. Notação: Y ∼ Binomial(m,p)
Exemplo 2.5:
Os itens produzidos por uma máquina são defeituosos com
probabilidade 0,2, independentemente de qualquer outro item.
Sendo selecionada ao acaso uma amostra de cinco itens, qual a
probabilidade de:
(a) obtermos um defeituoso?
(b) obtermos no máximo três defeituosos?
(c) obtermos pelo menos um defeituoso?
Exercício
Verifique que a f.p. de Y ∼ Binomial(m,p) satisfaz
m
∑
y=0
P(Y = y) = 1
Implementação computacional
Para X ∼ Binomial(m,p)
1. No MATLAB:
P(X = x)≡ binopdf (x ,m,p)
P(X ≤ x)≡ binocdf (x ,m,p)
2. No R:
P(X = x)≡ dbinom(x ,m,p)
P(X ≤ x)≡ pbinom(x ,m,p)
Exemplo 2.6:
Considere as seguintes situações:
(a) Dos alunos de uma grande universidade, sorteamos ao acaso 5
alunos e contamos quantos se declararam usuários de drogas.
(b) Selecionamos 20 lâmpadas ao acaso em um supermercado,
sendo 10 de uma marca A e 10 de outra marca B. Contamos o
número de defeituosas.
(c) Um motorista é submetido a um teste de �baliza�. Em 10
tetativas contamos o número de vezes que o motorista
estacionou corretamente.
O modelo Binomial é adequado para estas situações?
Modelo Geométrico (1)
Considerando repetições independentes de um experimento de
Bernoulli(p), p constante em todas as repetições, defina a v.a.
Y : o número de repetições até o 1o �sucesso�.
Então,
1. Os valores de Y pertencem a {1,2,3, ....}
2. A f.p. é
P(Y = k) = (1−p)k−1p, k = 1,2,3....
3. Notação: Y ∼ Geométrica(p)
Modelo Geométrico (2)
Com relação as repetições independentes de um experimento de
Bernoulli(p), p constante em todas as repetições, podemos
considerar a v.a.
X : o número de repetições antes do 1o �sucesso�.
Neste caso,
1. Os valores de X pertencem a {0,1,2,3, ....}
2. A f.p. é
P(X = k) = (1−p)kp, k = 0,1,2,3....
3. Temos a relação Y = X +1
Implementação computacional
Para X ∼ Geometrica(p), (�antes do primeiro sucesso�; Y = X +1)1. No MATLAB:
P(X = x)≡ geopdf (x ,p)
P(X ≤ x)≡ geocdf (x ,p)
2. No R:
P(X = x)≡ dgeom(x ,p)
P(X ≤ x)≡ pgeom(x ,p)
Exemplo 2.7:
Considere exemplo anterior, sobre os itens produzidos por uma
máquina com probabilidade 0,2 de ser defeituoso,
independentemente de quaisquer outros. Suponha agora que os
itens são inspecionados um após outro. Qual a probabilidade de ser
necessário inspecionar cinco itens até ocorrer o primeiro defeituoso?
Exercício.
Verifique que a f.p. de Y ∼ Geométrica(p) satisfaz
∞
∑
y=1
P(Y = y) = 1
Modelo de Poisson
Uma v.a. X discreta que assume valores em {0,1,2,3, ....} e com
função de probabilidade
P(X = x) =
e−λλ x
x!
, λ > 0, x = 0,1,2, ...
1. Emprega-se esse modelo para descrever o número de
ocorrências de eventos em intervalos (tempo, área, volume,...)
2. λ é a taxa média, ou intensidade, de ocorrência do evento no
intervalo considerado
3. Notação: X ∼ Poisson(λ )
Modelo de Poisson
Propriedade:
Seja X ∼ Binomial(m,p). Para m→ ∞ e p→ 0, tal que a taxa
λ = m p permanece constante, então
P(X = x)≈ e
−λλ x
x!
, x = 0,1,2, ...
X O modelo de Poisson aproxima a distribuição Binomial(m,p)
quando m é grande e p pequeno.
Exercício.
Fazer a verificação da propriedade apresentada para a distrbuição
X ∼ Poisson(λ ).
Exemplo 2.8:
Em uma central telefônica o número de chamadas pode ser
modelado por uma distribuição de Poisson, com taxa λ = 2/min.
Admitindo este modelo como verdadeiro, encontre a probabilidade
de:
(a) haver quatro chamadas em cinco minutos?
(b) haver doze chamadas em cinco minutos?
(c) haver, no mínimo, três chamadas em dois minutos?
(d) haver cento e trinta chamadas em uma hora?
Implementação computacional
Para X ∼ Poisson(λ ), com λ > 0.
1. No MATLAB:
P(X = x)≡ poisspdf (x ,λ )
P(X ≤ x)≡ poisscdf (x ,λ )
2. No R:
P(X = x)≡ dpois(x ,λ )
P(X ≤ x)≡ ppois(x ,λ )
Exemplo 2.9:
No estudo de desempenho de uma central de computação, o
número de acessos a unidade CPU é modelada por uma distribuição
de Poisson com taxa λ = 4/seg . Essas requisições podem ser várias
natureza, tais como, imprimir um arquivo, efetuar um cálculo,
enviar uma mensagem, entre outras.
(a) Qual a probabilidade de dois acessos em um segundo?
(b) Qual a probabilidade do número de acessos não ultrapassar
dois acessos em um segundo?
(c) Considerando um intervalo de dez segundos, qual a
probabilidade de haver mais de cinquenta acessos?
Função de uma V. A. Discreta
Há situações em que o interesse são transformações da v.a.
observada.
Seja X discreta, com valores x
1
,x
2
,x
3
, ..., e considere uma função
Y = g(X ) que gera valores y
1
,y
2
,y
3
, .... Então temos que
P(Y = yi ) = ∑
{j :g(xj )=yi}
P(X = xj)
Exemplos:
Y = cX + b
Y = X k
Y =
{
c
1
se X ≤ c
c
2
se X > c
Exemplo 2.10:
1. Considere o exemplo da fonte que gera símbolos, aleatoria e
independentemente, a partir das letras a,b,c , e d , com
probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que
são codificadas em códigos binários como: a≡ 0; b ≡ 10;
c ≡ 110; d ≡ 111. Para X : o número de símbolos binários na
codificação obtenha a f.p. de Y = 3x +5.
2. Seja X uma v.a. com f.p.
x -1 0 1
P(X = x) 0,3 0,5 0,2
Obtenha a distribuição de Y = X 2.
Valor Esperado de uma V. A. Discreta
Definição: a esperança (valor esperado, valor médio) para uma v.a.
X discreta, com valores x
1
,x
2
,x
3
, ..., é definida por
E [X ] =∑
i
xiP(X = xi )
X Caracteriza-se como uma �média ponderada�, cujos pesos são as
probabilidades e indica a região dos valores da v.a. com a maior
�concentração de probabilidade�.
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 6.
Exemplo 2.11:
1. Considere o experimento de lançar três vezes uma moeda
(�honesta�). Defina a variável aleatória X como o número de
caras obtido. Qual o valor esperado para o número de caras?
2. Considere o exemplo da fonte que gera símbolos, aleatoria e
independentemente, a partir das letras a,b,c , e d , com
probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que
são codificadas em códigos binários como: a≡ 0; b ≡ 10;
c ≡ 110; d ≡ 111. Sendo X : o número de símbolos binários na
codificação obtenha E (X ).
Exercício:
Obter a esperança dos modelos de v.a. discretas apresentados.
Valor Esperado de Funções de V.A. Discretas
Seja X discreta, com valores x
1
,x
2
,x
3
, ..., e considere uma função
Y = g(X ) que gera valores y
1
,y
2
,y
3
, .... Então por definição
E [Y ] =∑
i
g(xi )P(X = xi ).
De forma alternativa, podemos obter a distribuição de Y e
empregá-la para obter a E (Y ) que por definição é dada por
E [Y ] =∑
j
yjP(Y = yj)
Exemplo 2.12:
1. Considere o exemplo da fonte que gera símbolos, aleatoria e
independentemente, a partir das letras a,b,c , e d , com
probabilidades, respectivamente, de 1/2, 1/4, 1/8 e 1/8, e que
são codificadas em códigos binários como: a≡ 0; b ≡ 10;
c ≡ 110; d ≡ 111. Para X : o número de símbolos binários na
codificação seja Y = 3x +5. Obtenha E (Y ).
2. Seja X uma v.a. com f.p.
x -1 0 1
P(X = x) 0,3 0,5 0,2
Para Y = X 2 obtenha E (Y ).
Variância de uma V. A. Discreta
Definição:
A variância de uma v.a. X é definida por
Var [X ] = E{(X −E [X ])2}.
Então, sendo X discreta com valores x
1
,x
2
,x
3
, ..., temos que
Var [X ] =∑
i
(xi −E [X ])2P(X = xi )
X Mensura a dispersão (ou variabilidade) da distribuição da v.a.
com respeito a seu valor esperado.
Definição:
O desvio padrão da v.a. X é definido por
dp[X ] = +
√
Var(X )
X A informação da variância expressa na mesma unidade dos
valores associados a v.a.
Exemplo 2.13:
1. Obtenha a Var(X ), onde X é o número de caras obtido no
experimento de lançar de uma moeda três vezes, definido em
exemplo anterior.
2. Considere uma v.a. X ∼ Bernoulli(p). Obter a E [X ] e Var [X ].
Exercício:
Obter a variância dos modelos de v.a. discretas apresentados.
Propriedades da Esperança e Variância
Seja X uma v.a. e a, b e c constantes.
1. E [c] = c
2. E [aX + b] = aE [X ] + b
3. Var [X ] = E [X 2]− (E [X ])2
4. Var [X ]≥ 0
5. Var [c] = 0
6. Var [cX ] = c2Var [X ]
7. Var [aX + b] = a2Var [X ]
Exercício:
1. Demonstrar cada uma das propriedades acima.
2. Em KAY(2006), estudar o Exemplo 6.3 e a discussão ao final
da Seção 6.6.
Função Característica de V.A. Discretas
A função característica (f.c.) de uma v.a. X é definida por
φX (t) = E [e jtX ], t ∈ R,
onde j =
√−1. Sendo X discreta com valores x
1
,x
2
,x
3
, ..., então
φX (t) =∑
i
e jtxi P(X = xi ).
Propriedade:
A f.c. sempre existe pois |φX (t)|< ∞.
O r - ésimo momento de uma v.a. X é definido por
µr = E [X r ], r = 1,2,3, ...
Propriedade:
A f.c. gera os momentos E [X n] por
E [X r ] =
1
j r
φ (r)X (0), onde φ
(r)
X (t) =
d r
dtr
φX (t)
Função Característica de V.A. Discretas
Teorema da Unicidade:
A função característica de uma v.a. X determina univocamente a
distribuição de X . (a f.c. é uma representação da distribuição)
Comentário:
A f.c. pode ser empregada para identificar se uma dada v.a. segue
uma distribuição cuja f.c. seja conhecida.
Exemplo 2.14
1. Considere uma v.a. X ∼ Bernoulli(p). Obter f.c. e empregar
para obter sua esperança e sua variância.
Exercício:
1. Obter a f.c. para os modelos de v.a. discretas apresentados.
2. Em KAY(2006) estudar o exemplo, relativo a �Property 6.6�,
sobre a aproximação da Binomial(m,p) pela Poisson(λ ), com
λ = mp.
Variáveis Aleatórias Contínuas
Em muitos experimentos aleatórios é possível, ou conveniente,
associar seus resultados à um conjunto não enumerável de valores.
Nestes casos,as respostas são modeladas por uma v.a. que
assumem qualquer valor em um adequado intervalo de números
reais.
Exemplo:
Realizar experimentos para medir o consumo de energia na
execução de códigos em sistemas embarcados.
Definição:
Uma v.a. X é dita contínua se assume valores em um intervalo, ou
uma coleção de intervalos, de números reais.
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 10.
Variáveis Aleatórias Contínuas
A cada v.a. contínua estará associada uma função que descreve o
seu comportamento probabilístico; é denominada função densidade
de probabilidade.
Definição:
Para uma v.a. contínua X , a função densidade de probabilidade
(f.d.p.) é uma função f (·) que satisfaz a:
(1) f (x)≥ 0 para todo x ∈ R
(2)
∫ ∞
−∞ f (x)dx = 1
(3) Para B ⊂ R, P(X ∈ B) = ∫B f (x)dx
Variáveis Aleatórias Contínuas
Definição:
Sendo X uma v.a. com f.d. F (·), dizemos que X é contínua se
existe uma função f (·)≥ 0, tal que
F (x) = P(−∞< X ≤ x) =
∫ x
−∞
f (t)dt, ∀x ∈ R.
1. Se X é contínua, então F (·), sendo uma integral de f (·), é
contínua.
2. Pelas propriedades de F (·),
f (x) =
{
F ′(x), se diferenciável em x
0, se não diferenciável em x
Variáveis Aleatórias Contínuas
· A função densidade de probabilidade descreve a distribuição de
probabilidade da v.a. contínua
· A probabilidade P(a≤ X ≤ b) equivale a área sob a curva de
f (·) entre a e b
· Pela definição, ∀a ∈ R,
P(X = a) =
∫ a
a
f (x)dx = 0.
Portanto, temos que
P(a≤X ≤ b) = P(a≤X < b) = P(a <X ≤ b) = P(a <X < b)
· Podemos avaliar a probabilidade de X ocorrer �próximo� de a
com o argumento matémático, com ε → 0,
P(a− ε
2
≤ X ≤ a + ε
2
) =
∫ a+ ε
2
a− ε
2
f (x)dx ≈ εf (a),
Exemplo 2.14:
Admita que o tempo de trasmissão de uma mensagem, em u.t., em
um sistema de comunicação é descrito por uma v.a. X (contínua)
tal que
P(X > x) = e−λx , ∀x ≥ 0,
para uma contante λ > 0.
(a) Qual a probabilidade do tempo de transmissão
ser maior que 2 u.t.?
(b) Obtenha a f.d. de X .
(c) Obtenha a f.d.p. de X .
Modelo Uniforme Contínuo
Uma v.a. contínua X tem distribuição uniforme em (a,b)⊂ R se
sua f.d.p. é
f (x) =
{
1
b−a , se a < x < b
0, caso contrário
1. A função f (x) é constante em (a,b);
2. As probabilidades de intervalos são proporcionais a seus
comprimentos;
3. Notação: X ∼ Uniforme (a,b).
Exemplo 2.15
1. Obter a f.d. para X ∼ Uniforme (a,b).
2. Seja X ∼ Uniforme (0,10). Determine:
(a) P(X < 3)
(b) P(X > 7)
(c) P(1< X < 6)
Modelo Exponencial
Uma v.a. contínua X com valores em [0,∞) é dita ter distribuição
Exponencial de parâmeto λ se sua f.d.p. é
f (x) =
{
λ e−λ x , se x ≥ 0, λ > 0
0, caso contrário
1. É empregado para modelar tempo de vida de componentes,
duração de processos,...
2. A f.d. é
F (x) =
{
1− e−λ x , se x ≥ 0
0, caso contrário
3. Notação: X ∼ Exponencial (λ ).
Exemplo 2.16:
1. Obter a f.d. para X ∼ Exponencial (λ ).
2. Mostre que para X ∼ Exponencial (λ ) e 0< a < b,
P(a < X < b) = e−λ a− e−λ b
3. Assuma que o tempo de duração de ligações telefônicas (min)
em uma empresa que trabalha com vendas pode ser modelada
por uma v.a X ∼ Exponencial (λ = 1/10). Determine a
probabilidade de:
(a) a ligação demorar menos de cinco minutos?
(b) a ligação demorar de cinco a dez minutos?
Modelo Gama
Uma v.a. contínua X com valores em [0,∞), de parâmetos λ > 0 e
α > 0 e sua f.d.p. dada por
f (x) =
{
1
Γ(α)λ
α xα−1 e−λ x , se x ≥ 0
0, caso contrário
onde
Γ(α) =
∫ ∞
0
e−ssα−1ds,
é denominada função matemática gama.
Notação: X ∼ Gama (α,λ ).
Modelo Gama
1. A função matemática Γ(α) tem as propriedades:
1.1 Γ(1/2) =
√
pi
1.2 Γ(α +1) = αΓ(α)
1.3 Se α = m inteiro, Γ(m) = (m−1)!
2. Gama (1,λ ) ≡ Exponencial(λ )
3. Se α = m inteiro, é conhecida como distribuição de Erlang .
f (x) =
{
1
(m−1)!λ
m xm−1 e−λ x , se x ≥ 0
0, caso contrário
⇒ modela a soma dos tempos de vida de componentes que
atuem independentemente em sistemas.
Exemplo 2.17:
Considere no exemplo anterior o tempo de duas ligações telefônicas
consecutivas e admita que suas durações são eventos
independentes. Admita que os tempos de duração das ligações
telefônicas (min) podem ser modelados por v.a.
Xi ∼ Exponencial (λ = 1/10), i = 1,2.
Seja T a v.a. que descreve o tempo de duração das duas ligações,
então T = X
1
+ X
2
. Neste caso, podemos modelar
T ∼ Gama (α = 2,λ = 1/10).
Qual a probabilidade do tempo das duas ligações ser menor que
quinze minutos?
Modelo Normal (Gaussiano)
Uma v.a. contínua X tem distribuição normal com parâmetros µ e
σ2, se sua f.d.p. é
fX (x) =
1√
2piσ
exp
{
−1
2
(
x−µ
σ
)
2
}
,−∞< x < ∞
1. A distribuição é simétrica em torno do valor de µ .
2. A �extensão� do gráfico da densidade é dado pelo valor de σ .
3. É considerada distribuição mais importante, descreve o
comportamento de muitas características associadas a
problemas reais.
4. X ∼ N(µ;σ2)
Modelo Normal: Alguns Resultados
1. Sendo X ∼ N(µ;σ2) e Y = a X + b, com a 6= 0 e b ∈ R, então
Y ∼ N(aµ + b;a2σ2)
2. Sendo X ∼ N(µ;σ2) e fazendo
Z =
X −µ
σ
,
então Z ∼ N(0;1), denominada normal padronizada.
3. As probabilidade para a normal padronizada são tabeladas; o
procedimento é padronizar a variável em questão e empregar
as probabilidades tabeladas para N(0;1).
Exemplo 2.18:
1. Seja Z ∼ N(0;1). Para esta variável determine:
(a) P(Z < 1,32)
(b) P(Z <−1,96)
(c) Um valor z tal que P(−z < Z < z) = 0,95
2. Os depósitos efetuados em uma agência bancária durante um
determinado mês são modelados por uma v.a.
Z ∼ N(10.000,(1.500)2). Encontrar a probabilidade de que o
depósito seja:
(a) um valor entre R$ 12.0000,00 e R$ 15.0000,00?
(b) maior que R$ 19.0000,00?
Exemplo 2.19:
O tempo (em minutos) para a realização de um teste de aptidão
aplicado aos candidatos em um concurso é modelado como uma
v.a. com distribuição normal com parâmetros µ = 90 e σ = 20.
Esse tempo é empregado como um dos critérios de seleção.
(a) Para ser aprovado no teste, o candidato deve completá-lo em
menos de 80 minutos. Se 65 candidatos fizeram o teste,
quantos são esperados passar?
(b) Se os 5% melhores candidatos são alocados para os cargos
com melhor remuneração, quão rápido deve ser o candidato
para que obtenha esse cargo?
Funções de Distribuição no MATLAB
1. X ∼ Uniforme(a,b)
P(X ≤ x)≡ unifcdf (x ,a,b)
2. X ∼ Exponencial(λ )
P(X ≤ x)≡ expcdf (x ,µ); µ = 1/λ
3. X ∼ Gama(α,λ )
P(X ≤ x)≡ gamcdf (x ,a,b); a = α, b = 1/λ
4. X ∼ N(µ;σ2)
P(X ≤ x)≡ normcdf (x ,µ,σ); σ =
√
σ2
Funções de Distribuição no R
1. X ∼ Uniforme(a,b)
P(X ≤ x)≡ punif (x ,a,b)
2. X ∼ Exponencial(λ )
P(X ≤ x)≡ pexp(x ,λ );
3. X ∼ Gama(α,λ )
P(X ≤ x)≡ pgamma(x ,α,λ );
4. X ∼ N(µ;σ2)
P(X ≤ x)≡ pnorm(x ,µ,σ); σ =
√
σ2
Função de Distribuição Inversa
Definição:
Para uma v.a. X , com f.d. F (·), a f.d. inversa é definida por
F−1(p) = min{x : F (x)≥ p}, p ∈ [0,1].
Se F é estritamente crescente e contínua então F−1(p) é um único
número x tal que
F (x) = P(X ≤ x) = p.
X Para p ∈ [0,1], determina um valor x que estabelece a
probabilidade p a sua esquerda na distribuição de X .
Definição:
A mediana da distribuição X é definida por
med(X ) = F−1X (0,5).
Função de Distribuição Inversa no MATLAB
1. X ∼ Uniforme(a,b)
F−1(p) = x : x = unifinv(p,a,b).
2. X ∼ Exponencial(λ )
F−1(p) = x : x = expinv(p,1/λ );
3. X ∼ Gama(α,λ )
F−1(p) = x : x = gaminv(p,α,1/λ );
4. X ∼ N(µ;σ2)
F−1(p) = x : x = norminv(p,µ,σ); σ =
√
σ2
Funções de Distribuição Inversa no R
1. X ∼ Uniforme(a,b)
F−1(p) = x : x = qunif (p,a,b)
2. X ∼ Exponencial(λ )
F−1(p) = x : x = qexp(p,λ );
3. X ∼ Gama(α,λ )
F−1(p)= x : x = qgamma(p,α,λ );
4. X ∼ N(µ;σ2)
F−1(p) = x : x = qnorm(p,µ,σ); σ =
√
σ2
Exemplo 2.20:
1. Para uma v.a. X determine um valor x quando:
1.1 X ∼ Exponencial(1/100) e P(X > x) = 0,05.
1.2 X ∼ Normal(0;1) e P(X < x) = 0,975
1.3 X ∼ Normal(0;1) e P(−x < X < x) = 0,95
1.4 X ∼ Normal(90;400) e P(X > x) = 0,05
2. Considere uma v.a. X ∼ Gama (2;3). Obtenha a mediana
desta distribuição.
3. Sendo X ∼ Normal (µ;σ2), qual a mediana da sua
distribuição?
Valor Esperado de uma V. A. Contínua
Definição:
A esperança (valor esperado, valor médio) de uma v.a. contínua X ,
com f.d.p f (x), é definida por
E [X ] =
∫ ∞
−∞
x f (x)dx ,
X Tem interpretação análoga às da v.a. discretas, um valor
numérico que visa caracterizar �região central� da distribuição de
probabilidade da v.a.
X Se a distribuição de probabilidade da v.a. apresentar um ponto
de simetria, o valor esperado indicará este ponto.
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 11
Exemplo 2.21:
1. Seja X uma v.a. contínua com f.d.p.
f (x) =
{
3x2, se 0≤ x ≤ 1
0, caso contrário.
Obtenha a esperança de X .
2. Seja X ∼ Uniforme (a,b). Obter E [X ].
Exercício:
Obter a esperança dos modelos de v.a. contínuas apresentados.
Valor Esperado de Funções de V. A. Contínuas
Sejam X uma v.a contínua, com f.d.p f (·), e g(·) uma função que
gera uma v.a. Y = g(X ) também continua. Então, temos que
E [Y ] = E [g(X )] =
∫ ∞
−∞
g(x) f (x)dx .
Observação:
É possivel determinar a f.d.p de Y , fY (·), e empregá-la para obter
E [Y ] =
∫ ∞
−∞
y fY (y)dy
Veja KAY(2006), Chapter 10, Appendix 10A.
Exemplo 2.22:
Para a v.a. X ∼ Uniforme(−1,1) e Y = X 2, determine E [Y ].
Variância de V. A. Contínuas
Definição:
A variância de uma v.a. X , com f.d.p f (x), é definida por
Var(X ) = E{(X −E [X ])2}.
Então
Var(X ) =
∫ ∞
−∞
(x−E [X ])2 f (x)dx .
X Interpretação análoga à das v.a. discretas, mensura a dispersão
(ou a variabilidade) da distribuição da v.a. com respeito a seu valor
esperado.
Exemplo 2.23:
1. Seja X uma v.a. contínua com f.d.p.
f (x) =
{
3x2, se 0≤ x ≤ 1
0, caso contrário.
Obtenha a variância de X .
2. Seja X ∼ Uniforme (a,b). Obter Var [X ].
Exercício:
Obter a variância dos modelos de v.a. contínuas apresentados.
Propriedades da Esperança e Variância
Todas as propriedades da Esperança e Variância apresentadas para
as v.a. discretas são válidas para as v.a. contínuas,
1. E [c] = c
2. E [aX + b] = aE [X ] + b
3. Var [X ] = E [X 2]− (E [X ])2
4. Var [X ]≥ 0
5. Var [c] = 0
6. Var [cX ] = c2Var [X ]
7. Var [aX + b] = a2Var [X ]
Exercício:
Demonstrar cada uma das propriedades acima sendo X uma v.a.
contínua.
Função Característica de V.A. Contínuas
Definição:
A função característica (f.c.) de uma v.a. X é definida por
φX (t) = E [e jtX ], t ∈ R,
onde j =
√−1. Para X contínua com f.d.p f (x) temos que
φX (t) =
∫ ∞
−∞
e jtx f (x)dx .
Propriedades
1. A f.c. sempre existe pois |φX (t)|< ∞.
2. Gera os momentos E [X n] por
E [X n] =
1
jn
φ (n)X (0), onde φ
(n)
X (t) =
dn
dtn
φX (t)
Função Característica de V.A. Contínuas
Teorema da Unicidade
A função característica de uma v.a. X determina univocamente a
distribuição de X . (a f.c. é uma representação da distribuição)
Exemplo 2.24
1. Considere uma v.a. X ∼ Exponencial(λ ). Obter f.c. e
empregar para obter sua esperança e sua variância.
Exercício:
1. Obter a f.c. para os modelos de v.a. contínuas apresentados e
empregar para obter a esperança e a variância.
2. Empregar a f.c. para mostrar que, sendo X ∼ N(µ;σ2), temos
que:
2.1 para Y = a X + b, com a 6= 0 e b ∈ R, então
Y ∼ N(aµ + b;a2σ2).
2.2 para Z = X−µσ , então Z ∼ N(0;1).
Distribuição Conjunta de V. A.
Considere duas v.a. X e Y associadas a um experimento aleatório.
∀s ∈ S ⇒ RXY = {(X (s),Y (s)) ∈ R2}
A função de distribuição conjunta de X e Y é definida por
F (x ,y) = P(X ≤ x ,Y ≤ y), −∞< x ,y < ∞.
A definição vale para mais v.a.: X
1
,X
2
, ...,Xd
F (x
1
,x
2
, ...,xd) = P(X1 ≤ x1,X2 ≤ x2, ...,Xd ≤ xd),
com −∞< xi < ∞, i = 1,2, ...,d .
Referência:
ROSS(2007), Chapter 2
KAY(2006), Chapter 7 and Chapter 12.
Distribuição Conjunta de V. A.
Serão considerados os casos:
1. Para (X ,Y ) discretas definimos a f.p. conjunta
p(xi ,yj) = P(X = xi ,Y = yj),
para todo (xi ,yj) pares de valores de (X ,Y ).
2. Para (X ,Y ) conjuntamente contínuas temos f.d.p. conjunta
f (·, ·) tal que
P(X ∈ A,Y ∈ B) =
∫
A
∫
B
f (x ,y)dx dy ,
para todo A e B em R.
Distribuições Marginais
Podemos obter a distribuição marginal de cada uma das v.a. a
partir da distribuição conjunta
1. (X ,Y ) discretas com f.p. conjunta p(xi ,yi )
P(X = x) =∑
yj
p(x ,yj),
P(Y = y) =∑
xi
p(xi ,y)
2. (X ,Y ) contínua com f.d.p. conjunta f (x ,y)
fX (x) =
∫ ∞
−∞
f (x ,y)dy ,
fY (y) =
∫ ∞
−∞
f (x ,y)dx ,
Exemplo 2.24:
1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta
Y \X 0 1 2
2 0.25 0.10 0.15
3 0.25 0.05 0.20
Obtenha as distribuições marginais de X e de Y .
2. Seja (X ,Y ) com f.d.p. conjunta
f (x ,y) =
{
x + y , 0≤ x ≤ 1, 0≤ y ≤ 1
0, c .c
Obtenha as distribuições marginais de X e de Y .
V. A. Independentes
Considere os eventos
A = {s ∈ S : X (s)≤ x}
B = {s ∈ S : Y (s)≤ y}
Então,
P(A∩B) = P(X (s)≤ x ,Y (s)≤ y) = F (x ,y)
Se A e B são independentes, temos
P(A∩B) = P(A)P(B)
F (x ,y) = P(X (s)≤ x)P(Y (s)≤ y)
F (x ,y) = FX (x)FY (y)
V. A. Independentes
Definição: As v.a. X e Y são independentes se e somente se
F (x ,y) = FX (x)FY (y) ∀(x ,y) ∈ R2
A definição implica que:
1. Para (X ,Y ) discreta
P(X = xi ,Y = yj) = P(X = xi )P(Y = yj) ∀(xi ,yj)
2. Para (X ,Y ) contínua com f.d.p. conjunta f (x ,y)
f (x ,y) = fX (x)fY (y).
Exemplo 2.25:
Verifique se no exemplo anterior as v.a. são independentes.
Valor Esperado de g(X ,Y )
Seja (X ,Y ) v.a. bidimensional e g(·, ·) uma função real.
Definição:
1. Para (X ,Y ) v.a. bidimensional discreta
E [g(X ,Y )] =∑
xi
∑
yj
g(xi ,yj)P(X = xi ,Y = yj)
2. Para (X ,Y ) v.a. bidimensional conjuntamente contínua
E [g(X ,Y )] =
∫ ∞
−∞
∫ ∞
−∞
g(x ,y)f (x ,y)dx dy .
Algumas Propriedades:
1. X e Y v.a., a e b constantes
E [aX + bY ] = aE [X ] + bE [Y ]
2. X
1
,X
2
, ...,Xd v.a., a1,a2, ...,ad constantes
E [a
1
X
1
+ a
2
X
2
+ ...+ adXd ] =
d
∑
i=1
aiE [Xi ]
3. X e Y v.a. independentes, g(·) e h(·) funções
E [g(X )h(Y )] = E [g(X )]E [h(Y )]
4. X
1
, ...,Xd v.a. independentes, g1, ...,gd funções
E [g
1
(X
1
)g
2
(X
2
)...gd(Xd)] =
d
∏
i=1
E [gi (Xi )]
Covariância e Variância da Soma de V. A.
Definição: A covariância entre duas v.a. X e Y é definida por
Cov(X ,Y ) = E{(X −E [X ])(Y −E [Y ])}
1. É uma medida de �variabilidade conjunta� entre as v.a.
2. Valores � + � indicam que as v.a. tendem a crescer no mesmo
sentido, e valores � - � indicam sentidos opostos.
3. Resultado:
Cov(X ,Y ) = E [XY ]−E [X ]E [Y ] = Cov(Y ,X )
⇒ é uma medida �simétrica�.
Exercício:
Fazer a verificação deste resultado
Exemplo 2.26:
1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta
Y \X 0 1 2
2 0.25 0.10 0.15
3 0.25 0.05 0.20
Obtenha a covariância entre X e Y .
2. Seja (X ,Y ) com f.d.p. conjunta
f (x ,y) =
{
x + y , 0≤ x ≤ 1, 0≤ y ≤ 1
0, c .c
Obtenha a covariância entre X e Y .
Propriedades:
1. Cov(X ,X ) = Var(X )
2. Com X e Y independentes, Cov(X ,Y ) = 0.
3. Se a e b são constantes,
Cov(aX ,bY ) = a b Cov(X ,Y )
4. Cov(X ,Y + Z ) = Cov(X ,Y ) + Cov(X ,Z )
5. Com X
1
, ...,Xm e Y1, ...,Yn v.a. e sendo a1,a2, ...,ad e
b
1
,b
2
, ...,bd constantes
Cov(m
∑
i=1
aiXi ,
n
∑
j=1
bjYj) =
m
∑
i=1
n
∑
j=1
aibjCov(Xi ,Yj).
Propriedades:
6. Com X
1
, ...,Xm v.a.
Var(
m
∑
i=1
Xi ) =
m
∑
i=1
Var(Xi )
+2
m−1
∑
i=1
m
∑
j=i+1
Cov(Xi ,Yj)
7. Se X
1
, ...,Xm são v.a. conjuntamente independentes
Var(
m
∑
i=1
Xi ) =
m
∑
i=1
Var(Xi )
Exercício:
Fazer a verificação destas propriedades.
Exemplo 2.27:
Seja Y ∼ Binomial(m,p) e defina, para cada repetição, as v.a.
Xi =
{
1, se ocorre o sucesso
0, se ocorre o fracasso
com i = 1,2, ..,m. Modele Y em termos das v.a. Xi ′s e obtenha
E [Y ] e Var [Y ].
Coeficiente de Correlação
Definição: O coeficiente de correlação entre duas v.a. X e Y é
definido por
ρ(X ,Y ) =
Cov(X ,Y )√
Var(X )Var(Y )
.
1. É uma medida que quantifica a associação linear entre as v.a.
2. −1≤ ρ(X ,Y ) ≤ 1.
3. ρ(X ,Y ) = 1 ⇔ Y = aX + b, a > 0 e b ∈ R
4. ρ(X ,Y ) =−1 ⇔ Y = aX + b, a < 0 e b ∈ R.
5. ρ(X ,Y ) = 0 ⇒ ausência de associação linear.
Exemplo 2.28
1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta
Y \X 0 1 2
2 0.25 0.10 0.15
3 0.25 0.05 0.20
Obtenha o coeficiente de correlação entre X e Y .
2. Seja (X ,Y ) com f.d.p. conjunta
f (x ,y) =
{
x + y , 0≤ x ≤ 1, 0≤ y ≤ 1
0, c .c
Obtenha o coeficiente de correlação entre X e Y .
Função Característica Conjunta
Definição:
A função característica (f.c.) de uma v.a. bidimensional (X ,Y ) é
definida por
φXY (t,s) = E [e j(tX+sY )], (t,s) ∈ R2,
onde j =
√−1.
Para (X ,Y ) discreta, com f.p. conjunta p(xi ,yj), temos que
φXY (t,s) =∑
xi
∑
yj
e j(txi+syj ) p(xi ,yj)
Para (X ,Y ) conjuntamente contínua, com f.d.p. conjunta f (x ,y),
temos que
φXY (t,s) =
∫ ∞
−∞
∫ ∞
−∞
e j(tx+sy) f (x ,y)dx dy .
Função Característica Conjunta
Propriedades:
1. A f.c. sempre existe pois |φXY (t,s)|< ∞.
2. Gera os momentos conjuntos E [XmY n] por
E [XmY n] =
1
jm+n
φ (m+n)X (0,0); φ
(m+n)
XY (t,s) =
dm+n
dtm dsn
φXY (t,s)
3. Teorema da Unicidade também se verifica.
4. Para X e Y v.a. independentes, com f.c. φX (t) e φY (s), temos
φX+Y (t,s) = φX (t)φY (s)
Exercício:
1. Fazer a verificação da Propriedade 4.
2. Para X ∼ Poisson(λ
1
), Y ∼ Poisson(λ
2
), v.a. independentes, e
Z = X + Y , mostrar que Z ∼ Poisson(λ ), com λ = λ
1
+λ
2
.
Distribuição Condicional
Definição: Para X e Y v.a. com distribuição conjunta
1. (X ,Y ) discreta com f.p. conjunta P(X = x ,Y = y)
P(X = x |Y = y) = P(X = x ,Y = y)
P(Y = y)
, ∀y com P(Y = y) > 0
2. (X ,Y ) contínua com f.d.p. conjunta fXY (x ,y)
fX |Y=y (x |y) =
fXY (x ,y)
fY (y)
, ∀y com fY (y) > 0.
X São distribuições de probabilidade, portanto
1. ∑x P(X = x |Y = y) = 1
2.
∫ ∞
−∞ fX |Y=y (x |y)dx = 1
Referência:
ROSS(2007), Chapter 3
KAY(2006), Chapter 8 and Chapter 13.
Exemplo 2.29
1. Seja (X ,Y ) v.a. bidimensional com f.p. conjunta
Y \X 0 1 2
2 0.25 0.10 0.15
3 0.25 0.05 0.20
Obtenha a distribuição (condicional) de X dado Y = 2.
2. Seja (X ,Y ) com f.d.p. conjunta
f (x ,y) =
{
6xy(2−x−y), 0≤ x ≤ 1, 0≤ y ≤ 1
0, c .c
Obtenha a distribuição (condicional) fX |Y=y (x |y).
3. Sejam X ∼ Poisson(λ
1
) e Y ∼ Poisson(λ
2
) independentes.
Determine a distribuição de X dado X + Y = k
Esperança Condicional
Definição: A esperança condicional de X dado Y = y
1. (X ,Y ) discreta com f.p. conjunta P(X = x ,Y = y) e
P(Y = y) > 0
E [X |Y = y ] =∑
x
x P(X = x |Y = y)
2. (X ,Y ) contínua com f.d.p. conjunta fXY (x ,y) e fY (y) > 0
E [X |Y = y ] =
∫ ∞
−∞
x fX |Y=y (x |y)dx
Exemplo 2.30:
Com relação ao exemplo anterior, determinar as esperanças
condicionais para as distribuições obtidas.
Esperança Condicional
Resultado 1: para a função E [X |Y ], cujo valor em Y = y é dado
por E [X |Y = y ], temos que
E [X ] = E{E [X |Y ]}
Com Y discreta
E [X ] =∑
y
E [X |Y = y ]P(Y = y)
Com Y contínua
E [X ] =
∫ ∞
−∞
E [X |Y = y ] fY (y)dy
Resultado 2: Se X e Y são independentes, então
E [X |Y = y ] = E [X ] e E [Y |X = x ] = E [Y ]
Exercício:
Fazer a verificação destes resultados.
Aplicação:
A soma de um número aleatório de v.a:
Sejam X
1
,X
2
,X
3
, ... v.a. independentes, todas com a mesma
distribuição (v.a.i.i.d), e seja N uma v.a. discreta com valores em
{1,2,3, ....}. Considere que N é independente do Xi ′s e defina
Y = X
1
+ X
2
+ X
3
+ ...+ XN .
Mostrar que
(a) E [Y ] = E [X
1
]E [N]
(b) Var [Y ] = Var [X
1
]E [N] + E 2[X
1
]Var [N]
Cálculo de Probabilidade por Condicionamento
Para o evento {X ∈ A} defina uma v.a. como
W =
{
1 se X ∈ A
0 se X 3 A
⇒ E [W ] = P(X ∈ A) e E [W |Y = y ] = P{(X ∈ A)|Y = y}.
Resultado:
P(X ∈ A) = E [W ] = E{E [W |Y ]}= E{P[(X ∈ A)|Y ]}.
Com Y discreta
P(X ∈ A) =∑
y
P{(X ∈ A)|Y = y}P(Y = y)
Com Y contínua
P(X ∈ A) =
∫ ∞
−∞
P{(X ∈ A)|Y = y} fY (y)dy
Exemplo 2.31:
1. Considere X e Y v.a. contínuas e independentes e T = X + Y .
(a) Mostrar que
FT (t) =
∫ ∞
−∞
FX (t−y) fY (y)dy .
(b) Com X ∼ Exp(λ
1
) e Y ∼ Exp(λ
2
), obter a f.d.p. de T .
2. Para uma central de serviços há uma probabilidade p de que
cada serviço seja executado corretamente e as execuções são
independentes. Suponha que as solicitações de serviço, em um
dado intervalo de tempo, chegam segundo um modelo de
Poisson(λ ). Qual a probabilidade de serem executados
corretamente k serviços no intervalo de tempo considerado?
Teorema Central do Limite
Sejam X
1
,X
2
,X
3
, ... v.a. independentes e indenticamente
distribuidas (iid), com média E [X ] e variância Var [X ] finita (< ∞).
Seja Sn = ∑ni=1Xi . Então com n→ ∞, temos que
Sn ≈ N(n E [X ];n Var [X ]) ou Sn−n E [X ]√
n Var [X ]
≈ N(0;1)
Temos que, com Z ∼ N(0;1),
P
(
Sn−n E [X ]√
n Var [X ]
≤ s
)
≈
∫ s
−∞
fZ (z)dz
⇒ Pelo TCL, a distribuição da soma de uma quantidade grande
v.a. iid pode ser aproximada por uma distribuição Normal , sem ser
necessário conhecer a distribuição das v.a.
Referência:
ROSS(2007), Section 2.7
KAY(2006), Section 15.5.
Exemplo 2.32:
1. Seja X ∼ Binomial(50;0,5). Obtenha uma aproximação para:
(a) P(X > 30).
(b) P(X = 40)
2. (ROSS(2007), Chapter 3). The lifetime of a special type of
battery is a random variable with mean 40 hours and standard
deviation 20 hours. A battery is used until it fails, at which
point it is replaced by a new one. Assuming a stockpile of 25
such batteries, the lifetimes of which are independent,
approximate the probability that over 1100 hours of use can be
obtained.
Simulação Computacional de V.A.
Simulação computacional de um sistema envolve a simulação de
observações de uma v.a. com especificada distribuição de
probabilidade.
Exemplo:
Suponha que o objetivo seja simular o número de e-mail que
chegam a uma central de processamento um fixado intervalo de
tempo. Definimos a v.a.
X : o número de e-mail que chegam no intervalo
⇒ empregar um modelo e simular observações de X
A simulação de v.a., em muitos casos, consiste em gerar um
número �pseudo� aleatório a partir da Uniforme(0;1), transformá-lo
para gerar a observação do modelo desejado.
MATLAB: rand gera número �pseudo� aleatório Uniforme(0;1)
Simulação Computacional de V.A.: Exemplos
Empregar a função �rand� para as seguintes questões.
1. Simular computacionalmente um sequência de CARAS (C ) e
COROAS (K ) no lançamento de uma moeda �viciada� com
P(C ) = 0.4. Propor um algoritmo.
2. Propor um algoritmo para simular observações do número de
peças defeituosas em caixas de um determinado produto, onde
podemos considerar que os defeitos ocorrem de forma
independente na linha de produção e sabendo que as peças são
embaladas em caixascom 10 itens.
3. Propor um algoritmo para simular observações da distribuição
conjunta
Y \X 0 1 2
2 0.25 0.10 0.15
3 0.25 0.05 0.20
Simulação Computacional
Observação:
1. A simulação de observações de alguns modelos exigem o
emprego de resultados de Probabilidade não discutidos na
disciplina. Veja, por exemplo, KAY(2006), Section 10.9.
2. A �credibilidade� de um estudo de simulação depende
fundamentalmente do gerador de números (pseudos) aleatórios
empregado e, dependendo da extensão do estudo, devem ser
ser feitas avaliações com a relação a �aleatóriedade� e a
�independência� dos valores gerados.
3. Uma referência sobre a assunto:
ROSS, S. (2002) Simulation. 3rd Edition. Academic Press.
Simulação Computacional
Funções para simular observações de v.a.
Modelo Matlab R
Binomial(m,p) binornd(m,p,n,d) rbinom(n,m,p)
Geometrica(p) geornd(p,n,d) rgeom(n,p)
Poisson(λ ) poissrnd(λ ,n,d) rpois(x ,λ )
Uniforme(a,b) unifrnd(a,b,n,d) runif (n,a,b)
Exponencial(α) exprnd(1/α,n,d) rexp(n,α)
Gama(α,λ ) gamrnd(α,1/λ ,n,d) rgamma(n,α,λ )
N(µ;σ2) normrnd(µ,σ ,n,d) rnorm(n,µ,σ)
Vetores Aleatórios
Um vetor cujas componentes são v.a.: X= (X
1
,X
2
, ...,Xd)
T
1. Função de distribuição conjunta
F (x
1
,x
2
,x
3
, ...,xd) = P(X1 ≤ x1,X2 ≤ x2,X3 ≤ x3, ...,Xd ≤ xd),
com −∞< xi < ∞, i = 1,2, ...,d .
2. Conjuntamente discreto ⇒ f.p. conjunta
P(X= x) = P(X
1
= x
1
,X
2
= x
2
,X
3
= x
3
, ...,Xd = xd)
3. Conjuntamente contínuo ⇒ f.d.p. conjunta
f
X
(x) = fX
1
X
2
X
3
...Xd (x1,x2,x3, ...,xd)
Notação: x= (x
1
,x
2
,x
3
, ...,xd)
T ∈ Rd
Referência: KAY(2006), Chapter 9 and Chapter 14.
Vetores Aleatórios: Caracterização
Vetor de Médias:
E [X] =

E [X
1
]
E [X
2
]
.
.
.
E [Xd ]

Matrix de Covariâncias:
CX = E{(X−E [X])(X−E [X])T}
que resulta em
CX =

σ
11
σ
12
σ
13
. . . σ
1d
σ
12
σ
22
σ
23
. . . σ
2d
.
.
.
.
.
.
.
.
. . . .
.
.
.
σd1 σd2 σd3 . . . σdd

onde σij = cov(Xi ,Xj) = E{(Xi −E [Xi ])(Xj −E [Xj ])}.
Vetores Aleatórios: Propriedades
1. Matriz de covariâncias é simétrica e a diagonal principal
contém as variâncias das v.a. em X.
2. Se as v.a. em X são conjuntamente independentes, então
CX = diag(σ11,σ22,σ33, ...,σdd)
3. Sendo a(d×1) vetor de constantes ( 6= 0), b ∈ R e Y = aTX+ b
então
E [Y ] = aTE [X] + b e Var [Y ] = aTCXa.
4. Com A(m×d), m ≤ d , matrix de constantes e Y = AX, então
E [Y] = AE [X] e CY = ACXA
T .
5. Pode ser obtida uma transformação de X para Y com m.c.
diagonal.
Distribuição Multinomial
É uma extensão do modelo Binomial onde, em cada uma das m
repetições independentes, são gerados k > 2 resultados de interesse
com suas respectivas probabilidades constantes. Definimos
Yi : o número de resultados do tipo i nas m repetições, i = 1,2, ...,d .
Sendo pi = P(resultado do tipo i), para as v.a. Y1,Y2,Y3, ...,Yd
temos
P(Y
1
= n
1
,Y
2
= n
2
, ...,Yd = nd) =
m!
n
1
!n
2
!...nd !
pn1
1
pn2
2
...pndd
onde ∑ki=1 pi = 1 e n1+ n2+ ...+ nd = m
1. Temos Y = (Y
1
,Y
2
,Y
3
, ...,Yd)
T
2. Notação: Y ∼Multinomial(m,p
1
,p
2
, ...,pd)
Distribuição Multinomial
Exercício:
Seja Y ∼Multinomial(m,p
1
,p
2
, ...,pd). Mostre que o vetor de
média e a matriz covariâncias são, respectivamente,
E [Y] =

m p
1
m p
2
.
.
.
m pd

e
CY =

m p
1
(1−p
1
) −m p
1
p
2
−m p
1
p
3
. . . −m p
1
pd
−m p
2
p
1
m p
2
(1−p
2
) −m p
2
p
3
. . . −m p
2
pd
.
.
.
.
.
.
.
.
. . . .
.
.
.
−m pd p1 −m pd p2 −m pd p3 . . . m pd(1−pd)

Distribuição Normal Multivariada (DNM)
Um v.a. X(d×1) tem distribuição normal (gaussian) multivariada
com parâmetros µµµ(d×1) e ΣΣΣ(d×d) (não singular) se sua f.d.p.
conjunta é dada por
f
X
(x) =
1
(2pi) d2 (det( ΣΣΣ)) 12
exp{−1
2
(x− µµµ)T ΣΣΣ−1(x− µµµ)}
1. Resultados:
(a) Vetor de médias: E [X] = µµµ
(b) Matriz de covariâncias: COV [X] = ΣΣΣ
2. O vetor µµµ define a �localização� e os valores na matriz ΣΣΣ a
�forma� da distribuição no espaço Rd
3. Notação: X∼ Nd( µµµ, ΣΣΣ).
DNM: Propriedades
1. As v.a. em X são independentes se, e somente se,
ΣΣΣ = diag(σ
11
,σ
22
,σ
33
, ...,σdd)
2. Com a(d×1) vetor de constantes (6= 0), b ∈ R e Y = aTX+ b
então
Y ∼ N(aT µµµ + b,aT ΣΣΣa)
⇒ cada v.a. em X tem distribuição normal.
3. Com A(m×d), m ≤ d , matrix de constantes e Y = AX, então
Y ∼ Nm(A µµµ,A ΣΣΣAT ).
⇒ subconjuntos (6= /0) de v.a. em X tem distribuição normal.
4. Sendo Z∼ Nd(0, I(d×d)) e A tal que AAT = ΣΣΣ, então
Y = AZ+ µµµ ∼ Nd( µµµ, ΣΣΣ)
Exercício: Fazer a verificação destes resultados.
DNM: Simulação
Para simular observações de X∼ Nd(µµµ, ΣΣΣ) a propriedade 4 pode
ser empregada; fixados µµµ e ΣΣΣ, emprega-se a decomposição de
Choleski para obter a matrix A.
Exercício:
Propor e implementar um algoritmo para simular observações com
DNM empregando a propriedade 4.
Funções para simulação:
Simular observações de uma distribuição Nd( µµµ, ΣΣΣ):
(a) No Matlab: Statistics Toolbox e função mvnrnd(Mu,Sigma,n)
(b) No R: Pacote mvtnorm e função rmvnorm(n,Mu,Sigma).
Observação: A dimensão d é inferida da dimensão do vetor
Mu declarado na função.

Outros materiais