Buscar

sandramuller-capitulo2 proc estocasticos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 116 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 116 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 116 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Aula 1
Processos Estocásticos Aplicados à Computação 
Variáveis Aleatórias
Profª Sandra Mara Torres Müller
Aula 1
Variáveis Aleatórias
� É frequente que em um experimento se esteja mais interessado em 
algumas funções de resposta do que na resposta propriamente dita.
� Exemplo: quando se joga dois dados e se está mais interessado na 
soma das respostas dos dados do que nos valores das respostas. Ou 
seja, pode se estar mais interessado se a soma dos dados é sete do 
que se a saída é (1,6) ou (2,5) ou (3,4) ou (4,3) ou (5,2) ou (6,1).
� Essas quantidades de interesse ou estas funções de valor real 
definidas no espaço de amostra são chamadas de variáveis 
aleatórias.
� Como o valor de uma variável aleatória é determinada pela saída do 
experimento, pode-se determinar probabilidades para os possíveis 
valores da variável aleatória.
Aula 1
Variáveis Aleatórias
� Exemplo 2.1 - Considere X como a variável aleatória definida como a soma de dois 
dados. Então:
� Ou seja, a variável aleatória X pode assumir qualquer valor entre 2 e 12 e a 
probabilidade de assumir cada um destes valores é dada pela Equação 2.1. Pode-se 
também verificar que:
Aula 1
Variáveis Aleatórias
� Exemplo 2.2 – Suponha que um experimento consista de jogar 
duas moedas justas e Y é o número de aparições de caras. 
Portanto, Y é uma variável aleatória que assume um dos valores 
0, 1, 2, com as respectivas probabilidades:
� Novamente, P{Y = 0} + P{Y = 1} + P{Y = 2} = 1
Aula 1
Variáveis Aleatórias
� Exemplo 2.3 – Suponha que uma moeda é jogada com 
probabilidade p de aparecer cara até que a primeira cara apareça. 
N é o número de jogadas necessárias e assume-se que as saídas 
sucessivas do experimento sejam independentes. Portanto, N é
uma variável aleatória que assume um dos valores 1, 2, 3, ..., com 
respectivas probabilidades: (Note que:)
Soma de PG infinita:
Aula 1
Variáveis Aleatórias
� Exemplo 2.4 – Suponha um experimento que consista em observar 
quanto tempo uma bateria opera antes de parar de funcionar. 
Suponha que não se esteja interessado no tempo de vida da bateria, 
mas somente se a bateria sobrevive no mínimo por dois anos. Neste 
caso, pode-se definir a variável aleatória I como:
� Se E denota o evento em que a bateria sobrevive por dois anos ou
mais, então a variável aleatória I é conhecida como indicador de 
variável aleatória para o evento E. Note que I é igual a 1 ou a 0 
dependendo se E ocorre ou não.
Aula 1
Variáveis Aleatórias
� Exemplo 2.5 - Suponha que tentativas independentes são executadas 
continuamente. Cada uma destas tentativas resulta em uma das m possíveis 
saídas com respectivas probabilidades p1, ... pm, onde
Considere X o número de tentativas necessárias até que cada saída tenha 
ocorrido pelo menos uma vez. Portanto, mais que considerar diretamente P{X = 
n}, deve-se determinar primeiro P{X > n}, isto é, a probabilidade que no 
mínimo uma das saídas não tenha ocorrido depois de n tentativas. Chamando Ai
como o evento em que a saída i não tenha ainda ocorrido depois das primeiras n 
tentativas, i = 1, ..., m, então:
Aula 1
Variáveis Aleatórias
� Continuação: P(Ai) é a probabilidade que cada uma das primeiras n tentativas 
resulte em uma saída não-i. Pelo critério da independência: P(Ai) = (1 – pi)n.
De forma similar, P(AiAj) é a probabilidade que as n primeiras tentativas 
resultem em saídas não-i e não-j. Portanto, P(AiAj) = (1 – pi – pj)n.
Como todas as outras probabilidades são similares, observa-se que
Como P{X = n} = P{X > n–1} – P{X > n}, e segundo a identidade (1 – a)n-1 –
(1 – a)n = a(1 – a)n-1, tem-se que:
Aula 1
Variáveis Aleatórias
� Nos exemplos vistos, as variáveis aleatórias de 
interesse tem um número finito ou contável de valores. 
Um conjunto é contável se os seus elementos podem 
ser colocados em uma sequência de inteiros positivos. 
Tais variáveis aleatórias são chamadas discretas.
� Entretanto existem variáveis aleatórias que podem ter 
valores contínuos, conhecidas como variáveis 
aleatórias contínuas. Um exemplo é o tempo de vida de 
um carro tomado em um intervalo (a,b)
Aula 1
Variáveis Aleatórias - Exercícios
2. Considere X para representar a diferença entre o número de 
caras e de coroas obtido quando uma moeda é jogada n vezes. 
Quais são os possíveis valores para X?
6. Suponha que cinco moedas são jogadas. Considere E como o 
evento em que em que todas as moedas deram cara. Defina a 
variável aleatória IE como
Para quais saídas no espaço amostral original que IE será igual 
a 1? Qual é a P{IE = 1}?
Aula 1
Variáveis Aleatórias
� A função de distribuição cumulativa (cdf) ou 
simplesmente função de distribuição, F(.), de uma 
variável aleatória X é definida para qualquer número 
real b, -∞ < b < ∞, como a função F(b) = P{X ≤ b}.
� Ou seja, F(b) denota a probabilidade de que a variável 
aleatória X tenha um valor menor ou igual a b.
Aula 1
Variáveis Aleatórias
� Propriedades da função de distribuição:
i. F(b) é uma função não-decrescente de b
ii. limb→∞F(b) = F(∞) = 1
iii. limb→-∞F(b) = F(-∞) =0
� A propriedade i. acontece desde que, para a < b, o evento {X ≤
a} esteja contido no evento {X ≤ b} e tenha uma probabilidade 
menor.
� As propriedades ii. e iii. acontecem desde que X assuma algum 
valor finito.
Aula 1
Variáveis Aleatórias
� Todas as questões de probabilidade sobre X podem ser respondidas
em termos de sua cdf F(.). 
Exemplo: P{a < X ≤ b} = F(b) – F(a), para todo a < b.
� Quando se deseja conhecer a probabilidade de que X seja 
estritamente menor que b, pode-se obter esta probabilidade como:
� Note que P{X < b} não é necessariamente igual a F(b) já que F(b) 
também inclui a probabilidade de X ser igual a b.
Aula 2
Variáveis Aleatórias Discretas
� Como já mencionado, uma variável aleatória que pode ser 
tomada em um número possível de valores é dito ser discreta.
� Para uma variável aleatória discreta, X, é definida a função de 
probabilidade de massa p(a) como:
� Se X assume um dos valores x1,x2,..., então:
� Como X pode assumir um dos valores xi, tem-se que:
Aula 2
Variáveis Aleatórias Discretas
� A função de distribuição cumulativa F pode ser expressa em termos 
de p(a) como:
Exemplo: Se X tem uma função de probabilidade de massa dada 
por: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6. Então a função de 
distribuição cumulativa F de X é dado por:
� Variáveis aleatórias discretas são normalmente classificadas de 
acordo com suas funções de probabilidade de massa.
Aula 2
Variável Aleatória Discreta de Bernoulli
� Suponha um experimento cuja resposta possa ser classificada como
‘sucesso’ ou ‘falha’. Se X = 1 para sucesso e X = 0 para falha, então 
a função de probabilidade de massa de X será:
Onde 0 ≤ p ≤ 1 é a probabilidade de se obter um sucesso.
� Uma variável aleatória X é dita ser uma variável aleatória de 
Bernoulli se sua função de probabilidade de massa é dada pela 
Equação 2.2 para algum p∈(0,1).
Aula 2
Variável Aleatória Discreta Binomial
� Suponha um experimento com n testes independentes, onde cada teste resulta 
em um ‘sucesso’ com probabilidade p e em ‘falha’ com probabilidade 1 – p. Se 
X representa o número de sucessos que podem ocorrer em n testes, então X é
dito ser uma variável aleatória binomial com parâmetros (n,p).
� A função de probabilidade de massa de uma variável aleatória binomial com 
parâmetros (n,p) é dada por
Onde é o número de diferentes grupos de i-objetos que 
podem ser selecionados de um conjunto de n-objetos.
Aula 2
Variável Aleatória Discreta Binomial
� A validade da Equação 2.3 pode ser verificada observando que a 
probabilidade de um certa sequência de n respostas contendo i 
sucessos e n –i falhas é, assumindo independência nos testes, 
pi(1 – p)n-i.
� Por exemplo, se n = 3, i = 2, então há (32) = 3 formas nas quais os 
três testes podem resultar em dois sucessos, como (s, s, f), (s, f, s), 
(f, s, s). Como cada uma das três respostas tem um probabilidade de 
p2(1 – p) de ocorrer, a probabilidade desejada é p(2) = (32) p2(1 – p).
� Note que, pelo teorema binomial, a soma das probabilidades é um.
Aula 2
Variável Aleatória Discreta Binomial
� Exemplo 2.6 – Quatro moedas justas são jogadas. Assumindo 
que as saídas sejam independentes, qual é a probabilidade de que 
duas caras e duas coras sejam obtidas?
Considerando X como o número de caras (“sucessos”) que 
aparecem, então X é uma variável aleatória binomial com 
parâmetros (n = 4, p = ½). Portanto, pela Equação 2.3, temos:
Aula 2
Variável Aleatória Discreta Binomial
� Exemplo 2.7 – Sabe-se que qualquer item produzido por uma 
certa máquina será defeituosa com probabilidade 0,1, 
independente de qualquer outro item. Qual é a probabilidade de 
que, em uma amostra de três itens, no máximo uma seja 
defeituosa?
Se X é o número de itens defeituosos na amostra, então X é uma 
variável aleatória binomial com parâmetros (3, 0,1). Assim, o 
probabilidade desejada é dada por:
Aula 2
Variável Aleatória Discreta Binomial
� Exemplo 2.8 – Suponha que um motor de avião falhe durante o vôo 
com probabilidade 1 – p, independente do motor. Suponha que o avião 
fará um vôo bem sucedido se, no mínimo, 50% dos seus motores 
permaneçam operando. Para quais valores de p, um avião de 4 motores 
é preferível a um avião de 2 motores?
Como se assume que cada motor pode falhar independente do que 
aconteça com os outros motores, segue que o número de motores que 
continuam funcionando é uma variável aleatória binomial. Assim, a 
probabilidade que um avião de 4 motores faça um vôo bem sucedido é
Aula 2
Variável Aleatória Discreta Binomial
� Exemplo 2.8 – Continuação.
Enquanto que a probabilidade correspondente para um avião de dois 
motores será:
Portanto, um avião de 4 motores será mais seguro se
Aula 2
Variável Aleatória Discreta Binomial
� Exemplo 2.9 – Suponha que um traço particular de uma pessoa, como a cor dos 
olhos ou escrever com a mão esquerda, seja classificado com base em um par 
de genes e suponha que d represente o gene dominante e r o recessivo. Assim, 
uma pessoa com genes dd é dominante puro enquanto outra com rr é recessivo 
puro, e outra com rd é híbrido. O dominante puro e o híbrido são parecidos na 
aparência. Crianças recebem um gene de cada pai. Se dois pais híbridos tem um 
total de quatro crianças, qual é a probabilidade que exatamente três das quatro 
crianças tenham a aparência do gene dominante?
Assumindo que cada criança é igualmente provável de herdar qualquer um dos 
dois genes de cada pai, as probabilidades de que a criança de dois pais híbridos 
tenham dd, rr, ou rd será, respectivamente, ¼, ¼, ½. A aparência será a do gene 
dominante se o par de genes de cada criança for dd ou rd. Assim, o número de 
crianças com aparência do gene dominante é binomialmente distribuído com 
parâmetros (4,3/4). Portanto, a probabilidade desejada é:
Aula 2
Variável Aleatória Discreta Geométrica
� Suponha que testes independentes, cada um com probabilidade p de obter 
sucesso, foram realizados até o sucesso ocorrer. Se X é o número de 
experimentos necessários até alcançar o primeiro sucesso, então X é dito 
uma variável aleatória geométrica com parâmetro p.
� Sua função de probabilidade de massa é dada por
� Para verificar que p(n) é uma função de probabilidade de massa tem-se que
Aula 2
Variável Aleatória Discreta de Poisson
� Uma variável aleatória X que assume valores 0, 1, 2,... 
é dita se uma variável aleatória de Poisson com 
parâmetro λ, se para algum λ>0 
� Esta equação define a função de probabilidade de 
massa desde que 
� A variável aleatória de Poisson tem aplicações em 
diversas áreas.
Aula 2
Variável Aleatória Discreta de Poisson
� Uma importante propriedade da variável aleatória de Poisson é que ela pode ser 
usada para aproximar a variável aleatória binomial quando o parâmetro n é
muito grande e p é pequeno. Assim, suponha que X é uma variável aleatória 
binomial com parâmetros (n,p) e considere λ = np. Então:
� Para n grande e p pequeno tem-se que:
Aula 2
Variável Aleatória Discreta de Poisson
� Exemplo 2.10 – Suponha que o número de erros tipográficos em 
uma página de livro tenha uma distribuição de Poisson com 
parâmetro λ = 1. Qual a probabilidade de que haja no mínimo um 
erro em uma página?
� Exemplo 2.11 – Se o número de acidentes que acontece a cada 
dia em uma rodovia é uma variável aleatória de Poisson com 
parâmetro λ = 3, qual é a probabilidade que não haja acidentes 
hoje?
Aula 2
Variável Aleatória Discreta de Poisson
� Exemplo 2.12 – Considere um experimento que consista da contagem 
do número de partículas α desprendidas em um intervalo de 1 s em um 
grama de material radioativo. Sabe-se que, na média, este valor é de 3,2. 
Então, qual seria uma boa aproximação para a probabilidade de que não 
mais que 2 partículas α irão aparecer?
Considerando o grama de material radioativo como um grande número 
de n átomos, cada um com probabilidade 3,2/n de desintegrar e 
desprender partículas α durante o segundo considerado, então o número 
de partículas α desprendidas será aproximado por uma variável 
aleatória de Poisson com parâmetro λ = 3,2. Portanto, a probabilidade 
desejada é
Aula 2
Variáveis Aleatórias Discretas
20. Um dono de loja de televisores calcula que 50% dos clientes que 
entram na loja irão comprar um televisor comum, 20% irão 
comprar um televisor a cores e 30% ficarão apenas olhando. Se 5 
clientes entrarem na loja em um determinado dia, qual é a 
probabilidade de que dois clientes comprem um televisor a cores,
um cliente compre um televisor comum e dois clientes não 
comprem nada?
32. Se você compra um cartão de loteria em 50 loterias, onde a 
chance de ganhar em cada uma é de 1/100, qual é a probabilidade 
(aproximada) de que você ganhar o prêmio: (a) no mínimo uma 
vez? (b) exatamente uma vez? (c) no mínimo duas vezes?
Aula 3
Variáveis Aleatórias Contínuas
� É dito que X é uma variável aleatória contínua, se existir uma 
função não-negativa f(x) definida para todo real x ∈ (-∞,∞) com 
a propriedade que para qualquer conjunto B de números reais 
tem-se que:
� A função f(x) é chamada de função de densidade de 
probabilidade (pdf) de uma variável aleatória X
Aula 3
Variáveis Aleatórias Contínuas
� A Equação 2.6 mostra que a probabilidade de que X esteja em B pode ser 
obtida integrando sua pdf em B. Como X deve assumir alguns valores, f(x) 
deve satisfazer:
� Toda expressão de probabilidade em relação a X pode ser escrita em termos 
de f(x). Por exemplo, considerando B=[a,b], temos que:
� Se a = b, então:
� Isto mostra que a probabilidade de que uma variável aleatória contínua 
assuma um valor particular é zero.
Aula 3
Variáveis Aleatórias Contínuas
� A relação entre a função de distribuição cumulativa F(.) e a 
função de densidade de probabilidade f(.) é expressa como
� Derivando, temos:
� Ou seja, a função de densidade de probabilidade é a derivada da 
função de distribuição cumulativa.
Aula 3
Variáveis Aleatórias Contínuas
� Uma interpretação mais intuitiva da função de densidade pode ser 
obtida da Equação 2.7 como: (para ε pequeno)
� Assim, a probabilidade de que X está contido em um intervalo de 
comprimento ε em torno de um ponto a é aproximadamente εf(a).
� Portanto, f(a) é a medida do quão provável a variável aleatória 
contínua estará próxima de a.
� Existem algumas importantes variáveis aleatórias contínuasque 
serão estudadas.
Aula 3
Variável Aleatória Contínua Uniforme
� Uma variável aleatória é dita ser uniformemente 
distribuída sobre o intervalo (0,1), se sua função de 
densidade de probabilidade é dada por:
� Esta função será uma pdf se f(x) ≥ 0 e
Aula 3
Variável Aleatória Contínua Uniforme
� Como f(x) > 0 somente quando x ∈ (0,1), segue que X deve assumir 
um valor em (0,1). Como f(x) é constante para x ∈ (0,1), é mais 
provável que X esteja perto de um valor em (0,1) do que de 
qualquer outro. Para verificar a afirmação, note que para 0 < a < b < 
1 temos:
� Isto é, a probabilidade de que X esteja em um subintervalo 
particular de (0,1) é igual ao comprimento desse subintervalo.
Aula 3
Variável Aleatória Contínua Uniforme
� Assim, pode-se dizer que X é uma variável aleatória uniforme no intervalo 
(α,β) se sua função de densidade de probabilidade for dada por (Eq. 2.8)
Aula 3
Variável Aleatória Contínua Uniforme
� Exemplo 2.13 – Calcule a função de distribuição cumulativa de 
uma variável aleatória uniformemente distribuída sobre (α,β).
Aula 3
Variável Aleatória Contínua Uniforme
� Exemplo 2.14 – Se X é uniformemente distribuído 
sobre (0,10), calcule a probabilidade de que (a) X < 3, 
(b) X > 7, (c) 1 < X < 6.
Aula 3
Variável Aleatória Contínua Exponencial
� Uma variável aleatória contínua é dita ser uma variável aleatória 
exponencial com parâmetro λ, se a função de densidade de 
probabilidade for dada, para algum λ>0, por:
� Sua função de distribuição cumulativa F é:
� Note que
Aula 3
Variável Aleatória Contínua Exponencial
λ = 1, 2, 5.
Aula 3
Variável Aleatória Contínua Gamma
� Uma variável aleatória contínua é dita ser uma variável aleatória 
gamma com parâmetros λ, α (λ > 0, α > 0), se sua função de 
densidade de probabilidade for dada por:
A quantidade Γ(α) é chamada de função gamma, definida como
� Pode-se mostrar por indução que
Aula 3
Variável Aleatória Contínua Normal
� É dito que X é uma variável aleatória normal ou simplesmente 
que X é normalmente distribuída com parâmetros µ e σ2, se a 
densidade de X for dada por
� Esta função de densidade tem a forma de sino e é simétrica em 
relação a µ
Aula 3
Variável Aleatória Contínua Normal
� É importante ressaltar que se X é normalmente distribuído com parâmetros µ e 
σ2, então Y = αX + β é normalmente distribuído com parâmetros αµ + β e 
α2σ2. Para provar, suponha α > 0 e que FY(.) é a função de distribuição 
cumulativa da variável aleatória Y dada por
Aula 3
Variável Aleatória Contínua Normal
� Como então a função de densidade de 
probabilidade fY(.) é dada por
� Daí Y é normalmente distribuída com parâmetros αµ + β e α2σ2. 
Isto também vale para α < 0.
� Isso tudo implica que se X é normalmente distribuída, então Y, que 
é uma função de X, também é normalmente distribuída.
� Se µ = 0 e σ = 1, isto representa uma distribuição normal unitária.
Aula 3
Variáveis Aleatórias Contínuas – Exercícios
33. Considere X uma variável aleatória com densidade de 
probabilidade dada por
(a) Qual é o valor de c?
(b) Qual é a função de distribuição cumulativa de X?
35. A densidade de X é dada por
Qual é a distribuição de X? Encontre P{X > 20}.
Aula 4
Esperança de uma Variável Aleatória – Caso 
Discreto
� Se X é uma variável aleatória discreta com função de probabilidade de 
massa p(x), então o valor esperado de X é definido por
� Ou seja, o valor esperado de X é a média ponderada dos possíveis 
valores que X pode assumir. Cada valor é ponderado pela probabilidade 
de que X assume aquele valor.
� Por exemplo, se a função de probabilidade de massa de X é dada por 
p(1) = ½ = p(2), então E[X] = 1.(1/2) + 2.(1/2) = 3/2.
Por outro lado, se p(1) = 1/3 e p(2) = 2/3, então E[X] = 1.(1/3) + 2.(2/3) 
= 5/3.
Aula 4
Esperança de uma Variável Aleatória – Caso 
Discreto
� Exemplo 2.15 – Encontre E[X], onde X é a saída de um dado justo.
Como p(1) = p(2) = p(3) = p(4) = p(5) = p(6) = 1/6, então
E[X] = 1(1/6) + 2(1/6) + 3(1/6) + 4(1/6) + 5(1/6) + 6(1/6) = 7/2.
� Exemplo 2.16 – (Esperança de uma variável aleatória de Bernoulli). 
Calcule E[X], onde X é uma variável aleatória de Bernoulli com 
parâmetro p.
Como p(0) = 1 – p, p(1) = p, tem-se que E[X] = 0(1 – p) + 1(p) = p. 
Assim, o número esperado de sucessos em uma única jogada é
simplesmente a probabilidade de que esta jogada obtenha sucesso.
Aula 4
Esperança de uma Variável Aleatória – Caso 
Discreto
� Exemplo 2.17 – (Esperança de uma variável aleatória Binomial) 
Calcule E[X], onde X é binomialmente distribuída com parâmetros n e 
p.
Assim, o número esperado de sucessos em n tentativas independentes é
n vezes a probabilidade de se obter sucesso em uma única tentativa.
k = i – 1
Aula 4
Esperança de uma Variável Aleatória – Caso 
Discreto
� Exemplo 2.18 – (Esperança de uma variável aleatória Geométrica) 
Calcule a esperança de uma variável aleatória geométrica com 
parâmetro p.
Assim, o número esperado de tentativas independentes necessárias para 
obter o primeiro sucesso é igual o recíproco da probabilidade de que 
qualquer tentativa resultaria em sucesso.
q = 1 – p
Aula 4
Esperança de uma Variável Aleatória – Caso 
Discreto
� Exemplo 2.19 (Esperança de uma variável aleatória de Poisson) Calcule 
E[X], onde X é uma variável aleatória de Poisson com parâmetro λ.
k = i – 1
Aula 4
Esperança de uma Variável Aleatória – Caso 
Contínuo
� Se X é uma variável aleatória contínua com função 
densidade de probabilidade f(x), então o valor esperado 
de X é definido como
Aula 4
Esperança de uma Variável Aleatória – Caso 
Contínuo
� Exemplo 2.20 – (Esperança de uma variável aleatória uniforme) 
Calcule a esperança de uma variável aleatória uniformemente 
distribuída sobre (α, β).
Ou seja, o valor esperado de uma variável aleatória 
uniformemente distribuída sobre o intervalo (α, β) é
simplesmente o ponto médio do intervalo
Aula 4
Esperança de uma Variável Aleatória – Caso 
Contínuo
� Exemplo 2.21 (Esperança de uma variável aleatória exponencial) 
Considere X sendo exponencialmente distribuída com parâmetro 
λ. Calcule E[X].
Integrando por partes
Aula 4
Esperança de uma Variável Aleatória – Caso 
Contínuo
� Exemplo 2.22 – (Esperança de uma variável aleatória Normal) 
Calcule E[X] quando X é normalmente distribuída com 
parâmetros µ e σ2.
Aula 4
Esperança de uma Variável Aleatória – Caso 
Contínuo
� Exemplo 2.22 – Continuação.
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Suponha que sejam conhecidas a variável aleatória X e sua 
distribuição de probabilidade (função de probabilidade de 
massa ou função de densidade de probabilidade). Suponha 
que se esteja interessado no cálculo, não do valor esperado 
de X, mas sim no valor esperado de uma função de X, g(X). 
Como fazer?
� Como g(X) também é uma variável aleatória, ela deve ter 
uma distribuição de probabilidade a partir do conhecimento 
da distribuição de X. Uma vez obtida a distribuição de 
g(X), E[g(X)] é calculada por sua definição.
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Exemplo 2.23 – Suponha que X tenha a seguinte função de 
probabilidade de massa: p(0) = 0,2, p(1) = 0,5, p(2) = 0,3. 
Calcule E[X2].
Fazendo Y = X2, tem-se que Y é uma variável aleatória que pode 
assumir os valores 02, 12, 22, com as respectivas probabilidades:
pY(0) = P{Y = 02} = 0,2, pY(1) = P{Y = 12} = 0,5, pY(4) = P{Y = 
22} = 0,3.
Assim, E[X2] = E[Y] = 0(0,2) + 1(0,5) + 4(0,3) = 1,7.
Note que 1,7 = E[X2] ≠ (E[X])2 = 1,21.
Aula 4
Esperança de uma Função de uma Variável 
Aletória
� Exemplo 2.24 – Fazendo X ser uniformementedistribuída sobre (0,1), 
calcule E[X3].
Fazendo Y = X3, calcula-se a distribuição de Y como a seguir. Para 0 ≤ a ≤
1, FY(a) = P{Y ≤ a} = P{X3 ≤ a} = P{X ≤ a1/3} = a1/3.
Isso se justifica, pois X é uniformemente distribuído sobre (0,1). 
Diferenciando FY(a), obtém-se a densidade de Y: 
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Há uma outra maneira de se obter a esperança de uma função de 
uma variável aleatória:
� Proposição 2.1
a) Se X é uma variável aleatória discreta com função de probabilidade 
de massa p(x), então para qualquer função de valor real g, tem-se 
que
b) Se X é uma variável aleatória contínua com função de densidade de 
probabilidade f(x), então para qualquer função de valor real g, tem-
se que
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Exemplo 2.25 – Aplicando a proposição ao Exemplo 2.23, tem-
se que E[X2] = 02(0,2) + (12)(0,5) + (22)(0,3) = 1,7. Mesma 
resposta.
� Exemplo 2.26 – Aplicando a proposição ao Exemplo 2.24, tem-
se que
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� A partir da proposição 2.1 é dado o seguinte corolário:
� Corolário 2.2:
� Se a e b são constantes, então:
1- Prova, caso discreto 2- Prova, caso contínuo 
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� O valor esperado de uma variável aleatória X, E[X], é também chamado de 
média ou o primeiro momento de X. A quantidade E[Xn], n ≥ 1, é chamado 
de n-ésimo momento de X. Pela proposição 2.1 temos que
� Uma outra quantidade de interesse é a variância de uma variável aleatória 
X, chamada de Var(X) e definida por
� Ou seja, a variância de X mede a esperança do quadrado do desvio de X em 
relação ao seu valor esperado.
Aula 4
Esperança de uma Função de uma Variável 
Aletória
� Exemplo 2.27 – (Variância de uma variável aleatória Normal) Fazendo 
X ser normalmente distribuída com parâmetros µ e σ2, encontre Var(X).
Como E[X] = µ, tem-se que Var(X) = E[(X – µ) 2], isto é,
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Suponha que X é contínua com densidade f. Denominando E[X] 
= µ, então
� Para o caso discreto obtém-se
Aula 4
Esperança de uma Função de uma Variável 
Aleatória
� Exemplo 2.28 – Calcule Var(X), onde X representa a saída da 
jogada de um dado justo.
Pelo Exemplo 2.15, E[X] = 7/2. Determina-se:
E[X2] = 1(1/6) + 22(1/6) + 32(1/6) + 42(1/6) + 52(1/6) + 62(1/6) = 
91(1/6). Portanto, 
Var(X) = 91/6 – (7/2)2 = 35/12.
Aula 4
Esperança de uma Variável Aleatória -
Exercícios
39. A variável aleatória X tem a seguinte função de 
probabilidade de massa: p(1) = ½, p(2) = 1/3, p(24) = 1/6. 
Calcule E[X].
40. Suponha que dois times estão jogando uma série de jogos, 
onde cada um é independentemente vencido pelo time A 
com probabilidade p e pelo time B com probabilidade 1 –
p. O vencedor da série é o primeiro time que vencer quatro 
jogos. Encontre o número esperado de jogos que são 
disputados, e avalie esta quantidade quando p = ½.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Até aqui se estava interessado na distribuição de probabilidade de 
uma única variável aleatória. Agora estamos interessados em 
expressões de probabilidade envolvendo duas ou mais variáveis 
aleatórias.
� Para lidar com tais probabilidades, é definida, para quaisquer 
duas variáveis aleatórias X e Y, a função de distribuição de 
probabilidade cumulativa conjunta de X e Y como:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� A distribuição de X pode ser obtida da distribuição 
conjunta de X e Y como
� De forma similar, a função de distribuição cumulativa 
de Y é dado por
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� No caso onde X e Y são ambos variáveis aleatórias 
discretas, é conveniente definir a função de 
probabilidade conjunta de massa de X e Y como
� A função de probabilidade de massa de X e Y podem 
ser obtidas a partir de p(x,y) como
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� É dito que X e Y são conjuntamente contínuo se existir uma 
função f(x,y), definida para todo real x e y, que tenha a 
propriedade tal que para todos os conjuntos A e B de números 
reais, tem-se
� A função f(x,y) é chamada de função de densidade de 
probabilidade conjunta de X e Y.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� A densidade de probabilidade de X pode ser obtida a partir do 
conhecimento de f(x,y) como
� Onde fX(x) é a função de densidade de probabilidade de X e fY(y) é a 
função de densidade de probabilidade de Y:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Uma variação da Proposição 2.1 diz que, se X e Y são 
variáveis aleatórias e g é uma função dessas duas 
variáveis, então
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Por exemplo, se g(X,Y) = X + Y, então, para o caso contínuo, 
temos:
Note que as integrais são avaliadas usando uma variação da 
proposição 2.1: na primeira integral g(x,y) = x e na segunda 
g(x,y) = y.
� O mesmo se obtém para o caso discreto.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Com estes resultados, para quaisquer constantes a e b, 
temos que:
� Distribuições de probabilidade conjunta também 
podem ser definidas para n variáveis aleatórias, e então 
temos:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Exemplo 2.29 – Calcule a soma esperada obtida quando três 
dados justos são jogados.
Considere X como a soma obtida. Então, X = X1 + X2 + X3, onde 
Xi representa o valor do i-ésimo dado. Assim,
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Exemplo 2.30 – A Equação 2.11 também é útil para obter a 
esperança de uma variável aleatória Binomial com parâmetros n 
e p. Recordando que esta variável aleatória X representa o 
número de sucessos em n tentativas, onde cada tentativa tem a 
probabilidade p de ter sucesso, tem-se que X = X1 + X2 + ... + 
Xn, onde
Portanto, Xi é uma variável aleatória de Bernoulli com esperança 
E[Xi] = 1(p) + 0(1 – p) = p. Assim,
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Exemplo 2.31 – Em uma festa, N homens jogaram seus chapéus no meio de 
uma sala. Os chapéus foram misturados e cada homem aleatoriamente 
selecionou um. Encontre o número esperado de homens que selecionaram seus 
próprios chapéus.
Fazendo X como o número de homens que selecionaram seus próprios chapéus, 
E[X] pode ser calculado observando que X = X1 + ... + XN, onde
Como o i-ésimo homem é igualmente provável de selecionar qualquer um dos 
N chapéus, segue que
P{Xi = 1} = P{i-ésimo homem selecione o próprio chapéu} = 1/N, então E[Xi] 
= 1P{Xi = 1} + 0P{Xi = 0} = 1/N. Portanto,
Ou seja, não importa quantas pessoas estão na festa, na média exatamente 1 
homem irá selecionar seu próprio chapéu.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Funções de Distribuição Conjunta
� Exemplo 2.32 – Suponha que existam 25 tipos diferentes de bilhete e suponha 
que a cada vez que alguém obtém um bilhete é igualmente provável que seja 
qualquer um dos 25 tipos. Calcule o número esperado de diferentes tipos que 
estão contidos em um conjunto de 10 bilhetes.
Solução: Considere X como o número de diferentes tipos em um conjunto de 10 
bilhetes. Calcula-se E[X] usando a representaçãoX = X1 + ... + X25, onde
Assim,
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Variáveis Aleatórias Independentes
� As variáveis aleatórias X e Y são ditas independentes se para todo a 
e b
� Ou seja, X e Y são independentes, se para todo a e b os eventos Ea= {X ≤ a} e Fb= {Y ≤ b} forem independentes
� Em termos da função de distribuição conjunta F de X e Y, temos 
que X e Y são independentes se
� Quando X e Y são discretos a condição de independência se reduz a:
� Enquanto que se X e Y são conjuntamente contínuas a condição 
será:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Variáveis Aleatórias Independentes
� Para provar as expressões dadas, vamos considerar primeiro o 
caso discreto e supor que a equação 2.13 é satisfeita
e então X e Y são independentes.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Variáveis Aleatórias Independentes
� Proposição 2.3
� Se X e Y são independentes, então para quaisquer funções h 
e g, tem-se que:
� Prova para o caso contínuo (caso discreto é similar):
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� A covariância de duas variáveis aleatórias X e Y, 
denominada por Cov(X,Y), é definida por
� Note que se X e Y são independentes, então Cov(X,Y) 
= 0.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� Considere o caso especial onde X e Y são variáveis indicadoras para a ocorrência ou 
não dos eventos A e B, ou seja:
� Então:
� E como XY pode ser igual a 1 ou a 0, então:
� E assim:
� Isto é, a covariância de X e Y é positiva se a saída X = 1 faça Y = 1 ser mais 
provável.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� Pode-se mostrar que um valor positivo de Cov(X,Y) é uma 
indicação de que Y tende a crescer quando X cresce; e Cov(X,Y) 
negativo indica que Y tende a diminuir quando X cresce.
� Propriedades da Covariância: para quaisquer variáveis aleatórias 
X, Y, Z e constante c, tem-se que:
1. Cov(X,X) = Var(X);
2. Cov(X,Y) = Cov(Y,X);
3. Cov(cX,Y) = cCov(X,Y);
4. Cov(X,Y+Z) = Cov(X,Y) + Cov(X,Z).
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� A última propriedade pode ser provada como:
� Esta propriedade permite a seguinte generalização:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� A partir da equação 2.15, pode se encontrar uma expressão para a variância de 
soma de variáveis aleatórias:
� Se Xi, i = 1, ..., n, são variáveis aleatórias independentes, então a equação 2.16 
se reduz a
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� Definição 2.1
� Se X1, ..., Xn são independentes e identicamente distribuídas 
(iid), então a variável aleatória é chamada de 
média amostral.
� Proposição 2.4
� Supondo que X1, ..., Xn são independentes e identicamente 
distribuídas, então
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� Prova (a):
� Prova (b):
� Prova (c):
onde é usado o fato que são independentes e tem covariância 0.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� Exemplo 2.33 (Variância de uma variável aleatória Binomial) Calcule a 
variância de uma variável aleatória Binomial X, com parâmetros n e p.
Solução: Como a variável aleatória representa o número de sucessos em 
n independentes tentativas, onde cada tentativa tem a probabilidade 
comum p de se obter sucesso, então X = X1 + ... Xn, onde Xi são 
variáveis aleatórias independentes de Bernoulli, tal que
Da Equação 2.16 se obtém: Var(X) = Var(X1) + ... + Var(Xn). 
Entretanto
E então Var(X) = np(1 – p).
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Covariância e Variância de Somas de Variáveis 
Aleatórias
� O conceito de independência pode ser definido para 
mais que duas variáveis aleatórias. Em geral, as n 
variáveis aleatórias X1, ..., Xn são ditas independentes 
se, para todos os valores a1,...,an, tem-se:
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Distribuição de Probabilidade Conjunta de Funções de 
Variáveis Aleatórias
� O Tópico 2.5.4: Distribuição de Probabilidade Conjunta de 
Funções de Variáveis Aleatórias, fica como leitura.
Aula 5
Variáveis Aleatórias Conjuntamente Distribuídas –
Exercícios
54. Considere X e Y como variáveis que podem assumir os valores 1 
ou -1. Considere
p(1, 1) = P{X = 1, Y = 1},
p(1, -1) = P{X = 1, Y = -1},
p(-1, 1) = P{X = -1, Y = 1},
p(-1, -1) = P{X = -1, Y = -1}
Suponha que E[X] = E[Y] = 0. Mostre que
a) p(1, 1) = p(-1, -1);
b) p(1, -1) = p(-1,1);
Considere p = 2p(1, 1). Encontre
c) Var(X);
d) Var(Y);
e) Cov(X, Y).
Aula 6
Funções Geradoras de Momentos
� O Tópico 2.6 – Funções geradoras de momento 
fica como leitura.
Aula 6
Funções Geradoras de Momentos
Aula 6
Funções Geradoras de Momentos
Aula 7
Teoremas de Limite – Desigualdade de 
Markov
� Proposição 2.6:
� Se X é uma variável aleatória que é tomada somente para valores 
não negativos, então para qualquer valor a > 0:
� Prova, para X contínuo:
Aula 7
Teoremas de Limite – Desigualdade de 
Chebyshev
� Proposição 2.7
� Se X é uma variável aleatória com média µ e variância σ2, então 
para qualquer valor k>0
� Prova: como (X – µ)2 é uma variável aleatória não-negativa, pode-
se aplicar a desigualdade de Markov com a = k2 e obter:
Como (X – µ)2 ≥ k2 se, e somente se, |X – µ| ≥ k, então:
Aula 7
Teoremas de Limite
� A importância das desigualdades de Markov e 
Chebyshev é que elas permitem obter os limites nas 
probabilidades quando somente a média ou a média e a 
variância são conhecidas em uma distribuição de 
probabilidade.
� É claro que se a distribuição for conhecida, as 
probabilidades desejadas podem ser calculadas de 
forma exata e não é necessário se utilizar de valores de 
limites.
Aula 7
Teoremas de Limite
� Exemplo 2.49 – Suponha que o número de itens produzidos em uma fábrica 
em uma semana seja uma variável aleatória com média 500.
(a) O que pode ser dito sobre a probabilidade que a produção desta semana 
será no mínimo 1000?
(b) Se a variância da produção semanal é igual a 100, então o que pode ser 
dito sobre a probabilidade de que a produção desta semana estará entre 400 
e 600?
Solução: Considere X como o número de itens produzidos em uma semana.
(a) Pela desigualdade de Markov:
(b) Pela desigualdade de Chebyshev:
Aula 7
Teoremas de Limite – Lei Forte dos Grandes 
Números
� Teorema 2.1 (Strong Law of Large Numbers):
� Considere X1, X2, ... como uma sequência de variáveis aleatórias 
independentes com a mesma distribuição e considere E[Xi] = µ. Então, 
com probabilidade igual a 1, temos:
� Exemplo: Considere E como um evento fixo e P(E) a probabilidade de 
ocorrência de E em uma certa tentativa. Assim,
� Pela lei forte dos grandes números, com probabilidade = 1, temos que 
(Eq. 2.24):
� Como X1 + ... + Xn representa o número de vezes que o evento E 
ocorre nas primeiras n tentativas, a Equação 2.24 diz, com 
probabilidade 1, que a proporção limitante de vezes que o evento E 
ocorre é justamente P(E).
Aula 7
Teoremas de Limite
� A partir da lei forte dos grandes números é obtido o 
teorema do limite central.
� Este teorema é importante porque fornece um métodoaproximado de calcular a probabilidade da soma de 
variáveis aleatórias independentes.
� Ele também explica o fato de que as frequências empíricas 
de muitas populações naturais exibem uma curva normal.
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Teorema 2.2:
�Considere X1, X2, ... como uma sequência de variáveis 
aleatórias independentes e identicamente distribuídas, cada uma 
com média µ e variância σ2. Então a distribuição de
Tende a uma normal padrão quando n →∞. Isto é, quando n →
∞, tem-se que:
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Note que esse teorema se aplica a qualquer distribuição de Xi.
� Se X é binomialmente distribuído com parâmetros n e p, então X 
tem a mesma distribuição da soma de n variáveis aleatórias 
independentes de Bernoulli, cada qual com parâmetro p (Bernoulli é
a binomial quando n é igual a 1). Assim, a distribuição de:
se aproxima da distribuição normal quando n se aproxima de ∞. Na 
verdade, uma boa aproximação se dá a partir de valores quando np(1 
– p) ≥ 10.
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Exemplo 2.50 (Aproximação Normal para uma Binomial) Considere X 
como o número de vezes que uma moeda justa, jogada 40 vezes, deu cara. 
Encontre a probabilidade de que X = 20. Use a aproximação e então 
compare com a solução exata.
Solução: Como a binomial é uma variável aleatória discreta e a normal é
uma variável aleatória contínua, uma melhor aproximação para a 
probabilidade desejada seria:
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Ex. 2.50 (Continuação) Por simetria da distribuição normal padrão, 
tem-se que:
onde N(0,1) é variável aleatória normal padrão. Assim, a probabilidade 
desejada é aproximada por
O resultado exato é 0,1268, pois:
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Exemplo 2.51 Considere Xi, i = 1, 2, ..., 10 como variáveis 
aleatórias independentes uniformemente distribuídas sobre (0,1). 
Estime
Como E[Xi] = ½, Var(Xi) = 1/12, tem-se pelo teorema do limite 
central que
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Exemplo 2.52 – O tempo de vida de um tipo especial de bateria é uma 
variável aleatória com média de 40 h e desvio padrão de 20 h. A bateria 
é usada até ela parar de funcionar, quando então é reposta por uma 
nova. Assumindo um estoque de 25 baterias e que os tempos de vida 
são independentes, aproxime a probabilidade de que 1100 horas de uso 
podem ser obtidas.
Solução: Considere Xi o tempo de vida da i-ésima bateria a ser colocada 
em uso. Assim, deseja-se encontrar p = P{X1 + ... + X25 > 1100}, que 
pode ser aproximada como
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
� Prova heurística do teorema do limite central, 
página 82: leitura do aluno.
Aula 7
Teoremas de Limite – Teorema do Limite 
Central
68. Considere X1, X2, ..., X10 como variáveis aleatórias independentes 
de Poisson com média 1.
i) Use a desigualdade de Markov para obter um limite de P{X1 + ... + 
X10 ≥ 15}.
ii) Use o teorema do limite central para aproximar P{X1 + ... + X10 ≥
15}.
Aula 8
Processos Estocásticos
� Um processo estocástico {X(t), t∈T} é uma coleção de 
variáveis aleatórias, ou seja, para cada t∈T, X(t) é uma 
variável aleatória.
� O índice t pode ser interpretado como tempo e então 
X(t) é referido como o estado do processo no tempo t.
� Exemplos: X(t) pode ser igual ao número total de 
clientes que entraram em um supermercado no tempo t; 
ou o número total de vendas feitas em uma loja no 
tempo t, assim por diante.
Aula 8
Processos Estocásticos
� O conjunto T é chamado de conjunto indicador dos 
processos.
� Quando T é um conjunto contável o processo 
estocástico é dito ser um processo de tempo discreto.
� Se T é um intervalo de fila real, o processo estocástico 
é dito ser processo de tempo contínuo.
Aula 8
Processos Estocásticos
� Por exemplo, {Xn, n = 0,1,...} é um processo estocástico de 
tempo discreto indexado por inteiros não-negativos; enquanto 
{X(t), t ≥ 0} é um processo estocástico de tempo contínuo 
indexado por números reais não-negativos.
� O espaço de estados de um processo estocástico é definido como 
o conjunto de todos os possíveis valores que as variáveis 
aleatórias podem assumir.
� Assim, um processo estocástico é uma família de variáveis 
aleatórias que descrevem a evolução no tempo de alguns 
processos (físicos).
Aula 8
Processos Estocásticos
� Exemplo 2.53 – Considere uma partícula que se move ao longo de um 
conjunto de m + 1 nós, rotulados 0, 1, ..., m que estão arranjados de 
forma circular. A cada passo, a partícula é igualmente provável de se 
mover uma posição no sentido horário ou no sentido anti-horário. Ou 
seja, se Xn é a posição da partícula depois do n-ésimo passo, então
onde i + 1 = 0, quando i = m, e i – 1 = m, quando i = 0. Suponha que a 
partícula começa em 0 e continue a se mover de acordo com as regras 
precedentes até que todos os nós 1, 2, ..., m tenham sido visitados. Qual 
é a probabilidade de que o nó i, i = 1, 2, ..., m, tenha sido o último a ser 
visitado?
Aula 8
Processos Estocásticos
� Ex. 2.54 (Continuação) Essa probabilidade pode ser calculada sem nenhum 
cálculo. Para isso, considere a primeira vez que a partícula está em um dos dois 
vizinho do nó i, isto é, a primeira vez que a partícula está em um dos nós i – 1 
ou i + 1 (com m + 1 = 0). Suponha que ela esteja no nó i – 1 (o argumento na 
situação alternativa é idêntica). Como nenhum dos nós i ou i + 1 foi ainda 
visitado, segue que i será o último nó visitado se, e somente se, i + 1 for 
visitado antes de i. Isto se deve porque para visitar i + 1 antes de i, a partícula 
terá que visitar todos os nós no sentido anti-horário de i – 1 a i + 1 antes dela 
visitar i. Entretanto, a probabilidade de que a partícula no nó i – 1 irá visitar i + 
1 antes de i, é justamente a probabilidade de que a partícula executará m – 1 
passos em uma direção específica antes de prosseguir um passo na outra 
direção. Ou seja, isto é igual à probabilidade de um apostador, que começa com 
uma unidade e vence uma quando uma moeda justa dá cara e perde quando ela 
dá coroa, irá ter sua fortuna crescer m – 1 antes dele perder tudo. Assim, como a 
probabilidade de que o nó i seja o último nó visitado é o mesmo para todo i, e 
como a soma das probabilidades deve ser 1, então
Aula 8
Processos Estocásticos
� Observação – O argumento usado no Exemplo 2.53 também 
mostra que um jogador, que é igualmente provável de perder ou 
ganhar uma unidade em uma jogada, descerá a n antes de chegar 
a 1 com probabilidade 1/(n + 1), o que é equivalente a
Suponha agora que se quer a probabilidade de que o jogador 
chega a 2 antes de baixar a n. Com a condição de que ele alcance 
1 antes de descer a n, obtém-se que
Generalizando:

Outros materiais