Buscar

Cadeias de Markov

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1)
Uma cadeia de Markov em tempo continuo e, como a designação indica uma cadeia de Markov em que a variável tempo é continua, representando instantes ou momentos de tempo (e não períodos de tempo, como para as cadeias em tempo discreto). Assim, uma cadeia de Markov em tempo continuo é um processo estocástico {X(t), t >= 0} com a propriedade de Markov, ou seja, a propriedade de estar no estado j num momento futuro depende apenas do estado presente e não dos estados visitados em qualquer momento passado. A partir deste cenário, avalie o seguinte gráfico e as proposições a seguir:
Continuos
I.O processo exibido pelo gráfico satisfaz a propriedade de Markov;
II.A probabilidade de 2 ou mais mudanças de estado acontecerem num certo intervalo de tempo  pequeno é zero;
III. O processo exibido no gráfico não é um processo estacionário.
Assinale a alternativa correta.
Alternativas:
	a)
I, apenas.
	b)
I e II, apenas.
Alternativa assinalada
	c)
I e III, apenas.
	d)
II e III, apenas.
	e)
I, II e III, apenas. 
2)
Uma cadeia de Markov é uma sequência X1, X2, X3, ... de variáveis aleatórias. O escopo destas variáveis, isto é, o conjunto de valores que elas podem assumir, é chamado de espaço de estados, onde Xn denota o estado do processo no tempo n. Se a distribuição de probabilidade condicional de Xn+1 nos estados passados é uma função apenas de Xn, então: 
P r left parenthesis X subscript n plus 1 end subscript equals right enclose x X subscript o comma end subscript X subscript 1 comma end subscript X subscript 2 comma end subscript........ comma X subscript n right parenthesis equals P r left parenthesis X subscript n plus 1 end subscript equals right enclose x X n right parenthesis, onde x é algum estado do processo. A identidade acima define a propriedade de Markov. Portanto, um processo de mudança de um estado, para outro, é chamado de cadeias de Markov.  Um exemplo, pode ser visto na seguinte  matriz de transição:
 
A partir deste contexto, avalie as seguintes afirmações:
 
I.Nesta matriz, nota-se que p32 é a probabilidade que o sistema vai mudar do estado 2 ao estado 3;
II.p11 é a probabilidade que o sistema vai continuar no estado 1 imediatamente depois de ter sido observado no estado 1;
III.No exemplo apresentado pela figura, observamos uma matriz de transições de dois estados.
Assinale a alternativa que apresenta apenas as afirmativas corretas.
Alternativas:
	a)
I.
	b)
I e II.
Alternativa assinalada
	c)
I e III. 
	d)
II e III.
	e)
I, II e III. 
3)
Avalie a seguinte figura:
Markov
Nesta figura apresenta-se a idéia fundamental do algoritmo que capta a popularidade de sites da internte. Para facilitar a exposição, considerou-se que a internet é composta somente de 4 sites. A partir deste cenário e dos seus conhecimento sobre as Cadeias de Markov, avalie as seguintes afirmações assinalando (V) para afirmações verdadeiras e (F) para afirmações falsas.
 
(   ) A partir de uma análise inicial dos dados apresentados pela figura, é possível afirmar que o site 3 é o site mais popular, pois teria o maior número de sites (transições) apontando para ele;
(   ) Nesse experimento, observamos uma matriz de transições de dois estados;
(   ) Os sites 1 e 3 são os sites com maior popularidade;
(   ) Os sites 2 e 4 são os sites com menor popularidade.
 Assinale a alternativa com a sequência correta.
Alternativas:
	a)
F, V, V, V.
	b)
V, F V, V. 
Alternativa assinalada
	c)
V, V, F, V.
	d)
V, V, V, F.
	e)
F, F, V, V.
4)
Uma Cadeia de Markvo é um processo estocástico especial pelo fato de gozar a propriedade Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. Essa propriedade afirma que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Deste modo, P space left parenthesis X subscript t space plus space 1 space vertical line space X subscript 0 comma space space end subscript X subscript 1 comma space... comma space end subscript X subscript n right parenthesis space equals space P space left parenthesis X subscript t space plus space 1 space vertical line space X subscript n right parenthesis. Como exemplo de cadeias de Markov, podemos pensar em jogos de tabuleiro os quais a posição do jogador depende apenas do sorteio de um dado. Neste caso, a posição resultante do jogador na jogada seguinte, dependerá apenas de sua posição atual e do número sorteado no dado, e não dependerá de como o jogo correu até a presente posição do jogador. Em contraste, jogos de baralho em que é possível saber quais cartas já foram sorteadas não são exemplos de cadeias de Markov, uma vez que a memória das cartas já retiradas influência nas possíveis cartas a serem sorteadas. A partir desta conceitualização e dos seus conhecimentos sobre Cadeias de Markov, avalie as seguintes asserções:
 
I. Uma cadeia de Markov é um caso particular de processo estocástico com estados discretos,
PORQUE
II. O parâmetro t pode assumir apenas valores em conjuntos discretos.
Assinale a alternativa correta.
Alternativas:
	a)
As asserções I e II são proposições verdadeiras, e a II é uma justificativa da I.
	b)
As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa da I. 
	c)
A asserção I é uma proposição verdadeira, e a II é uma proposição falsa. 
Alternativa assinalada
	d)
A asserção I é uma proposição falsa, e a II é uma proposição verdadeira. 
	e)
As asserções I e II são proposições falsas.

Outros materiais