Baixe o app para aproveitar ainda mais
Prévia do material em texto
1) Uma cadeia de Markov em tempo continuo e, como a designação indica uma cadeia de Markov em que a variável tempo é continua, representando instantes ou momentos de tempo (e não períodos de tempo, como para as cadeias em tempo discreto). Assim, uma cadeia de Markov em tempo continuo é um processo estocástico {X(t), t >= 0} com a propriedade de Markov, ou seja, a propriedade de estar no estado j num momento futuro depende apenas do estado presente e não dos estados visitados em qualquer momento passado. A partir deste cenário, avalie o seguinte gráfico e as proposições a seguir: Continuos I.O processo exibido pelo gráfico satisfaz a propriedade de Markov; II.A probabilidade de 2 ou mais mudanças de estado acontecerem num certo intervalo de tempo pequeno é zero; III. O processo exibido no gráfico não é um processo estacionário. Assinale a alternativa correta. Alternativas: a) I, apenas. b) I e II, apenas. Alternativa assinalada c) I e III, apenas. d) II e III, apenas. e) I, II e III, apenas. 2) Uma cadeia de Markov é uma sequência X1, X2, X3, ... de variáveis aleatórias. O escopo destas variáveis, isto é, o conjunto de valores que elas podem assumir, é chamado de espaço de estados, onde Xn denota o estado do processo no tempo n. Se a distribuição de probabilidade condicional de Xn+1 nos estados passados é uma função apenas de Xn, então: P r left parenthesis X subscript n plus 1 end subscript equals right enclose x X subscript o comma end subscript X subscript 1 comma end subscript X subscript 2 comma end subscript........ comma X subscript n right parenthesis equals P r left parenthesis X subscript n plus 1 end subscript equals right enclose x X n right parenthesis, onde x é algum estado do processo. A identidade acima define a propriedade de Markov. Portanto, um processo de mudança de um estado, para outro, é chamado de cadeias de Markov. Um exemplo, pode ser visto na seguinte matriz de transição: A partir deste contexto, avalie as seguintes afirmações: I.Nesta matriz, nota-se que p32 é a probabilidade que o sistema vai mudar do estado 2 ao estado 3; II.p11 é a probabilidade que o sistema vai continuar no estado 1 imediatamente depois de ter sido observado no estado 1; III.No exemplo apresentado pela figura, observamos uma matriz de transições de dois estados. Assinale a alternativa que apresenta apenas as afirmativas corretas. Alternativas: a) I. b) I e II. Alternativa assinalada c) I e III. d) II e III. e) I, II e III. 3) Avalie a seguinte figura: Markov Nesta figura apresenta-se a idéia fundamental do algoritmo que capta a popularidade de sites da internte. Para facilitar a exposição, considerou-se que a internet é composta somente de 4 sites. A partir deste cenário e dos seus conhecimento sobre as Cadeias de Markov, avalie as seguintes afirmações assinalando (V) para afirmações verdadeiras e (F) para afirmações falsas. ( ) A partir de uma análise inicial dos dados apresentados pela figura, é possível afirmar que o site 3 é o site mais popular, pois teria o maior número de sites (transições) apontando para ele; ( ) Nesse experimento, observamos uma matriz de transições de dois estados; ( ) Os sites 1 e 3 são os sites com maior popularidade; ( ) Os sites 2 e 4 são os sites com menor popularidade. Assinale a alternativa com a sequência correta. Alternativas: a) F, V, V, V. b) V, F V, V. Alternativa assinalada c) V, V, F, V. d) V, V, V, F. e) F, F, V, V. 4) Uma Cadeia de Markvo é um processo estocástico especial pelo fato de gozar a propriedade Markoviana, chamada assim em homenagem ao matemático Andrei Andreyevich Markov. Essa propriedade afirma que os estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja conhecido. Deste modo, P space left parenthesis X subscript t space plus space 1 space vertical line space X subscript 0 comma space space end subscript X subscript 1 comma space... comma space end subscript X subscript n right parenthesis space equals space P space left parenthesis X subscript t space plus space 1 space vertical line space X subscript n right parenthesis. Como exemplo de cadeias de Markov, podemos pensar em jogos de tabuleiro os quais a posição do jogador depende apenas do sorteio de um dado. Neste caso, a posição resultante do jogador na jogada seguinte, dependerá apenas de sua posição atual e do número sorteado no dado, e não dependerá de como o jogo correu até a presente posição do jogador. Em contraste, jogos de baralho em que é possível saber quais cartas já foram sorteadas não são exemplos de cadeias de Markov, uma vez que a memória das cartas já retiradas influência nas possíveis cartas a serem sorteadas. A partir desta conceitualização e dos seus conhecimentos sobre Cadeias de Markov, avalie as seguintes asserções: I. Uma cadeia de Markov é um caso particular de processo estocástico com estados discretos, PORQUE II. O parâmetro t pode assumir apenas valores em conjuntos discretos. Assinale a alternativa correta. Alternativas: a) As asserções I e II são proposições verdadeiras, e a II é uma justificativa da I. b) As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa da I. c) A asserção I é uma proposição verdadeira, e a II é uma proposição falsa. Alternativa assinalada d) A asserção I é uma proposição falsa, e a II é uma proposição verdadeira. e) As asserções I e II são proposições falsas.
Compartilhar