Buscar

U3S2 Atividade de Aprendizagem

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

18/11/2018 U3S2 - Atividade de Aprendizagem
https://avaeduc.com.br/mod/quiz/review.php?attempt=29494990 2/4
Questão 1
Correto
Atingiu 1,00 de 1,00
Para especificar uma Cadeia de Markov em tempo discreto, define-se: (i) o espaço de estados   __________; (ii)
a probabilidade do estado inicial__________ para  pertencente ; e (iii) as probabilidades de transições nos
instantes 1, 2, ...K.__________, onde  é o estado atual e  é o próximo estado. 
 
Os conceitos a seguir preenchem corretamente as lacunas acima:
 
1
2.
3. Finito ou enumerável 
A partir deste contexto, assinale a opção que apresenta a sequência correta do preenchimento dos conceitos
em suas respectivas lacunas. 
Escolha uma:
a. 1 - 3 - 2. 
b. 2 - 3 - 1.
c. 3 - 1 - 2.  
d. 1 - 2 - 3.
e. 3 - 2 - 1. 
[ 1 ] IR PARA O CONTEÚDO [ 2 ] IR PARA O MENU SOBRE A ACESSIBILIDADE ALTO-CONTRASTE AUMENTAR FONTE DIMINUIR FONTE
18/11/2018 U3S2 - Atividade de Aprendizagem
https://avaeduc.com.br/mod/quiz/review.php?attempt=29494990 3/4
Questão 2
Correto
Atingiu 1,00 de 1,00
Uma cadeia de Markov é definida em função de estados, de modo que o estado futuro depende apenas do
estado atual. O caminho percorrido de um dado estado qualquer  para um outro estado  é composto por
uma sequência de transições, que já sabemos que possuem probabilidades associadas. Além disso, não existe
um limite de transições que podem ocorrer para o sistema passar do estado     para o estado    , e o caminho
também não precisa ser o mais curto, ou seja, ter o menor número de transições entre os dois estados. Mas,
também, é importante mencionar que o estado    somente poderá ser atingido a partir de    caso exista um
caminho entre eles. Portanto, em primeiro lugar, dizemos que dois estados são comunicantes quando temos
a seguinte condição: o estado    é atingível a partir de    e    também deve ser atingível a partir do estado   
(Karlin; Taylor, 1998). A partir dessa classificação inicial, avalie as seguintes asserções:
 
I. A cadeia de Markov será irredutível se e  somente se todos os estados que formam a cadeia forem
comunicantes.
PORQUE
II. Caso isso não possa ser garantido, dizemos que a cadeia de Markov é redutível.
Assinale a alternativa correta.
Escolha uma:
a. As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa da I.  
b. As asserções I e II são proposições verdadeiras, e a II é uma justificativa da I.
c. A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.
d. A asserção I é uma proposição falsa, e a II é uma proposição verdadeira.
e. As asserções I e II são proposições falsas.
[ 1 ] IR PARA O CONTEÚDO [ 2 ] IR PARA O MENU SOBRE A ACESSIBILIDADE ALTO-CONTRASTE AUMENTAR FONTE DIMINUIR FONTE
18/11/2018 U3S2 - Atividade de Aprendizagem
https://avaeduc.com.br/mod/quiz/review.php?attempt=29494990 4/4
Questão 3
Correto
Atingiu 1,00 de 1,00
Uma Cadeia de Markvo é um processo estocástico especial pelo fato de gozar a propriedade Markoviana,
chamada assim em homenagem ao matemático Andrei Andreyevich Markov. Essa propriedade afirma que os
estados anteriores são irrelevantes para a predição dos estados seguintes, desde que o estado atual seja
conhecido. Deste modo,    Como exemplo de cadeias de
Markov, podemos pensar em jogos de tabuleiro os quais a posição do jogador depende apenas do sorteio de
um dado. Neste caso, a posição resultante do jogador na jogada seguinte, dependerá apenas de sua posição
atual e do número sorteado no dado, e não dependerá de como o jogo correu até a presente posição do
jogador. Em contraste, jogos de baralho em que é possível saber quais cartas já foram sorteadas não são
exemplos de cadeias de Markov, uma vez que a memória das cartas já retiradas influência nas possíveis cartas
a serem sorteadas. A partir desta conceitualização e dos seus conhecimentos sobre Cadeias de Markov, avalie
as seguintes asserções:
 
I. Uma cadeia de Markov é um caso particular de processo estocástico com estados discretos,
PORQUE
II. O parâmetro t pode assumir apenas valores em conjuntos discretos.
Assinale a alternativa correta.
Escolha uma:
a. As asserções I e II são proposições falsas. 
b. A asserção I é uma proposição verdadeira, e a II é uma proposição falsa.  
c. As asserções I e II são proposições verdadeiras, mas a II não é uma justificativa da I. 
d. A asserção I é uma proposição falsa, e a II é uma proposição verdadeira. 
e. As asserções I e II são proposições verdadeiras, e a II é uma justificativa da I.
MINHAS ANOTAÇÕES
Adicionar nota:
Título
Criar uma nova nota
Defina a prioridade da sua anotação:
ADICIONAR NOTA
Alta Média Baixa Não priorizada
[ 1 ] IR PARA O CONTEÚDO [ 2 ] IR PARA O MENU SOBRE A ACESSIBILIDADE ALTO-CONTRASTE AUMENTAR FONTE DIMINUIR FONTE

Continue navegando