Buscar

Teste de Conhecimento sobre Cadeias de Markov

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 1/4
Teste de
Conhecimento
 avalie sua aprendizagem
Assinale a ÚNICA alternativa correta:
SIMULAÇÃO DA PRODUÇÃO E TEORIA DAS FILAS
Lupa Calc.
 
 
CCE1325_A2_202003164879_V1 
 
Aluno: RONALDO DE SOUSA GOMES Matr.: 202003164879
Disc.: SIM.P.T.DAS FILAS 2022.1 EAD (GT) / EX
 
Prezado (a) Aluno(a),
Você fará agora seu TESTE DE CONHECIMENTO! Lembre-se que este exercício é opcional,
mas não valerá ponto para sua avaliação. O mesmo será composto de questões de múltipla
escolha.
Após responde cada questão, você terá acesso ao gabarito comentado e/ou à explicação da
mesma. Aproveite para se familiarizar com este modelo de questões que será usado na sua
AV e AVS.
 
1.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende do
estado anterior (Xk-1), mas somente dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) não depende nem do
estado anterior (Xk-1), nem dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende somente do
estado anterior (Xk-1), mas não depende dos estados anteriores.
Em um processo markoviano, a probabilidade do estado atual (Xk) depende de todos
os estados anteriores.
Nenhuma das alternativas anteriores.
 
 
 
Explicação:
Como indicado na própria definição de processo markoviano, "a probabilidade do estado atual
(Xk) depende somente do estado anterior (Xk-1), mas não depende dos estados anteriores".
 
javascript:voltar();
javascript:voltar();
javascript:diminui();
javascript:aumenta();
javascript:calculadora_on();
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 2/4
Assinale o nome recebido por um processo markoviano em que o espaço de estados é
discreto:
Assinale a alternativa que apresenta o estado estacionário associado à matriz de transição P
dada por 
 
 
 
2.
cadeia discreta
cadeia de estados
nenhuma das alternativas anteriores
processo discreto
cadeia de Markov
 
 
 
Explicação:
Quando o conjunto ¿ ou espaço de estados ¿ é discreto , o processo markoviano recebe uma
denominação especial: cadeia de Markov.
 
 
 
 
3.
nenhuma das alternativas anteriores
 
 
 
Explicação:
Ref.: Utilize o site octave-online.net e insira os seguintes comandos:
P = [0.3, 0.2, 0.5; 0.1, 0.4, 0.4; 0.6, 0.4, 0.1]
P^100
 
 
⎛
⎜
⎝
0.3 0.2 0.5
0.1 0.4 0.4
0.6 0.4 0.1
⎞
⎟
⎠
⎛
⎜
⎝
0.30 0.30 0.30
0.30 0.30 0.30
0.40 0.40 0.40
⎞
⎟
⎠
⎛
⎜
⎝
0.34 0.34 0.34
0.30 0.30 0.30
0.36 0.36 0.36
⎞
⎟
⎠
⎛
⎜
⎝
0.20 0.20 0.20
0.30 0.30 0.30
0.50 0.50 0.50
⎞
⎟
⎠
⎛
⎜
⎝
0.37 0.37 0.37
0.30 0.30 0.30
0.33 0.33 0.33
⎞
⎟
⎠
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 3/4
Uma Cadeia de Markov ou sua matriz de transição P em que existe uma potência inteira
positiva n tal que Pn tenha todas as entradas positivas é dita:
Considere a matriz P dada por:
Assinale a alternativa que expressa P2:
 
 
 
4.
positiva
aumentada
nenhuma das alternativas anteriores
expandida
regular
 
 
 
Explicação:
Uma Cadeia de Markov ou sua matriz de transição P é dita ser regular se existir uma potência
inteira positiva n tal que Pn tenha todas as entradas positivas
 
 
 
 
5.
nenhuma das alternativas anteriores
 
 
 
Explicação:
Ref.: Realize a operação com apoio da ferramenta online disponível em matrixcalc.org, acesso
em 09 DEZ 19
⎛
⎜
⎝
0.3 0.2 0.5
0.1 0.4 0.4
0.2 0.2 0.6
⎞
⎟
⎠
⎛
⎜
⎝
0.17 0.24 0.53
0.15 0.26 0.45
0.20 0.24 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.26 0.45
0.20 0.24 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.26 0.45
0.20 0.20 0.54
⎞
⎟
⎠
⎛
⎜
⎝
0.21 0.24 0.53
0.15 0.23 0.45
0.20 0.24 0.54
⎞
⎟
⎠
30/03/2022 22:57 Estácio: Alunos
https://simulado.estacio.br/alunos/ 4/4
Considere uma cadeia de Markov com estados 1, 2, ..., N. Assim, p12 representa: 
 
 
 
 
6.
Nenhuma das alternativas anteriores
O quadrado da probabilidade estacionária do estado 1.
O quadrado da probabilidade estacionária do estado 2.
A probabilidade de transição do estado 1 para o estado 2.
A probabilidade de transição do estado 2 para o estado 1.
 
 
 
Explicação:
Em uma cadeia de Markov com estados 1, 2, ..., N, pij representa a probabilidade de transição
do estado i para o estado j. 
 
 
 
 
 
 
 
 Não Respondida Não Gravada Gravada
 
 
Exercício inciado em 30/03/2022 22:47:59. 
 
 
 
 
javascript:abre_colabore('35904','279374904','5174558471');

Continue navegando