Buscar

SIMULAÇÃO DA PRODUÇÃO E TEORIA DAS FILAS A2 V5

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

SIMULAÇÃO DA PRODUÇÃO E TEORIA DAS FILAS 
2a aula V5 Lupa 
 
 
 
 
1 
 Questão 
 
 
Assinale a ÚNICA alternativa correta: 
 
 
Nenhuma das alternativas anteriores. 
 
Em um processo markoviano, a probabilidade do estado atual (Xk) 
depende de todos os estados anteriores. 
 
Em um processo markoviano, a probabilidade do estado atual (Xk) 
não depende do estado anterior (Xk-1), mas somente dos estados 
anteriores. 
 Em um processo markoviano, a probabilidade do estado atual (Xk) 
depende somente do estado anterior (Xk-1), mas não depende dos 
estados anteriores. 
 
Em um processo markoviano, a probabilidade do estado atual (Xk) 
não depende nem do estado anterior (Xk-1), nem dos estados 
anteriores. 
Respondido em 02/06/2021 14:35:21 
Explicação: Como indicado na própria definição de processo markoviano, 
"a probabilidade do estado atual (Xk) depende somente do estado anterior 
(Xk-1), mas não depende dos estados anteriores". 
2 
 Questão 
 
 
Assinale o nome recebido por um processo markoviano em que o espaço 
de estados é discreto: 
 
 
cadeia de estados 
 
cadeia discreta 
 
nenhuma das alternativas anteriores 
 cadeia de Markov 
 
processo discreto 
Respondido em 02/06/2021 14:35:39 
Explicação: Quando o conjunto ¿ ou espaço de estados ¿ é discreto , o 
processo markoviano recebe uma denominação especial: cadeia de 
Markov. 
3 
 Questão 
 
 
javascript:diminui();
javascript:aumenta();
Assinale a alternativa que apresenta o estado estacionário associado à matriz de 
transição P dada 
por ⎛⎜⎝0.30.20.50.10.40.40.60.40.1⎞⎟⎠(0.30.20.50.10.40.40.60.40.1) 
 
 
nenhuma das alternativas anteriores 
 
⎛⎜⎝0.200.200.200.300.300.300.500.500.50⎞⎟⎠(0.200.200.200.300.300.30
0.500.500.50) 
 ⎛⎜⎝0.340.340.340.300.300.300.360.360.36⎞⎟⎠(0.340.340.340.300.300.30
0.360.360.36) 
 
⎛⎜⎝0.300.300.300.300.300.300.400.400.40⎞⎟⎠(0.300.300.300.300.300.30
0.400.400.40) 
 
⎛⎜⎝0.370.370.370.300.300.300.330.330.33⎞⎟⎠(0.370.370.370.300.300.30
0.330.330.33) 
Respondido em 02/06/2021 14:35:52 
 
 
Explicação: Ref.: Utilize o site octave-online.net e insira os seguintes comandos: 
P = [0.3, 0.2, 0.5; 0.1, 0.4, 0.4; 0.6, 0.4, 0.1] 
P^100 
4 
 Questão 
 
 
Uma Cadeia de Markov ou sua matriz de transição P em que existe uma 
potência inteira positiva n tal que Pn tenha todas as entradas positivas é 
dita: 
 
 
nenhuma das alternativas anteriores 
 regular 
 
expandida 
 
aumentada 
 
positiva 
Respondido em 02/06/2021 14:36:07 
Explicação: Uma Cadeia de Markov ou sua matriz de transição P é dita ser 
regular se existir uma potência inteira positiva n tal que Pn tenha todas as 
entradas positivas 
5 
 Questão 
 
 
Considere a matriz P dada por: 
⎛⎜⎝0.30.20.50.10.40.40.20.20.6⎞⎟⎠(0.30.20.50.10.40.40.20.20.6) 
Assinale a alternativa que expressa P2: 
 
 
 
⎛⎜⎝0.170.240.530.150.260.450.200.240.54⎞⎟⎠(0.170.240.530.150.260.45
0.200.240.54) 
 
nenhuma das alternativas anteriores 
 
⎛⎜⎝0.210.240.530.150.260.450.200.200.54⎞⎟⎠(0.210.240.530.150.260.45
0.200.200.54) 
 ⎛⎜⎝0.210.240.530.150.260.450.200.240.54⎞⎟⎠(0.210.240.530.150.260.45
0.200.240.54) 
 
⎛⎜⎝0.210.240.530.150.230.450.200.240.54⎞⎟⎠(0.210.240.530.150.230.45
0.200.240.54) 
Respondido em 02/06/2021 14:36:20 
Explicação: Ref.: Realize a operação com apoio da ferramenta online disponível em 
matrixcalc.org, acesso em 09 DEZ 19 
6 
 Questão 
 
 
Considere uma cadeia de Markov com estados 1, 2, ..., N. Assim, 
p12 representa: 
 
 
Nenhuma das alternativas anteriores 
 
A probabilidade de transição do estado 2 para o estado 1. 
 
O quadrado da probabilidade estacionária do estado 1. 
 A probabilidade de transição do estado 1 para o estado 2. 
 
O quadrado da probabilidade estacionária do estado 2. 
Respondido em 02/06/2021 14:36:34 
Explicação: Em uma cadeia de Markov com estados 1, 2, ..., N, 
pij representa a probabilidade de transição do estado i para o estado j.

Outros materiais