Baixe o app para aproveitar ainda mais
Prévia do material em texto
Av2 - Processos Estocásticos 1) A partir dos conhecimentos adquiridos sobre cadeias de markov, proponha a solução para o seguinte problema: Joe adora jantar em restaurantes de comida típica. Seus pratos favoritos são os mexicanos, italianos, chineses e tailandeses. Na média ele paga R$10,00 por uma refeição mexicana, R$15,00 por uma refeição italiana, R$9,00 por uma refeição chinesa e R$11,00 por uma refeição tailandesa. Os hábitos alimentares de Joe são previsíveis: há 70% de chance de a refeição de hoje se uma repetição da refeição de ontem e probabilidades iguais de trocar para uma das três restantes. A partir deste contexto, defina quanto Joe pagará pelo seu próximo prato. Assinale a alternativa CORRETA: Alternativas: · a) 11,25. Alternativa assinalada · b) 12,25. · c) 13,25. · d) 14,25. · e) 15,25. 2) O experimento a seguir é resultado de um estudo de avaliação da utilização dos modelos de Markov para a segmentação de nomes de pessoas em um sistema de informação e sua influência na vinculação de registros. Foram utilizados nomes de pacientes e da mãe desses pacientes nas bases do Sistema de Informações sobre Mortalidade (SIM), Subsistema de Informação de Procedimentos de Alta Complexidade (APAC), e Sistema de Informação Hospitalar (AIH). A partir da análise do diagrama de transições apresentados pela figura a seguir e dos seus conhecimentos sobre Cadeias de Markov, construa a matriz de transições para o experimento apresentado.. Assinale a alternativa correta. Alternativas: · a) · b) · c) Alternativa assinalada · d) · e) 3) Em uma Cadeia de Markov, um estado é dito _______________, se entrando nesse estado, o processo pode nunca retornar novamente para este estado. Portanto, o estado é transitório se e só se existe um estado , tal que é diferente de que é alcançável a partir do estado , mas não o contrário, isto é, o estado não é alcançável a partir do estado . Um estado é dito_______________ se entrando neste estado o processo inevitavelmente irá retornar para esse estado. Portanto, um estado só é recorrente se não for transitório. Um estado é dito _______________ se entrando nesse estado, o processo nunca irá deixar esse estado. Um estado i é_______________ se e só se = 1. Logo, pode-se dizer que um estado dito_______________ é um caso especial de um estado recorrente. Os conceitos a seguir preenchem corretamente as lacunas acima: 1.Absorvente; 2.Temporário ou transitório; 3.Recorrente; A partir deste contexto, assinale a opção que apresenta a sequência correta do preenchimento dos conceitos em suas respectivas lacunas. Alternativas: · a) temporário ou transitório;absorvente; absorvente;recorrente · b) absorvente; absorvente; temporário ou transitório;recorrente · c) absorvente; recorrente; temporário ou transitório ;absorvente · d) temporário ou transitório; recorrente; absorvente;absorvente Alternativa assinalada · e) recorrente; temporário ou transitório; absorvente;absorvente 4) Análise a seguinte proposição: Uma Processo com propriedade Markoviana ou "sem memória" é classificado como Cadeia de Markov se seus estados forem discretos. Além disso, podemos classificar os parâmetros desses estados. Por exemplo, um estado é dito ____________ se entrando nesse estado, o processo nunca irá deixar esse estado. Um estado é absorvente se e só se . Logo, pode-se dizer que um ____________ é um caso especial de um estado recorrente. Assim, podemos afirmar que: (i) todo o estado ____________ é recorrente; (ii) todo o estado ____________ pertence a uma classe única; (iii) Logo, C = {i} ⇒ é ____________. A partir da análise desta proposição e dos seus conhecimentos sobre Cadeias de Markov Discretas, assinale o conceito a seguir que preenche corretamente todas as lacunas acima. Assinale a alternativa que apresenta o conceito que preenche as lacunas de forma correta.. Alternativas: · a) Eminente. · b) Recorrente. · c) Absorvente. Alernativa assinalada · d) Transitório. · e) Comunicante. 5) Processos estocásticos podem ser definidos como funções que variam de acordo com o tempo, ou seja, para cada instante de tempo, o objeto em estudo toma um estado, e a variação entre estes estados é aleatória. Sendo o número de estados que este objeto pode ter, um número finito. Um tipo especial de processo estocástico é chamado de Cadeia de Markov. Neste, os estados são sempre de propriedade discreta. A partir deste cenário, avalie a seguinte situação-problema: Ao longo prazo, as probabilidades Pr de viver no rural e Pu de viver no meio urbano devem satisfazer os seguintes critérios, onde, 0,97 x Pr + 0,01 x Pu = Pr. Dado este contexto, construa a matriz de transições para essa Cadeia de Markov. Assinale a alternativa correta. Alternativas: · a) Alternativa assinalada · b) · c) · d) · e)
Compartilhar