Buscar

ATIVIDADE 4 A4 - MÉTODOS DE MONTE CARLO VIA CADEIA DE MARKOV

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 4 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNP – UNIVERSIDADE POTIGUAR 
BACHARELADO EM ESTATÍSTICA 
ACADÊMICO: EBERSON COSTA 
ANÁLISE BAYESIANA DE DADOS 
 
ATIVIDADE 4 – A4 
 
01 - Leia o trecho a seguir: 
 
“O algoritmo de método de Metropolis-Hastings (MH) é a principal generalização de Amostragem 
Metrópole de Rejeição Adaptativa (ARMS, sigla em inglês). Ele permite que a distribuição proposta 
assuma qualquer forma, sendo necessário apenas que g(x) possua, ao menos, o mesmo suporte que 
f(x). Assim, g é desenvolvido a partir de ARMS, podendo ser dado por uma uniforme, uma normal e 
assim por diante.” 
 
FIRMINO, P. R. A. Método adaptativo de Markov Chain Monte Carlo para manipulação de modelos bayesianos. Orientador: Enrique 
López Droguett. 2009. Tese (Doutorado em Engenharia de Produção) - Universidade Federal de Pernambuco, Recife, 2009, p. 35. Disponível 
em: https://repositorio.ufpe.br/bitstream/123456789/4950/1/arquivo3632_1.pdf. Acesso em: 27 abr. 2022. 
 
Com base no apresentado, analise as asserções a seguir e a relação proposta entre elas. 
 
I. O algoritmo de Metropolis-Hastings refere-se a um método de Monte Carlo para a identificação de 
amostras aleatórias. 
PORQUE: 
II. Este algoritmo é usado para as amostragens simples e indiretas, as quais apresentam baixo número 
de dimensões. 
 
A respeito dessas asserções, assinale a opção correta. 
 
A asserção I é uma proposição verdadeira, e a II é uma proposição falsa. 
 
 
 
02 - Leia o trecho a seguir: 
 
“As distribuições normais/independentes mostram-se como alternativas robustas bastante interessantes 
para os modelos lineares mistos, sendo de fácil implementação dentro de um contexto bayesiano, 
podendo ser também utilizadas na detecção de valores discrepantes em conjuntos de dados.” 
 
ROSA, G. J. M. Análise bayesiana de modelos lineares mistos robustos via amostrador de Gibbs. Orientador: Prof. Dr. Carlos Roberto 
Padovani. 1998. Tese (Doutorado em Agronomia) - Escola Superior de Agricultura Luiz de Queiroz, Piracicaba, 1998, p. 9. Disponível 
em: https://teses.usp.br/teses/disponiveis/11/11134/tde-20191220-123417/publico/RosaGuilhermeJordaoMagalhaes.pdf. Acesso em: 27 abr. 
2022. 
 
Com base no texto acima, analise as alternativas a seguir. 
 
I. Neste caso, a probabilidade de aceitação do amostrador independente é simplificada. 
II. O algoritmo de aceitação-rejeição do amostrador independente é generalizado. 
III. O estado Y do amostrador independente depende do estado existente e atual. 
IV. Independente da cadeia, os valores antecedentes do amostrador definem o estado do processo. 
 
É correto o que se afirma em: 
 
I e II, apenas. 
 
 
 
03 - Leia o trecho a seguir: 
“Essa matriz é denominada matriz de transição. Cada linha da matriz de transição é chamada de vetor 
de probabilidade, sendo o i-ésimo vetor de probabilidade (i-ésima linha) [...]”. 
 
https://repositorio.ufpe.br/bitstream/123456789/4950/1/arquivo3632_1.pdf#_blank
https://teses.usp.br/teses/disponiveis/11/11134/tde-20191220-123417/publico/RosaGuilhermeJordaoMagalhaes.pdf#_blank
MARQUES, J. M. M; SILVA, S. de C. R. da S. A cadeia de Markov na determinação de indicadores educacionais. FAE, Curitiba, v. 16, n. 2, p. 
91, jul./dez. 2013. Disponível em: https://revistafae.fae.edu/revistafae/article/viewFile/141/85. Acesso em: 28 abr. 2022. 
 
A seguir, analise as alternativas a respeito da matriz de transição, marcando a opção correta. 
Por meio da matriz de transição, é possível verificar a correspondência entre as probabilidades. 
 
04 - Considerando o uso do método de Monte Carlo via cadeias de Markov, assinale a alternativa que 
apresenta as informações corretas a respeito da utilização deste tipo de método. 
Este método é utilizado para as funções complicadas e para os cálculos difíceis de serem 
alcançados. 
 
05 - Leia o trecho a seguir: 
 
“Um processo estocástico é markoviano se a ocorrência de um estado futuro depender somente do 
estado imediatamente precedente [...] pode ser interpretada como a probabilidade condicional de 
qualquer evento futuro, dado qualquer evento passado, e o estado presente [...] é independente do 
evento passado e depende somente do estado presente”. 
 
MARQUES, J. M. M; SILVA, S. de C. R. da S. A cadeia de Markov na determinação de indicadores educacionais. FAE, Curitiba, v. 16, n. 2, p. 
90, jul./dez. 2013. Disponível em: https://revistafae.fae.edu/revistafae/article/viewFile/141/85. Acesso em: 28 abr. 2022. 
 
Com base no excerto apresentado, avalie as afirmações acerca da cadeia de Markov. 
 
I. A cadeia de Markov é um processo estocástico que define estados, os quais não dependerão dos 
precedentes. 
II. A cadeia de Markov refere-se a um processo aplicado em distribuições com probabilidades diversas. 
III. A cadeia de Markov trata-se de um processo usado, especificamente, em processos administrativos. 
IV. A cadeia de Markov é um método que depende, exclusivamente, do futuro para a determinação dos 
resultados. 
 
É correto o que se afirma em: 
 
I e II, apenas. 
 
 
 
06 - De acordo com Santos, o “caso especial do amostrador Metropolis-Hastings, o amostrador de 
Gibbs é frequentemente aplicado quando a distribuição-alvo é uma distribuição multivariada.” 
 
SANTOS, D. C. dos. Amostrador de Gibbs aproximado usando computação bayesiana aproximada e regressão quantílica via redes 
neurais artificiais. Orientador: Prof. Dr. Guilherme Souza Rodrigues. 2021. Dissertação (Mestrado em Estatística) - Universidade de Brasília 
(UNB), Brasília, 2021, p. 5. Disponível em: https://repositorio.unb.br/bitstream/10482/40488/3/2021_DeboraCristianedosSantos.pdf. Acesso em: 
28 abr. 2022. 
 
Considerando que o parâmetro seja conhecido, analise as afirmativas a seguir, as quais têm como tema 
o amostrador de Gibbs. 
 
I.O amostrador de Gibbs é aplicado na distribuição-alvo multivariada. 
II. O amostrador de Gibbs é um método que possui propriedades impertinentes. 
III. O amostrador de Gibbs é um método que desatualiza o bloco de parâmetros. 
IV. O amostrador de Gibbs é realizado a partir das amostras da distribuição-alvo. 
 
Está correto o que se afirma em: 
 
I e IV, apenas. 
 
https://revistafae.fae.edu/revistafae/article/viewFile/141/85#_blank
https://revistafae.fae.edu/revistafae/article/viewFile/141/85#_blank
https://repositorio.unb.br/bitstream/10482/40488/3/2021_DeboraCristianedosSantos.pdf#_blank
07 - Leia o trecho a seguir: 
 
“Um caso particular de cadeias independentes é dado quando a distribuição proposta é a distribuição 
a priori para θi. Neste caso, a probabilidade de aceitação é dada somente pela função de 
verossimilhança”. 
 
BARBOSA, H. A. L et al. Simulação Monte Carlo e algoritmos MCMC: Estudo comparativo e simulações com foco na média a 
posteriori. Marinha, 2010, p. 6. Disponível em: https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf. Acesso em: 
28 abr. 2022. 
 
Com base no trecho acima, analise as alternativas a seguir, marcando a opção correta. 
A última etapa da definição do amostrador independente refere-se à repetição de passos 
específicos até a sua conversão para uma distribuição estacionária. Dito isso, um desses passos 
é o de calcular a taxa de aceitação. 
 
08 - Leia o trecho a seguir: 
 
“Para descrever o algoritmo, suponha que a distribuição de interesse é a distribuição a posteriori (θ | x) 
com θ = θ1, θ2, …, θ3). Considere também que todas as condicionais completas a posteriori com (θ |θ 
−1 , x) , i = 1, …, n, estejam disponíveis, mas que não se saiba gerar amostras diretamente de cada 
uma”. 
 
BARBOSA, H. A. L. et al. Simulação Monte Carlo e algoritmos MCMC: estudo comparativo e simulações com foco na média a 
posteriori. Marinha, 2010, p. 6. Disponível em: https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf. Acesso em: 
28 abr. 2022. 
 
Considerando a utilização do algoritmo de Metropolis-Hasting, analise as afirmativas a seguir. 
 
I. O algoritmo de Metropolis-Hasting possui uma limitação quanto à obtenção de amostrasem um 
problema analisado. 
II. O algoritmo de Metropolis-Hasting gera uma sequência de valores, na qual a aproximação depende 
de poucas amostras. 
III. O algoritmo de Metropolis-Hasting move-se, de forma aleatória, no espaço da amostra ou 
permanece em seu local. 
IV. O algoritmo de Metropolis-Hasting tem o intuito de gerar diversos estados a depender da distribuição 
que se quer alcançar no processo. 
 
Está correto o que se afirma em: 
 
III e IV, apenas. 
 
 
 
09 - Leia o trecho a seguir: 
 
“Processos de Markov descrevem a evolução de sistemas dinâmicos aleatórios sem memória. Mais 
precisamente, considere um espaço de estados com um número finito (ou enumerável) de elementos.” 
 
OLIVEIRA, A. S. L.; RIBEIRO, T. S. G.; SILVA, F. B. Cadeia de Markov: modelo probabilístico e convergência das distribuições de 
probabilidade. Paulista de Matemática, Bauru, v. 11, p. 50, dez. 2017. Disponível 
em: https://www.fc.unesp.br/Home/Departamentos/Matematica/revistacqd2228/v11a04ic-cadeia-de-markov-modelo.pdf. Acesso em: 26 abr. 
2022. 
 
Considerando as informações do texto sobre a cadeia de Markov, é correto afirmar que: 
 
Trata-se de um processo estocástico, cuja evolução probabilística se dá com o passar do tempo. 
 
 
 
https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf#_blank
https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf#_blank
https://www.fc.unesp.br/Home/Departamentos/Matematica/revistacqd2228/v11a04ic-cadeia-de-markov-modelo.pdf#_blank
10 - Leia o trecho a seguir: 
 
“Quando tem-se um evento que varia ao longo do tempo, assumindo diferentes características, vem o 
interesse em saber a probabilidade da transição entre esses estágios, uma doença, por exemplo. Na 
primeira visita ao médico, o paciente não apresenta sintomas, já, na segunda, os sintomas estão 
exageradamente avançados. Ou seja, ele transitou de um estágio inicial para um mais avançado sem 
ser percebida a mudança. E os outros estágios intermediários da doença? Quando se deu a transição 
para os estágios iniciais? Como prever tais transições, sendo que o tempo exato de ocorrência é 
desconhecido?” 
 
POVOROZNEK, J. L.; GARCIA, J. A. M. Modelos markovianos multi-estados. Orientador: Profa. Dra Silvia Emiko Shimakura. 2008. 
Trabalho de Conclusão de Curso (TCC) (Bacharelado em Estatística) - Universidade Federal do Paraná, Curitiba, 2008, p. 1. Disponível 
em: http://www.leg.ufpr.br/lib/exe/fetch.php/disciplinas:ce229:tcc2008_julio_jeferson.pdf. Acesso em: 26 abr. 2022. 
 
Considerando o que está apontado acima, justifica-se que a cadeia de Markov em dois estágios é 
utilizada para: 
 
Analisar os conjuntos dos estados discretos infinitos e finitos. 
 
 
 
 
 
 
 
http://www.leg.ufpr.br/lib/exe/fetch.php/disciplinas:ce229:tcc2008_julio_jeferson.pdf#_blank

Continue navegando