Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNP – UNIVERSIDADE POTIGUAR BACHARELADO EM ESTATÍSTICA ACADÊMICO: EBERSON COSTA ANÁLISE BAYESIANA DE DADOS ATIVIDADE 4 – A4 01 - Leia o trecho a seguir: “O algoritmo de método de Metropolis-Hastings (MH) é a principal generalização de Amostragem Metrópole de Rejeição Adaptativa (ARMS, sigla em inglês). Ele permite que a distribuição proposta assuma qualquer forma, sendo necessário apenas que g(x) possua, ao menos, o mesmo suporte que f(x). Assim, g é desenvolvido a partir de ARMS, podendo ser dado por uma uniforme, uma normal e assim por diante.” FIRMINO, P. R. A. Método adaptativo de Markov Chain Monte Carlo para manipulação de modelos bayesianos. Orientador: Enrique López Droguett. 2009. Tese (Doutorado em Engenharia de Produção) - Universidade Federal de Pernambuco, Recife, 2009, p. 35. Disponível em: https://repositorio.ufpe.br/bitstream/123456789/4950/1/arquivo3632_1.pdf. Acesso em: 27 abr. 2022. Com base no apresentado, analise as asserções a seguir e a relação proposta entre elas. I. O algoritmo de Metropolis-Hastings refere-se a um método de Monte Carlo para a identificação de amostras aleatórias. PORQUE: II. Este algoritmo é usado para as amostragens simples e indiretas, as quais apresentam baixo número de dimensões. A respeito dessas asserções, assinale a opção correta. A asserção I é uma proposição verdadeira, e a II é uma proposição falsa. 02 - Leia o trecho a seguir: “As distribuições normais/independentes mostram-se como alternativas robustas bastante interessantes para os modelos lineares mistos, sendo de fácil implementação dentro de um contexto bayesiano, podendo ser também utilizadas na detecção de valores discrepantes em conjuntos de dados.” ROSA, G. J. M. Análise bayesiana de modelos lineares mistos robustos via amostrador de Gibbs. Orientador: Prof. Dr. Carlos Roberto Padovani. 1998. Tese (Doutorado em Agronomia) - Escola Superior de Agricultura Luiz de Queiroz, Piracicaba, 1998, p. 9. Disponível em: https://teses.usp.br/teses/disponiveis/11/11134/tde-20191220-123417/publico/RosaGuilhermeJordaoMagalhaes.pdf. Acesso em: 27 abr. 2022. Com base no texto acima, analise as alternativas a seguir. I. Neste caso, a probabilidade de aceitação do amostrador independente é simplificada. II. O algoritmo de aceitação-rejeição do amostrador independente é generalizado. III. O estado Y do amostrador independente depende do estado existente e atual. IV. Independente da cadeia, os valores antecedentes do amostrador definem o estado do processo. É correto o que se afirma em: I e II, apenas. 03 - Leia o trecho a seguir: “Essa matriz é denominada matriz de transição. Cada linha da matriz de transição é chamada de vetor de probabilidade, sendo o i-ésimo vetor de probabilidade (i-ésima linha) [...]”. https://repositorio.ufpe.br/bitstream/123456789/4950/1/arquivo3632_1.pdf#_blank https://teses.usp.br/teses/disponiveis/11/11134/tde-20191220-123417/publico/RosaGuilhermeJordaoMagalhaes.pdf#_blank MARQUES, J. M. M; SILVA, S. de C. R. da S. A cadeia de Markov na determinação de indicadores educacionais. FAE, Curitiba, v. 16, n. 2, p. 91, jul./dez. 2013. Disponível em: https://revistafae.fae.edu/revistafae/article/viewFile/141/85. Acesso em: 28 abr. 2022. A seguir, analise as alternativas a respeito da matriz de transição, marcando a opção correta. Por meio da matriz de transição, é possível verificar a correspondência entre as probabilidades. 04 - Considerando o uso do método de Monte Carlo via cadeias de Markov, assinale a alternativa que apresenta as informações corretas a respeito da utilização deste tipo de método. Este método é utilizado para as funções complicadas e para os cálculos difíceis de serem alcançados. 05 - Leia o trecho a seguir: “Um processo estocástico é markoviano se a ocorrência de um estado futuro depender somente do estado imediatamente precedente [...] pode ser interpretada como a probabilidade condicional de qualquer evento futuro, dado qualquer evento passado, e o estado presente [...] é independente do evento passado e depende somente do estado presente”. MARQUES, J. M. M; SILVA, S. de C. R. da S. A cadeia de Markov na determinação de indicadores educacionais. FAE, Curitiba, v. 16, n. 2, p. 90, jul./dez. 2013. Disponível em: https://revistafae.fae.edu/revistafae/article/viewFile/141/85. Acesso em: 28 abr. 2022. Com base no excerto apresentado, avalie as afirmações acerca da cadeia de Markov. I. A cadeia de Markov é um processo estocástico que define estados, os quais não dependerão dos precedentes. II. A cadeia de Markov refere-se a um processo aplicado em distribuições com probabilidades diversas. III. A cadeia de Markov trata-se de um processo usado, especificamente, em processos administrativos. IV. A cadeia de Markov é um método que depende, exclusivamente, do futuro para a determinação dos resultados. É correto o que se afirma em: I e II, apenas. 06 - De acordo com Santos, o “caso especial do amostrador Metropolis-Hastings, o amostrador de Gibbs é frequentemente aplicado quando a distribuição-alvo é uma distribuição multivariada.” SANTOS, D. C. dos. Amostrador de Gibbs aproximado usando computação bayesiana aproximada e regressão quantílica via redes neurais artificiais. Orientador: Prof. Dr. Guilherme Souza Rodrigues. 2021. Dissertação (Mestrado em Estatística) - Universidade de Brasília (UNB), Brasília, 2021, p. 5. Disponível em: https://repositorio.unb.br/bitstream/10482/40488/3/2021_DeboraCristianedosSantos.pdf. Acesso em: 28 abr. 2022. Considerando que o parâmetro seja conhecido, analise as afirmativas a seguir, as quais têm como tema o amostrador de Gibbs. I.O amostrador de Gibbs é aplicado na distribuição-alvo multivariada. II. O amostrador de Gibbs é um método que possui propriedades impertinentes. III. O amostrador de Gibbs é um método que desatualiza o bloco de parâmetros. IV. O amostrador de Gibbs é realizado a partir das amostras da distribuição-alvo. Está correto o que se afirma em: I e IV, apenas. https://revistafae.fae.edu/revistafae/article/viewFile/141/85#_blank https://revistafae.fae.edu/revistafae/article/viewFile/141/85#_blank https://repositorio.unb.br/bitstream/10482/40488/3/2021_DeboraCristianedosSantos.pdf#_blank 07 - Leia o trecho a seguir: “Um caso particular de cadeias independentes é dado quando a distribuição proposta é a distribuição a priori para θi. Neste caso, a probabilidade de aceitação é dada somente pela função de verossimilhança”. BARBOSA, H. A. L et al. Simulação Monte Carlo e algoritmos MCMC: Estudo comparativo e simulações com foco na média a posteriori. Marinha, 2010, p. 6. Disponível em: https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf. Acesso em: 28 abr. 2022. Com base no trecho acima, analise as alternativas a seguir, marcando a opção correta. A última etapa da definição do amostrador independente refere-se à repetição de passos específicos até a sua conversão para uma distribuição estacionária. Dito isso, um desses passos é o de calcular a taxa de aceitação. 08 - Leia o trecho a seguir: “Para descrever o algoritmo, suponha que a distribuição de interesse é a distribuição a posteriori (θ | x) com θ = θ1, θ2, …, θ3). Considere também que todas as condicionais completas a posteriori com (θ |θ −1 , x) , i = 1, …, n, estejam disponíveis, mas que não se saiba gerar amostras diretamente de cada uma”. BARBOSA, H. A. L. et al. Simulação Monte Carlo e algoritmos MCMC: estudo comparativo e simulações com foco na média a posteriori. Marinha, 2010, p. 6. Disponível em: https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf. Acesso em: 28 abr. 2022. Considerando a utilização do algoritmo de Metropolis-Hasting, analise as afirmativas a seguir. I. O algoritmo de Metropolis-Hasting possui uma limitação quanto à obtenção de amostrasem um problema analisado. II. O algoritmo de Metropolis-Hasting gera uma sequência de valores, na qual a aproximação depende de poucas amostras. III. O algoritmo de Metropolis-Hasting move-se, de forma aleatória, no espaço da amostra ou permanece em seu local. IV. O algoritmo de Metropolis-Hasting tem o intuito de gerar diversos estados a depender da distribuição que se quer alcançar no processo. Está correto o que se afirma em: III e IV, apenas. 09 - Leia o trecho a seguir: “Processos de Markov descrevem a evolução de sistemas dinâmicos aleatórios sem memória. Mais precisamente, considere um espaço de estados com um número finito (ou enumerável) de elementos.” OLIVEIRA, A. S. L.; RIBEIRO, T. S. G.; SILVA, F. B. Cadeia de Markov: modelo probabilístico e convergência das distribuições de probabilidade. Paulista de Matemática, Bauru, v. 11, p. 50, dez. 2017. Disponível em: https://www.fc.unesp.br/Home/Departamentos/Matematica/revistacqd2228/v11a04ic-cadeia-de-markov-modelo.pdf. Acesso em: 26 abr. 2022. Considerando as informações do texto sobre a cadeia de Markov, é correto afirmar que: Trata-se de um processo estocástico, cuja evolução probabilística se dá com o passar do tempo. https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf#_blank https://www.marinha.mil.br/spolm/sites/www.marinha.mil.br.spolm/files/74089.pdf#_blank https://www.fc.unesp.br/Home/Departamentos/Matematica/revistacqd2228/v11a04ic-cadeia-de-markov-modelo.pdf#_blank 10 - Leia o trecho a seguir: “Quando tem-se um evento que varia ao longo do tempo, assumindo diferentes características, vem o interesse em saber a probabilidade da transição entre esses estágios, uma doença, por exemplo. Na primeira visita ao médico, o paciente não apresenta sintomas, já, na segunda, os sintomas estão exageradamente avançados. Ou seja, ele transitou de um estágio inicial para um mais avançado sem ser percebida a mudança. E os outros estágios intermediários da doença? Quando se deu a transição para os estágios iniciais? Como prever tais transições, sendo que o tempo exato de ocorrência é desconhecido?” POVOROZNEK, J. L.; GARCIA, J. A. M. Modelos markovianos multi-estados. Orientador: Profa. Dra Silvia Emiko Shimakura. 2008. Trabalho de Conclusão de Curso (TCC) (Bacharelado em Estatística) - Universidade Federal do Paraná, Curitiba, 2008, p. 1. Disponível em: http://www.leg.ufpr.br/lib/exe/fetch.php/disciplinas:ce229:tcc2008_julio_jeferson.pdf. Acesso em: 26 abr. 2022. Considerando o que está apontado acima, justifica-se que a cadeia de Markov em dois estágios é utilizada para: Analisar os conjuntos dos estados discretos infinitos e finitos. http://www.leg.ufpr.br/lib/exe/fetch.php/disciplinas:ce229:tcc2008_julio_jeferson.pdf#_blank
Compartilhar