Vamos analisar cada afirmativa: 1) Os modelos generativos probabilísticos são baseados na ideia de modelar apenas a distribuição de probabilidade dos dados observados, excluindo qualquer consideração das variáveis latentes. - Falso. Os modelos generativos probabilísticos consideram tanto a distribuição dos dados observados quanto das variáveis latentes. 2) As variáveis latentes em modelos generativos probabilísticos capturam características subjacentes dos dados e são cruciais para a geração de novos exemplos. - Verdadeiro. As variáveis latentes são importantes para capturar características subjacentes e gerar novos exemplos. 3) Redes Bayesianas, misturas de distribuições e modelos de Markov ocultos não são abordagens comuns para construir modelos generativos probabilísticos. - Falso. Essas são abordagens comuns para construir modelos generativos probabilísticos. 4) O Autoencoder Variacional (VAE) é um exemplo de modelo generativo probabilístico que não envolve a aprendizagem de uma distribuição latente para a geração de novos exemplos. - Falso. O VAE envolve a aprendizagem de uma distribuição latente. 5) Os modelos generativos probabilísticos, como o Autoencoder Variacional (VAE), podem aprender a representação latente dos dados durante o treinamento, permitindo a geração de novos exemplos a partir dessa distribuição latente. - Verdadeiro. Esses modelos podem aprender a representação latente e gerar novos exemplos. Portanto, a sequência correta de V e F é: V – V – F – V – F.
Para escrever sua resposta aqui, entre ou crie uma conta
Modelos Probabilisticos para Engenharia
•UNICSUL
Compartilhar