Baixe o app para aproveitar ainda mais
Prévia do material em texto
Desafio do Módulo 3 · Entrega 14 abr em 21:00 · Pontos 40 · Perguntas 14 · Disponível até 14 abr em 21:00 · Limite de tempo Nenhum Instruções O Desafio do Módulo 3 está disponível! 1. Instruções para realizar o desafio Consulte a data de entrega no teste e em seu calendário. Reserve um tempo para realizar a atividade e leia as orientações e enunciados com atenção. Em caso de dúvidas, utilize o "Fórum de dúvidas do Desafio do Módulo 3". Para iniciar o Desafio, clique em "Fazer teste". Você tem somente uma tentativa e não há limite de tempo definido para realizá-la. Caso você precise interromper a atividade, apenas deixe a página e, ao retornar, clique em "Retomar teste". Lembre-se de conferir todas as questões antes de enviar a atividade, e clique em "Enviar teste" somente quando você tiver terminado. Uma vez terminado o prazo de entrega, a plataforma enviará as tentativas não finalizadas automaticamente. Por isso, fique atento ao prazo final. Novas tentativas só serão concedidas perante a apresentação de atestado médico. O gabarito será disponibilizado partir de sexta, 16/04/2021, às 23h59. Bons estudos! 2. O arquivo abaixo contém o enunciado do desafio Enunciado do Desafio - Módulo 3 - Bootcamp Arquiteto(a) Cloud Computing.pdf Este teste foi indispon�vel 14 abr em 21:00. Histórico de tentativas Tentativa Tempo Pontuação MAIS RECENTE Tentativa 1 53 minutos 37,15 de 40 Pontuação deste teste: 37,15 de 40 Enviado 14 abr em 19:24 Esta tentativa levou 53 minutos. Pergunta 1 2,85 / 2,85 pts Ao criar a conta de armazenamento para o Azure Data Lake com as opções abaixo, será possível utilizar estruturas hierárquicas de diretórios. Esta afirmativa é: Correto! Falsa. Verdadeira. Pergunta 2 2,85 / 2,85 pts Ao criar a conta de armazenamento com as opções abaixo, NÃO será possível fazer a ingestão das mensagens capturadas pelo Kafka. Esta afirmativa é: Falsa. Correto! Verdadeira. Pergunta 3 2,85 / 2,85 pts As opções abaixo da conta de armazenamento permitirão que os dados no Azure Data Lake estejam replicados geograficamente e em várias zonas do Azure, além de poderem ser acessados imediatamente. Esta afirmativa é: Correto! Falsa. Verdadeira. Pergunta 4 0 / 2,85 pts Para o deploy da infraestrutura, referente à criação da camada de banco de dados Azure Cosmos DB, quantas contas precisarão ser criadas? 0. Resposta correta 5. 1. Você respondeu Nenhuma das opções. Pergunta 5 2,85 / 2,85 pts O cliente possui alguns códigos de manipulação de dados armazenados em documentos JSON, que precisam de compatibilidade com a versão 3.0 do MongoDB. Para atender a esta demanda, você precisará utilizar: Azure SQL Database. Azure Cosmos DB for MongoDB API. Nenhuma das alternativas. Correto! Infraestrutura como serviço. Pergunta 6 2,85 / 2,85 pts Ao configurar a conta do Cosmos DB da forma abaixo, os usuários que acessarem os dados replicados na região da Coréia do Sul, não poderão realizar atualizações nestes dados. Esta afirmativa é: Falsa. Correto! Verdadeira. Pergunta 7 2,85 / 2,85 pts Para criar a infraestrutura necessária de armazenamento dos dados não estruturados dos sensores e dispositivos de IoT no HDFS, precisa-se criar primeiramente um cluster do HDInsight, com configuração semelhante à mostrada abaixo. Esta afirmativa é: Correto! Verdadeira. Falsa. Pergunta 8 2,85 / 2,85 pts Através da interface abaixo, de administração dos clusters de Big Data, é possível alterar o tipo de cluster do HDInsight. Esta afirmativa é: Correto! Falsa. Verdadeira. Pergunta 9 2,85 / 2,85 pts Ao criar o ambiente do Databricks, é possível criar mais de um cluster com versões diferentes do Databricks. Esta afirmativa é: Falsa. Correto! Verdadeira. Pergunta 10 2,85 / 2,85 pts São pré-requisitos obrigatórios para a criação do ambiente do Azure Data Factory, EXCETO: Subscrição. Nome. Correto! Repositório do Git. Resource Group. Pergunta 11 2,85 / 2,85 pts Ao criar o componente abaixo, é necessário conhecer as informações de localização e acesso da fonte de dados. Esta afirmativa é: Correto! Verdadeira. Falsa. Pergunta 12 2,85 / 2,85 pts Após criar o recurso abaixo, os dados presentes no S3 serão importados para o workspace do Azure Databricks. Esta afirmativa é: Verdadeira. Correto! Falsa. Pergunta 13 2,85 / 2,85 pts Para a criação do pipeline solicitado pelo cliente, usando o Azure Data Factory é necessário: Correto! Todas as alternativas. Criar uma atividade de pipeline. Criar um serviço vinculado. Criar um dataset. Pergunta 14 2,95 / 2,95 pts Sobre a atividade abaixo, de um pipeline do Azure Data Factory, é CORRETO afirmar: Todas as afirmativas. Será executada no cluster HDInsight criado para a solução. É um dataset do Databricks. Correto! É uma atividade com um serviço vinculado que representa um recurso de computação do Azure, ao invés de um armazenamento de dados. Pontuação do teste: 37,15 de 40 AnteriorPróximo Detalhes do envio:
Compartilhar