Prévia do material em texto
Iniciado: 18 ago em 9:07 O Desafio do Módulo 3 está disponível! 1. Instruções para realizar o desafio Consulte a data de entrega no teste e em seu calendário. Reserve um tempo para realizar a atividade, leia as orientações e enunciados com atenção. Em caso de dúvidas utilize o "Fórum de dúvidas do Desafio". Para iniciá-lo clique em "Fazer teste". Você tem somente uma tentativa e não há limite de tempo definido para realizá-lo. Caso precise interromper a atividade, apenas deixe a página e, ao retornar, clique em "Retomar teste". Clique em "Enviar teste" somente quando você concluí-lo. Antes de enviar confira todas as questões. Caso o teste seja iniciado e não enviado até o final do prazo de entrega, a plataforma enviará a tentativa não finalizada automaticamente, independente do progresso no teste. Fique atento ao seu teste e ao prazo final, pois novas tentativas só serão concedidas em casos de questões médicas. O gabarito será disponibilizado partir de domingo, 23/08/2020, às 23h59. Bons estudos! 2. O arquivo abaixo contém o enunciado do desafio Enunciado do Desafio - Módulo 3 - Bootcamp Cloud Computing.pdf 2,67 ptsPergunta 1 Ao criar a conta de armazenamento para o Azure Data Lake com as opções abaixo, será possível utilizar estruturas hierárquicas de diretórios. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 1 of 13 19/08/2020 20:22 Falso Verdadeiro 2,67 ptsPergunta 2 Ao criar a conta de armazenamento com as opções abaixo, NÃO será possível fazer a ingestão das mensagens capturadas pelo Kafka. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 2 of 13 19/08/2020 20:22 Verdadeiro Falso 2,67 ptsPergunta 3 As opções abaixo da conta de armazenamento permitirão que os dados no Azure Data Lake estejam replicados geograficamente e em várias zonas do Azure, além de poderem ser acessados imediatamente. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 3 of 13 19/08/2020 20:22 Falso Verdadeiro 2,67 ptsPergunta 4 5. Nenhuma das opções. 1. Para o deploy da infraestrutura, referente à criação da camada de banco de dados Azure Cosmos DB, quantas contas de armazenamento precisarão ser criadas? Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 4 of 13 19/08/2020 20:22 0. 2,67 ptsPergunta 5 Azure Cosmos DB for MongoDB API. Nenhuma das alternativas. Infraestrutura como serviço. Azure SQL Database. O cliente possui alguns códigos de manipulação de dados armazenados em documentos JSON, que precisam de compatibilidade com a versão 3.0 do MongoDB. Para atender a esta demanda, você precisará utilizar: 2,67 ptsPergunta 6 Ao configurar a conta do Cosmos DB da forma abaixo, os usuários que acessarem os dados replicados na região da Coréia do Sul não poderão realizar atualizações nestes dados. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 5 of 13 19/08/2020 20:22 Falso Verdadeiro 2,67 ptsPergunta 7 Verdadeiro Falso Para criar a infraestrutura necessária de armazenamento dos dados não estruturados dos sensores e dispositivos de IoT no HDFS, precisa-se criar primeiramente um cluster do HDInsight, com configuração semelhante à mostrada abaixo. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 6 of 13 19/08/2020 20:22 2,67 ptsPergunta 8 Falso Verdadeiro Através da interface abaixo, de administração dos clusters de Big Data, é possível alterar o tipo de cluster do HDInsight. 2,67 ptsPergunta 9 Ao criar o ambiente do Databricks, é possível criar mais de um cluster com versões diferentes do Databricks. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 7 of 13 19/08/2020 20:22 Verdadeiro Falso 2,67 ptsPergunta 10 Ao aprovisionar o ambiente do Azure Synapse Analytics (SQL DW), poderá ser optada por uma arquitetura serverlesss para essa solução. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 8 of 13 19/08/2020 20:22 Falso Verdadeiro 2,67 ptsPergunta 11 Subscrição. Resource Group. Repositório do Git. Nome. São pré-requisitos obrigatórios para a criação do ambiente do Azure Data Factory, EXCETO: Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 9 of 13 19/08/2020 20:22 2,67 ptsPergunta 12 Falso Verdadeiro Ao criar o componente abaixo, é necessário conhecer as informações de localização e acesso da fonte de dados. 2,67 ptsPergunta 13 Após criar o recurso abaixo, os dados presentes no S3 serão importados para o workspace do Azure Databricks. Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 10 of 13 19/08/2020 20:22 Verdadeiro Falso 2,67 ptsPergunta 14 Criar uma atividade de pipeline. Criar um serviço vinculado. Para a criação do pipeline solicitado pelo cliente, usando o Azure Data Factory é necessário: Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 11 of 13 19/08/2020 20:22 Criar um dataset. Todas as alternativas. 2,62 ptsPergunta 15 Todas as afirmativas. Será executada no cluster HDInsight criado para a solução. É um dataset do Databricks. É uma atividade com um serviço vinculado que representa um recurso de computação do Azure, ao invés de um armazenamento de dados. Sobre a atividade abaixo, de um pipeline do Azure Data Factory, é CORRETO afirmar: Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 12 of 13 19/08/2020 20:22 Nenhum dado novo para salvar. Última verificação às 20:22 Teste: Desafio do Módulo 3 https://igti.instructure.com/courses/3074/quizzes/37175/take 13 of 13 19/08/2020 20:22