Ed
há 6 dias
Para garantir a integridade e a consistência dos dados durante o processo de normalização em um pipeline ETL, é fundamental aplicar práticas que assegurem que os dados estejam em um formato uniforme e que as informações sejam consistentes. Vamos analisar as alternativas: A) Realizar uma carga completa periodicamente para substituir todos os dados no sistema de destino. - Isso pode ser útil, mas não garante a integridade e a consistência durante a normalização. B) Utilizar carimbos de tempo (timestamps) para identificar registros duplicados. - Embora isso ajude a identificar duplicatas, não é uma prática essencial para a normalização em si. C) Aplicar métodos de imputação para preencher valores ausentes com a média dos dados. - Isso é uma técnica de tratamento de dados, mas não é diretamente relacionado à normalização. D) Converter todas as datas para um formato padrão e unificar unidades de medida antes do carregamento. - Esta prática é essencial para garantir que os dados sejam consistentes e estejam em um formato uniforme, o que é crucial durante a normalização. E) Implementar triggers no banco de dados de origem para capturar alterações em tempo real. - Isso é mais relacionado à captura de mudanças do que à normalização em si. A alternativa que melhor se encaixa como prática essencial para garantir a integridade e a consistência dos dados durante o processo de normalização é: D) Converter todas as datas para um formato padrão e unificar unidades de medida antes do carregamento.
Mais perguntas desse material