Ed
há 2 meses
Para responder a essa pergunta, precisamos analisar cada uma das alternativas em relação às práticas recomendadas de segurança e boas práticas no pipeline de desenvolvimento. A) configurem Logstash para aplicar transformações nos dados coletados e realizar pré-processamento antes de encaminhá-los ao destino configurado, priorizando regras de filtragem voltadas à observabilidade. - Esta opção enfatiza a importância de aplicar transformações e filtragens nos dados, o que é uma prática recomendada para garantir a qualidade e a segurança dos dados. B) utilizem o Logstash como parte do fluxo de ingestão de dados, mas concentrem o controle de acesso aos logs ao nível de dashboard, assumindo que as fontes são sempre confiáveis. - Esta opção é problemática, pois assumir que as fontes são sempre confiáveis não é uma prática segura. C) empregam o Elasticsearch para indexação e busca eficiente de logs, utilizando o Kibana para visualização e análise gráfica dos dados. - Embora essa prática seja comum, não aborda diretamente os princípios de segurança no pipeline. D) integrem Kibana ao pipeline de CI/CD como ferramenta de apoio à auditoria de eventos, evitando correlações automáticas entre logs de diferentes fontes. - Essa opção não parece priorizar a segurança, pois a auditoria de eventos geralmente requer correlações. E) mantenham o Elasticsearch configurado com permissões amplas para facilitar a consulta aos dados operacionais por equipes diversas, priorizando a visibilidade sobre a segmentação por perfis. - Essa prática é insegura, pois permissões amplas podem levar a vazamentos de dados. Após analisar as alternativas, a opção que melhor se alinha com as práticas de segurança e boas práticas no pipeline de desenvolvimento é a A), pois prioriza a filtragem e o pré-processamento dos dados, o que é essencial para a segurança e a observabilidade.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material