A sequência correta é: 2, 1, 3, 4, 1. Explicação: - Hadoop é responsável pelo sistema de arquivos em cluster, da alta capacidade, com replicação e velocidade. (característica 4) - Spark executa o processamento de streaming e pipeline de dados usados por processos de ETL. (característica 5) - Spark executa os jobs usando mecanismo DAG (Direct Acyclic Graph), que pode executar tarefas mais complexas e mais rápidas. (característica 3) - Hadoop executa os jobs que precisam de dados em quantidades maiores que a memória compartilhada do cluster. (característica 2) - Spark utiliza a memória compartilhada entre os cluster de forma mais eficaz. (característica 1)
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar