A alternativa que não é um benefício do Spark sobre o Map Reduce é a letra b) O Hadoop com o Map Reduce também faz o processo de postergar a execução para poder verificar a melhor forma de evitar cálculos redundantes. Esta característica foi adotada também no spark. Na verdade, essa característica é comum tanto no Hadoop quanto no Spark, pois ambos são projetados para lidar com grandes conjuntos de dados e otimizar o processamento.
Para escrever sua resposta aqui, entre ou crie uma conta
Compartilhar