Buscar

Como o Spark agiliza a execução de tarefas sobre o mesmo conjunto de dados? Obtendo resultados intermediários e os armazenando diretamente em dis...

Como o Spark agiliza a execução de tarefas sobre o mesmo conjunto de dados?


Obtendo resultados intermediários e os armazenando diretamente em disco.
Utilizando a estrutura HDFS padrão do Hadoop.
Movendo os dados durante seu processamento.
Contendo poucas bibliotecas e pouca diversidade de ferramentas.
Compartilhando dados em memória através de grafos direcionais acíclicos.

Essa pergunta também está no material:

Linguagens de programação para ciência de dados 1
6 pág.

Linguagem de Programação II AnhangueraAnhanguera

💡 1 Resposta

User badge image

Ed Verified user icon

O Spark agiliza a execução de tarefas sobre o mesmo conjunto de dados compartilhando dados em memória através de grafos direcionais acíclicos. Isso permite que as operações sejam executadas de forma mais rápida, evitando a necessidade de ler e gravar dados em disco repetidamente. Dessa forma, o Spark pode processar grandes volumes de dados de maneira eficiente.

0
Dislike0

✏️ Responder

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Outros materiais