Buscar

O Spark é uma ferramenta computacional voltada para aplicações de Big Data. Selecione a opção correta a respeito do componente que pode ser tratado

💡 5 Respostas

User badge image

Jeice Santos

Explicação:

Gabarito: RDD

Justificativa: O componente Spark SQL do ecossistema do Spark fornece suporte à linguagem SQL para manipular RDDs. DAGs correspondem a abstrações sobre as execuções dos processos. O Executor é responsável pela execução de tarefas individuais, enquanto o Work Node corresponde ao conjunto de máquinas que executam as tarefas que são as Tasks, ou seja, subdivisões do processo.

3
Dislike0
User badge image

Leila

O Apache Spark tem três componentes principais: o driver, os executores e o gerenciador de cluster. Os aplicativos Spark são executados como conjuntos independentes de processos em um cluster, coordenados pelo programa de driver.

2
Dislike0
User badge image

Simone Souza

O Apache Spark tem três componentes principais: o driver, os executores e o gerenciador de cluster. Os aplicativos Spark são executados como conjuntos independentes de processos em um cluster, coordenados pelo programa de driver.

curte por favor

0
Dislike0

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

✏️ Responder

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Outros materiais

Outros materiais