Logo Passei Direto
Buscar
Os componentes do Spark (2.0 ou superior) têm como objetivo facilitar O desenvolvimento de projetos com finalidades específicas. Nesse sentido, selecione a opção que contém 0 componente responsável por estabelecer uma conexão com O Cluster. A Spark.Catalog B SparkSession C DataFrame D RDD E SparkContext
User badge image
Devanio Negocios

há 23 horas

Respostas

User badge image

Ed Verified user icon

há 23 horas

Para identificar o componente do Spark responsável por estabelecer uma conexão com o cluster, vamos analisar as opções: A) Spark.Catalog - Este componente é usado para gerenciar metadados de tabelas e não estabelece conexão com o cluster. B) SparkSession - Este é o ponto de entrada para programar com o Spark e é responsável por criar a conexão com o cluster. Portanto, é um candidato forte. C) DataFrame - Este é um tipo de estrutura de dados que permite trabalhar com dados de forma distribuída, mas não estabelece a conexão com o cluster. D) RDD (Resilient Distributed Dataset) - É uma abstração fundamental do Spark para trabalhar com dados distribuídos, mas também não é responsável por estabelecer a conexão com o cluster. E) SparkContext - Este é o componente que realmente estabelece a conexão com o cluster e é a base para a criação de outros componentes, como RDDs e DataFrames. Diante da análise, a opção correta que contém o componente responsável por estabelecer uma conexão com o cluster é: E) SparkContext.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina