Ed
há 10 meses
Para responder à sua pergunta sobre os componentes do Apache Spark, vamos analisar cada uma das opções apresentadas: A) Spark.Catalog - Este componente é usado para gerenciar metadados de tabelas e bancos de dados, mas não é responsável por estabelecer a conexão com o cluster. B) SparkSession - Este é um ponto de entrada para programar com o Spark e pode ser usado para criar DataFrames e acessar o SparkContext, mas não é o componente que estabelece a conexão diretamente. C) DataFrame - Este é um tipo de estrutura de dados que permite trabalhar com dados de forma distribuída, mas não é responsável por estabelecer a conexão com o cluster. D) RDD (Resilient Distributed Dataset) - Este é um conceito fundamental do Spark para trabalhar com dados distribuídos, mas também não é responsável por estabelecer a conexão com o cluster. E) SparkContext - Este é o componente que realmente estabelece a conexão com o cluster Spark e é fundamental para a execução de tarefas. Portanto, a opção correta que contém o componente responsável por estabelecer uma conexão com o Cluster é: E) SparkContext.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material