Ed
há 5 meses
Vamos analisar cada uma das alternativas em relação ao trecho de código apresentado: A) A utilização do SparkContext é opcional. - Incorreto. O SparkContext é essencial para criar um contexto de execução no Apache Spark. B) A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". - Incorreto. A função `parallelize` cria um RDD a partir de uma coleção, mas não aplica diretamente a técnica MapReduce. MapReduce é um conceito mais amplo que envolve operações de mapeamento e redução. C) A variável "teste" corresponde a um RDD. - Correto. A linha `teste = spark_contexto.parallelize(a)` cria um RDD a partir do vetor "a". D) A execução do trecho de código vai gerar um erro. - Incorreto. O código não deve gerar um erro, desde que "a" seja definido corretamente como um vetor. E) O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". - Incorreto. O trecho de código apenas cria um RDD a partir do vetor "a", não conta ocorrências. Portanto, a alternativa correta é: C) A variável "teste" corresponde a um RDD.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material