Respostas
A opção correta é: "A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a"." Explicação: - A variável "teste" não é mencionada no código apresentado, portanto não é possível afirmar se corresponde a um RDD ou não. - A utilização do SparkContext é obrigatória para a execução do código. - O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor "a". - A execução do trecho de código não vai gerar um erro, desde que a variável "a" esteja definida corretamente.
Responda
Para escrever sua resposta aqui, entre ou crie uma conta