Logo Passei Direto
Buscar
Observe o trecho de código abaixo import numpy as np from pyspark import SparkContext spark_contexto = SparkContext() a = hp.array([1,5,1,6,4,7,7]) teste = spark_contexto.parallelize(a) Selecione a opção correta a respeito dele. A A utilização do SparkContext é opcional. B A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". C A variável "teste" corresponde a um RDD. D A execução do trecho de código vai gerar um erro. E O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor all
User badge image
Josué Alves lima

há 8 meses

Respostas

User badge image

Ed Verified user icon

há 8 meses

Vamos analisar cada uma das alternativas em relação ao trecho de código apresentado: A) A utilização do SparkContext é opcional. - Incorreto. O SparkContext é essencial para criar um contexto de execução no Apache Spark. B) A linha "spark_contexto.parallelize(a)" aplica a técnica MapReduce para processar o vetor "a". - Incorreto. A função `parallelize` cria um RDD (Resilient Distributed Dataset) a partir do vetor, mas não aplica diretamente a técnica MapReduce. C) A variável "teste" corresponde a um RDD. - Correto. A linha `spark_contexto.parallelize(a)` cria um RDD a partir do vetor `a`, e a variável `teste` armazena esse RDD. D) A execução do trecho de código vai gerar um erro. - Incorreto. O código está correto e não deve gerar erro, desde que o ambiente esteja configurado corretamente. E) O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor. - Incorreto. O trecho de código apenas cria um RDD a partir do vetor, mas não conta as ocorrências. Portanto, a alternativa correta é: C) A variável "teste" corresponde a um RDD.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Mais conteúdos dessa disciplina