Logo Passei Direto
Buscar
Observe o trecho de código abaixo:

import numpy as np
from pyspark import SparkContext

spark_contexto = SparkContext()
a = [5, 1, 6, 4, 7, 7]
teste = spark_contexto.parallelize(a)

Selecione a opção correta a respeito dele.


A) O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor 'a'. A utilização do SparkContext é opcional.
B) A linha aplica a técnica MapReduce para processar o vetor 'a'.
C) A execução do trecho de código vai gerar um erro.
D) A variável 'teste' corresponde a um RDD.
User badge image
Tópicos de Análise e Desenvolvimento de Sistemas

há 2 anos

Respostas

User badge image

Ed Verified user icon

há 8 meses

Vamos analisar cada uma das opções em relação ao trecho de código apresentado: A) O objetivo do trecho de código é contar a quantidade de ocorrências dos valores do vetor 'a'. A utilização do SparkContext é opcional. - Essa afirmação não é totalmente correta. O código cria um RDD a partir da lista 'a', mas não conta as ocorrências. Além disso, a utilização do SparkContext não é opcional se você deseja usar o PySpark. B) A linha aplica a técnica MapReduce para processar o vetor 'a'. - O código apresentado apenas cria um RDD, mas não aplica nenhuma operação de MapReduce. Portanto, essa afirmação é incorreta. C) A execução do trecho de código vai gerar um erro. - O código parece estar correto e não deve gerar um erro, desde que o ambiente esteja configurado corretamente. D) A variável 'teste' corresponde a um RDD. - Essa afirmação é correta. A linha `teste = spark_contexto.parallelize(a)` cria um RDD a partir da lista 'a'. Portanto, a opção correta é: D) A variável 'teste' corresponde a um RDD.

Essa resposta te ajudou?

0
Dislike0
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar essa resposta. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

User badge image

Ed Verified user icon

há 2 anos

A opção correta é: D) A variável 'teste' corresponde a um RDD. O trecho de código cria um objeto RDD (Resilient Distributed Dataset) chamado 'teste' a partir do vetor 'a'. RDD é uma estrutura de dados fundamental no Spark, que permite a distribuição e processamento paralelo dos dados.

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais conteúdos dessa disciplina