O trecho de código apresentado está importando a biblioteca NumPy como np e a biblioteca PySpark como SparkContext. Em seguida, ele cria um array NumPy chamado "a" e o transforma em um RDD (Resilient Distributed Dataset) usando o método parallelize() do SparkContext. Portanto, a opção correta é que o código está criando um RDD a partir de um array NumPy usando o PySpark.
Para escrever sua resposta aqui, entre ou crie uma conta
Análise e Desenvolvimento de Sistemas
Compartilhar