Ed
há 11 meses
Para responder à sua pergunta, vamos analisar as opções apresentadas em relação ao ecossistema do Apache Spark e seu componente que lida com fluxo de dados em tempo real. A) Spark SQL - Este componente é utilizado para trabalhar com dados estruturados e realizar consultas SQL, mas não é específico para fluxo de dados em tempo real. B) Spark Streaming - Este é o componente do Apache Spark que permite o processamento de dados em tempo real, lidando com fluxos de dados contínuos. C) RDDs (Resilient Distributed Datasets) - São a estrutura de dados fundamental do Spark, mas não são específicos para o tratamento de fluxo de dados em tempo real. D) Spark Core - Este é o núcleo do Apache Spark, que fornece as funcionalidades básicas, mas não é específico para fluxo de dados em tempo real. E) Spark Hadoop - Não é um componente do Spark, mas sim uma referência à integração do Spark com o Hadoop. Portanto, a opção correta que contém o componente do ecossistema Spark responsável por dar suporte para tratar fluxo de dados típicos de aplicações de tempo real é: B) Spark Streaming.