Baixe o app para aproveitar ainda mais
Prévia do material em texto
31/01/2022 11:36 Avaliação da Disciplina 1/12 Prova Impressa GABARITO | Avaliação da Disciplina (Cod.:645387) Peso da Avaliação 10,00 Prova 33078100 Qtd. de Questões 20 Nota 9,00 Em métodos hierárquicos tradicionais a complexidade no espaço O(n²) e no tempo O(n³) é algo que limita o poder de ação dos algoritmos. E, em muitos casos, algumas circunstâncias tornam o processo de análise extremamente oneroso ou mesmo inviável. Essa limitação tem sido evidenciada por alguns fatores, quais destes é possível destacar? A partir das alternativas abaixo, assinale a CORRETA: A O modelo de gestão de dados que impôs o uso de algoritmos distribuídos para ganhos de performance. B O crescente número de ferramentas voltadas para Big Data que substituem as formas de análise tradicionais. C A exigência cada vez mais recorrente de aplicações voltadas para detecção de eventos anômalos. D O volume intenso e variado de dados que estão sendo gerados e requeridos para análise. Grande parte do sucesso do Spark está relacionado à sua estrutura, que é composta por alguns componentes. O principal deles é o RDD. Sobre este componente, classifique V para as sentenças verdadeiras e F para as falsas: ( ) É uma estrutura física do Spark que guarda informações dos objetos do Spark. Sua única limitação é não possuir um mecanismo para tratamento de falhas. ( ) Possui uma estrutura similar a uma tabela, conhecida como dataset que pode armazenar dados de diferentes tipos. ( ) Fornece suporte a dois tipos de operações: transformação e ação. Quando se aplica uma transformação um novo RDD é criado, mas o conjunto de dados só é alterado se for aplicada uma etapa de ação. ( ) Algumas operações de transformação são: SortByKey, FlatMap e GroupByKey enquanto que collect, count e CountByKey são operações de ação. VOLTAR A+ Alterar modo de visualização 1 2 31/01/2022 11:36 Avaliação da Disciplina 2/12 A partir das alternativas abaixo, assinale a CORRETA: A V – V – V – F. B F – V – V – V. C F – V – V – F. D F – F – V – V. Os métodos tradicionais de agrupamento (clustering) podem ser implementados por uma diversidade de algoritmos. Relacione a classe de algoritmos com os métodos, associando os itens, conforme o código abaixo: I – Algoritmos DIANA, ROCK. II – Algoritmos DBSCAN, OPTICS. III – Algoritmos Expectation-Maximization (EM), Self-Organization Map (SOM) IV – Algoritmos K-Means, CLARANS. V – Algoritmos STING, WAVECLUSTER. ( ) Métodos hierárquicos. ( ) Métodos baseados em grid. ( ) Métodos de particionamento. ( ) Métodos baseados em modelos. ( ) Métodos baseados em densidade. Assinale a alternativa que apresenta a sequência CORRETA: A I – V – IV – III – II. B I – IV – V – II – III. C III – IV – II – I – V. D II – V – III – IV – I. 3 31/01/2022 11:36 Avaliação da Disciplina 3/12 Os meios digitais consistem em um grande potencial para geração e análise dos dados. Nos dias de hoje as empresas têm investido nesses meios para compreender melhor como seus clientes atuam nestas redes. Em relação à análise digital é correto afirmar que: A Conhecida hoje como “Web Analytics” e compreende todas as páginas de um website. A análise de dados nos websites é feita observando as diferentes métricas de ferramentas como Google Analytics para avaliar o comportamento virtual do usuário dentro da página. B Antigamente restringia-se apenas ao termo “web”, mas nos dias de hoje o termo digital expande a todos os dispositivos capazes de conectar a web. A base dessas análises está relacionada a indicadores ou métricas específicas, como: taxa de rejeição, usuários ativos por hora, informações demográficas, etc. C Está relacionada a um conjunto de métricas e indicadores para avaliar o comportamento digital de um usuário, como cliques de mouse, posts nas redes sociais, tempo de sessão e assim por diante. Por ser uma área recente, ainda não possui ferramentas com recursos suficientes para análise de grande volume de dados. D Possui uma diversidade de APIs para acesso e exploração dos dados digitais. São dados como: origens do tráfego, sites mais visitados, registros de compras em um site de vendas e assim por diante. Apesar de todo o potencial, a complexidade e o custo para extrair esses dados impedem o amplo uso desses recursos digitais. O Apache Hadoop contém uma série de componentes que podem ser integrados ao framework. Esses componentes podem ser úteis para as mais diversas finalidades, como armazenamento, transferência de grandes volumes de dados ou até mesmo aplicação de algoritmos preditivos. A partir das opções abaixo, classifique V para as sentenças verdadeiras e F para as falsas: ( ) O Apache Hive é um componente que pode ser integrado ao Hadoop para coletar dados de fontes estruturadas. ( ) O Apache HBase é um banco de dados não relacional propício a ambientes Big Data, uma vez que suporta um grande volume de dados mantendo alto desempenho. ( ) O Apache Sqoop permite mover grandes volumes de dados das fontes para o HDFS. 4 5 31/01/2022 11:36 Avaliação da Disciplina 4/12 ( ) O Apache Mahout é um componente responsável por trabalhar diretamente com os dados da fonte: extraindo e coletando dados tanto para processamento em lote como em tempo real. A partir das alternativas abaixo, assinale a CORRETA: A V – V – V – F. B V – V – F – F. C F – V – F – V. D F – F – V – V. As métricas de segmentação representam outra classe de medidas para análise de redes sociais. Em relação a essas métricas, associe os itens, conforme o código abaixo: I – Coeficiente de agrupamento. II – Coesão. III – Clique. ( ) É uma medida que representa o grau de ligação existente entre dois vértices. ( ) É uma medida que indica a probabilidade de formação de clusters entre os vértices. ( ) Quando um determinado vértice está diretamente conectado a todos os outros vértices. A partir das alternativas abaixo, assinale a CORRETA: A II – I – III. B I – II – III. 6 31/01/2022 11:36 Avaliação da Disciplina 5/12 C II – III – I. D III – II – I. O HDFS é um sistema de arquivos do Hadoop que permite armazenar grandes volumes de dados e possui uma arquitetura que apresenta alguns componentes importantes. Dentre os componentes principais da arquitetura do HDFS, assinale a alternativa CORRETA. A O HDFS é formado pelo NameNode e DataNode. O primeiro é considerado vital, pois gerencia todos os dados que chegam ao sistema e notifica aos escravos (Data Node) em caso de falha. Estes apenas executam as tarefas solicitadas. B O HDFS é formado pelo NameNode e DataNode. O primeiro é considerado mestre porque controla todas as atividades relacionadas ao armazenamento físico dos dados em cada nó, enquanto o segundo processa os dados e comunica ao mestre. C O HDFS é formado pelo JobTracker e o TaskTrack. O primeiro é responsável por agendar e gerenciar as tarefas de armazenamento, enquanto que o segundo realiza as atividades diretamente nas máquinas destino. D O HDFS é formado pelo JobTracker e o TaskTrack. O primeiro está relacionado ao armazenamento e processamento dos dados diretamente no cluster “pai”, enquanto que o segundo apenas obedece às instruções do pai e o notifica quando for o caso. Em épocas passadas as empresas conviviam com certas limitações, em termos de tecnologia, para que pudessem analisar seus dados. Por outro lado, nos dias atuais, as tecnologias possibilitaram e estimularam a produção de conteúdo. Tendo isso em mente, classifique V para as sentenças verdadeiras e F para as falsas: ( ) As empresas precisam lidar com o alto volume e variedade de dados digitais propondo soluções automáticas de análise a fim de se manterem competitivas. ( ) As empresas orientadas a dados têm à disposição uma massiva quantidade de dados, porém, em muitos casos não sabem como gerenciá-los. ( ) A elevada produção de conteúdo implica em um problema de sobrecarga de informação, evidenciando as limitaçõesda ação humana para lidar com isso. Assinale a alternativa correta: A F – V – V. 7 8 31/01/2022 11:36 Avaliação da Disciplina 6/12 B V – F – F. C V – F – V. D V – V – V. “O processo de Big Data Analytics é utilizado nos negócios para descobrir padrões. Encontrar as tendências de mercado e acompanhar o comportamento do consumidor ajuda os negócios em suas decisões estratégicas e de marketing”. Disponível em: < https://marketingconteudo.com/big-data-analytics/ > Em relação ao processo de Big Data, o que é possível afirmar? A partir das alternativas abaixo, assinale a CORRETA: A É interativa e constituída de etapas similares à análise tradicional, com a diferença de que pode manipular grandes conjuntos de dados em nuvem. B É interativo e constituído pelas etapas de extração, ingestão, transformação, limpeza, análise de dados e visualização de dados. C É interativo devido às etapas de todo o processo serem independentes umas das outras, além de apresentar escopo bem reduzido, simplificando a análise. D É considerado iterativo de baixa complexidade se comparado à análise de dados tradicional, com etapas bem definidas e dependentes entre si. Dados não estruturados ou desestruturados compreendem cerca de 80% de toda gama de dados disponíveis para extração e análise de dados. Em relação a esses tipos de dados é correto afirmar que: A São pouco percebidos pelas empresas por conta da complexidade em lidar com essas estruturas. São extremamente custosos se comparados ao formato estruturado e carecem de técnicas para melhorar o processo de análise. B São dados difíceis de serem decifrados ou compreendidos pela máquina, por conta da sua estrutura. A linguagem humana é incompreensível pela máquina, o que torna o processo de descoberta de conhecimento inviável. C Apresentam formato livre e são produzidos pela linguagem humana. Para que seja possível realizar a análise existe a necessidade de transformá-los em um formato estruturado. São de vital importância para as empresas, porém, são pouco explorados e apresentam baixo 9 10 31/01/2022 11:36 Avaliação da Disciplina 7/12 D poder de aplicabilidade. Google e IBM são algumas das poucas empresas que investem recursos em análise de dados textuais. Uma das soluções mais empregadas em Big Data para armazenamento, processamento e análise de grandes volumes de dados é conhecida como Hadoop. É uma solução open-source da Apache que possui diversas bibliotecas ou módulos. Que características do Apache Hadoop são consideradas centrais, tanto para termos de armazenamento como processamento? A partir das alternativas abaixo, assinale a CORRETA: A Armazenamento por intermédio de um sistema de arquivos distribuído: NTFS para máquinas em Windows e Ext4 para sistemas Linux, o processamento é feito pelo Hadoop MapReduce que processa paralelamente os dados de forma eficiente. B Armazenamento por meio de um sistema de arquivos próprio que armazena grandes volumes de dados de forma distribuída e processamento distribuído por intermédio de um modelo simples e eficiente de programação. C Armazenamento por meio de um sistema de arquivos simples, robusto e escalável que pode ser gerenciado por uma única máquina além de processamento em GPU para ganho de performance. D Armazenamento por meio de um sistema de arquivos distribuído e processamento computacional veloz e paralelo utilizando GPU para tornar o processo mais eficiente. A demanda por profissionais de análise de dados ampliou o escopo de exigências destes profissionais. As empresas estão interessadas em profissionais capacitados e que tenham habilidades em trabalhar com dados. Tendo isso em mente, quais são as principais habilidades requeridas para um profissional de dados? A partir das alternativas abaixo, assinale a CORRETA: A Capacidade para manipulação de dados, conhecimentos em estatística e aprendizado de máquina, habilidades com ferramentas e/ou linguagens de programação e capacidade para transmitir resultados. B Domínio de técnicas de aprendizagem de máquina, amplo conhecimento em matemática, experiência com todos os tipos de dados ou banco de dados (extração e manipulação) e amplo conhecimento do negócio. C Forte capacidade analítica, amplo conhecimento em ferramentas de visualização de dados e frameworks de Big Data como Apache Spark e PowerBI e domínio de bancos de dados não relacionais. D Raciocínio lógico apurado, capacidade para extrair insights de dados não estruturados, experiência prévia em aprendizagem de máquina e pouco conhecimento do conceito de Big Data. 11 12 31/01/2022 11:36 Avaliação da Disciplina 8/12 A clusterização é uma técnica de aprendizagem não supervisionada que visa classificar um conjunto de dados semelhantes em um mesmo grupo. No que se refere à clusterização é CORRETO afirmar que: A Dados que fazem parte do mesmo grupo apresentam um grau de similaridade ou dissimilaridade elevado. B Composto por várias medidas de distância, entre estas a distância Euclidiana que, devido à sua popularidade, pode se aplicar a praticamente todas as classes de problemas. C É empregada em situações onde não há conhecimento prévio de uma classe. A classificação é feita mediante agrupamento através de alguma medida de distância. D É útil para classificar um grupo de objetos com classes já definidas, por exemplo, prever a média de vendas de casas em uma determinada região. Empresas de muitos ramos têm investido em tecnologias e análise de dados para expandirem seus negócios. Em geral, que circunstâncias-chave tem incentivado empresas a investirem parte de seus recursos em análise de dados? A partir das alternativas abaixo, assinale a CORRETA: A Mensurar retorno de investimentos, incentivos governamentais e garantia de lucro. B Algoritmos cada vez mais inteligentes, redução de mão de obra e incremento tecnológico. C Melhoria dos processos de negócio, aumento de competitividade e o valor que pode ser obtido. D Automatização de processos, incentivos fiscais e mão de obra barata. Apesar do grande crescimento, o Big Data é um conceito amplo que se refere à forma como lidamos com a grande quantidade de dados disponível para uso. Além disso, a empresa precisa construir uma infraestrutura para lidar com uma infinidade de fontes e processá-las em um tempo razoável. Diante disso, em qual cenário uma empresa pode estar diante de um Big Data? A partir das alternativas abaixo, assinale a CORRETA: 13 14 15 31/01/2022 11:36 Avaliação da Disciplina 9/12 A Em circunstâncias onde o volume de dados da organização aumente significativamente, tornando-se necessário comprar novos servidores, o que poderia elevar os custos com armazenamento. B Quando o conjunto de dados ultrapassar a casa dos 1PB e a empresa precise lidar com dados estruturados, semiestruturados e/ou não estruturados. C Quando a análise de dados tradicional não estiver mais trazendo real valor para a organização, o que poderia indicar a possibilidade de trazer inovação com novas formas de analisar os dados. D Em situações onde a infraestrutura de dados da empresa apresenta elevada taxa de latência e/ou inviabilidade para análises de dados de grande volume e em diferentes formatos e estruturas. “Estruturas teóricas linguísticas como a Teoria Texto-Sentido (MTT) para a construção de modelos de linguagem natural têm permitido que computadores possam processar a linguagem natural e começar a compreender o significado sobre a linguagem humana.” INBENTA. Disponível em: < https://www.inbenta.com/pt/tecnologia/tecnologia-de-linguagem- natural/ >. “Ainda que o processamento de linguagem natural não seja uma ciência nova, essa tecnologia está avançando rapidamente graças ao interesse cada vez maior na comunicação homem-máquina, paralelamente à disponibilidade de big data, computação mais poderosa e algoritmos aprimorados.” SAS. Disponível em: < https://www.sas.com/pt_br/insights/analytics/processamento-de-linguagem- natural.html>. Os textos acima expõem conceitos relacionados ao Processamento de Linguagem Natural (PLN), em relação a esse conceito e suas aplicações é correto afirmar que: A Tem como fundamento compreender o contexto no qual um discurso foi empregado, por meio de análises léxicas, sintáticas, semânticas, etc., como é caso quando deseja-se converter voz em texto. B Basicamente, realiza a análise de texto em grandes volumes de dados, por exemplo, análise de posts no Facebook. A PLN é um campo definitivamente consolidado e, portanto, a comunicação homem-máquina é perfeitamente compreendida. C Pode ser aplicada tanto em análise de dados estruturados como não estruturados e realiza algumas etapas, como a extração semântica no texto que observa padrões de escrita em uma frase. D Um dos campos de aplicação é a análise de sentimentos, ao considerar a questão subjetiva extraindo emoções de um discurso. É um tipo de aplicação ainda pouco consolidada e não possui muitos cases, porém, apresenta grande potencial. 16 17 31/01/2022 11:36 Avaliação da Disciplina 10/12 Além da Internet das Coisas, as pesquisas apontam para o surgimento de diversas outras tendências para análise de Big Data. A respeito disso, classifique V para as sentenças verdadeiras e F para as falsas: ( ) A forma de processamento tradicional dos computadores poderá dar espaço para os computadores quânticos, que prometem alto poder de armazenamento e processamento. ( ) A computação de borda (“Edge Computing”) poderá ou não substituir a computação em nuvem. A ideia é tratar e analisar dados tão logo sejam coletados das fontes, por isso o termo “borda”, ou seja, próximo a elas. ( ) A intensificação do uso de análise preditiva é algo que será percebido ao longo dos anos. A aposta é de que esse campo da Inteligência Artificial seja incorporado nas empresas e se tornará onipresente dentro de seus processos. ( ) A presença dos chatbots é uma outra forte tendência, porque à medida que mais dados chegam e são apresentados a estes robôs, maiores são as chances de aprendizado e automação de tarefas cotidianas. A partir das alternativas abaixo, assinale a CORRETA: A F – V – F – V. B V – F – V – V. C V – V – V – V. D F – V – F – F. Uma das principais vantagens da clusterização baseada em MapReduce é, sem dúvida, a transparência de toda complexidade de implementação envolvida com a distribuição dos dados entre os clusters ou mesmo a capacidade para detectar e corrigir falhas que eventualmente possam ocorrer durante o processo. Relacione as técnicas com os algoritmos que as compõem, associando os itens, conforme o código abaixo: I – Clusterização Paralela. II – Clusterização baseada em MapReduce. 18 31/01/2022 11:36 Avaliação da Disciplina 11/12 ( ) GPMR. ( ) PBIRCH. ( ) MR-DBSCAN. ( ) G-DBSCAN. A partir das alternativas abaixo, assinale a CORRETA: A I – II – II – I. B II – I – II – I. C I – II – I – II. D II – I – I – II. A etapa de pré-processamento de dados é uma das etapas mais custosas do processo, especialmente em dados não estruturados, que são carregados de erros advindos da linguagem humana. Com base nisso, classifique V para as sentenças verdadeiras e F para as falsas: ( ) O processo de Stemming visa extrair um conjunto de palavras-chave em uma sentença. ( ) A remoção de stopwords é necessária para eliminar termos que apenas fazem o elo de ligação entre os elementos do texto. ( ) Erros ortográficos precisam ser corrigidos para melhorar a qualidade dos dados e não penalizar a análise desses dados, é possível realizar essa correção manualmente. ( ) A remoção de números e espaços em branco ou caracteres especiais, muitas vezes, não é necessária, pois não comprometem a análise. 19 31/01/2022 11:36 Avaliação da Disciplina 12/12 ( ) A ‘tokenização’ é o processo de quebrar o texto em tokens e assim extrair termos que podem ser utilizados, por exemplo, para análise de frequência. A partir das alternativas abaixo, assinale a CORRETA: A F – F – F – V – V. B F – V – V – F – V. C F – V – V – V – V. D V – F – V – V – F. Existem diversos métodos tradicionais que podem ser empregados para análise em cluster e são potencialmente interessantes em cenários de baixa complexidade - com quantidade de dados reduzida. Em relação aos métodos hierárquicos é CORRETO afirmar que: A Divide o cluster através de níveis, onde os objetos alocados nos níveis superiores da árvore são mais próximos entre si. B Define aleatoriamente um ponto de partida para o parâmetro K e assim tenta otimizar o resultado ao longo das iterações. C Agrupa um conjunto de pontos de dados em uma estrutura de árvore (dendograma) e fornece boa capacidade para comunicação dos resultados. D Apresenta como vantagem a simplicidade e o fato de ser eficiente, mesmo em situações onde o conjunto de dados é significativo. 20 Imprimir
Compartilhar