Prévia do material em texto
Acerto: 1,0 / 1,0 ANAC 2016 - ANALISTA ADMINISTRATIVO - ANÁLISE DE SISTEMAS /ESAF) Big Data é: Volume + oportunidade + segurança + veracidade, tudo agregando + valor Volume + variedade + agilidade + efetividade, tudo agregando + valor + atualidade Volume + disponibilidade + velocidade + portabilidade, tudo requerendo ¿ valor Dimensão + variedade + otimização + veracidade, tudo agregando + agilidade Volume + variedade + velocidade + veracidade, tudo agregando + valor Respondido em 29/05/2022 12:03:49 Explicação: A proposta de uma solução de Big Data é oferecer uma abordagem consistente no tratamento do constante crescimento e da complexidade dos dados. Para tanto, o conceito considera os 5 V¿s do Big Data: o Volume, a Velocidade, a Variedade, a Veracidade e o Valo Acerto: 1,0 / 1,0 Com relação aos fundamentos e aos conceitos de Big Data, julgue os itens a seguir. I - O volume de dados é uma característica importante de Big Data. II - Em Big Data, a qualidade do dado não tem importância, porque a transformação dos dados não impacta os negócios. III - A característica de velocidade de entrada dos dados impacta o modelo de processamento e armazenamento. IV - A variedade dos dados não é característica intrínseca nos fundamentos de Big Data. Estão certos apenas os itens I e II II, III e IV I e III I, III e IV II e IV Respondido em 29/05/2022 12:01:12 Acerto: 1,0 / 1,0 Bancos de Dados não relacionais, também conhecidos como NoSQL, surgiram para armazenar dados não estruturados, usando modelos de armazenamento específicos para os tipos de dados que são armazenados, usualmente, fugindo do padrão de armazenamento de linhas e colunas dos bancos de dados tradicionais. Em relação ao Banco de Dados NoSQL, quais são as categorias consideradas para esse tipo de armazenamento? Banco de dados orientados a linha; Normalização; Banco de dados orientados a coluna Banco de dados de grafos; Banco de dados orientados a linha; Formas normais de armazenamento Primeira forma normal; Banco de dados orientados a documentos; Normalização Armazéns chave-valor; Normalização; Banco de dados orientados a coluna Armazéns chave-valor; Banco de dados orientados a documentos; Banco de dados de grafos Respondido em 29/05/2022 12:04:52 Acerto: 1,0 / 1,0 O conceito de computação em nuvem (em inglês, cloud computing) refere-se: Ao protocolo de comunicação da comada de aplicação utilizado para sistemas de informação de hipermídia, distribuídos e colaborativos, representando a base para a comunicação de dados da World Questão1a Questão2a Questão3a Questão4a Wide Web Ao armazenamento de dados feito em serviços que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, havendo necessidade de instalação de programas ou, por vezes, de armazenar dados À tecnologia de comunicação de dados que permite uma transmissão de dados mais rápida através de linhas de telefone do que um modem convencional pode oferecer, sendo os dados transmitidos mais rapidamente em uma direção do que na outra, assimetricamente Ao programa que habilita seus usuários a interagirem com documentos HTML hospedados em um servidor da rede, destacando-se na era da web 2.0, uma vez que quase tudo do que se necessita está online À utilização da memória e da capacidade de armazenamento e cálculo de computadores e servidores compartilhados e interligados por meio da Internet, seguindo o princípio da computação em grade Respondido em 29/05/2022 12:05:32 Acerto: 1,0 / 1,0 Existem algoritmos de análise que têm como objetivo utilizar atributos de um objeto para prever um valor numérico contínuo. Esses algoritmos são do tipo: Agrupamento Regressão Associação Classificação Sumarização Respondido em 29/05/2022 12:07:45 Explicação: Regressão Acerto: 1,0 / 1,0 Existe uma série de ferramentas para visualização de dados. Algumas delas foram desenvolvidas para serem utilizadas no software R. Marque a opção em que SOMENTE há exemplos de recursos do software R. Ploty e rcmdr Matplotlib e pentaho Shiny e graphX MarkLogic e graphX Power BI e plotly Respondido em 29/05/2022 12:08:09 Acerto: 1,0 / 1,0 Com referência a Big Data, assinale a opção correta. O sistema de arquivos distribuído Hadoop implementa o algoritmo Dijkstra modificado para busca irrestrita de dados em árvores aglomeradas em clusters com criptografia. O MapReduce é considerado um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído. Em Big Data, o sistema de arquivos HDFS é usado para armazenar arquivos muito grandes de forma distribuída, tendo como princípio o write-many, read-once. Para armazenar e recuperar grande volume de dados, Big Data utiliza bancos SQL nativos, que são bancos de dados que podem estar configurados em quatro tipos diferentes de armazenamentos: valor chave, colunar, gráfico ou documento. A definição mais ampla de Big Data restringe o termo a duas partes ¿ o volume absoluto e a velocidade ¿, o que facilita a extração das informações e dos insights de negócios. Respondido em 29/05/2022 12:12:18 Questão5a Questão6a Questão7a Acerto: 1,0 / 1,0 O Sqoop foi projetado para transferir dados entre sistemas de gerenciamento de banco de dados relacional e o Hadoop. Ele automatiza a maior parte do processo de transformação de dados e realiza as importações e exportação via: Nimbus Spouts JDBC ResourceManager HQL Respondido em 29/05/2022 12:08:52 Explicação: JDBC Acerto: 1,0 / 1,0 (TRT - 11ª Região AM e RR 2016) Um dos servidores computacionais do TRT utiliza o esquema de armazenamento RAID 1 no qual os dados são armazenados de forma: espelhada entre os discos para aumentar a confiabilidade. fracionada com a paridade armazenada de forma distribuída nos discos. fracionada em setores com a paridade armazenada em um disco dedicado. distribuída nos discos para aumentar o desempenho. fracionada byte a byte com a paridade armazenada em um disco dedicado. Respondido em 29/05/2022 12:09:19 Explicação: Espelhada entre os discos para aumentar a confiabilidade. Acerto: 1,0 / 1,0 Marque a opção que melhor descreve as funcionalidades de GraphX. Framework desenvolvido para coletar, agregar e mover grandes volumes de dados de várias fontes distintas para o conjunto de dados distribuídos resilientes do Spark; Ferramenta especializada em otimizar o processamento de dados em cluster através da divisão de jobs em pequenas tarefas relacionadas. Tais relacionamentos são expressos através de grafos direcionados acíclicos que são executadas em paralelo; Conjunto de bibliotecas com funcionalidades para agregar, comparar e unir dados heterogêneos. Conjunto de bibliotecas de alto nível que fornecem uma abstração para consultar um conjunto de dados em cache como se fossem tabelas de um bando de dados relacional; Framework que simplifica as tarefas de análise de gráficos, fornece a capacidade de realizar operações em grafos direcionados e com propriedades anexadas a cada vértice e aresta; Respondido em 29/05/2022 12:09:43 Questão8a Questão9a Questão10a Explicação: Framework que simplifica as tarefas de análise de gráficos, fornece a capacidade de realizar operações em grafos direcionados e com propriedades anexadas a cada vértice e aresta.