Buscar

GABARITO TEORIAS ANALÍTICAS AVANÇADAS

Prévia do material em texto

Disc.: TEORIAS ANALÍTICAS AVANÇADAS 
 Professor: DENIS GONCALVES COPLE
 Turma: 9001/AA 
 
 
Avaliação: 
4,80 
Nota Trab.: 
4 
Nota Partic.: 
1,0 
Nota SIA: 
 
 
 
 1. Ref.: 2977603 Pontos: 0,60 / 0,60 
 
A virtualização possui três características importantes que suportam a escalabilidade e a eficiência operacional exigidas 
por ambientes em Big Data. Quais são essas características? 
 
 
Armazenamento distribuído, Empilhamento contínuo e Velocidade em processamento. 
 
Paridade, Prioridade e Eficiência de equipamento; 
 
Compartilhamento, Fracionamento e Empilhamento; 
 
Espelhamento, Convergência e Distribuição; 
 Particionamento, Isolamento e Encapsulamento; 
Respondido em 23/11/2020 16:11:11 
 
 
 2. Ref.: 2977613 Pontos: 0,60 / 0,60 
 
O que você entendeu sobre internet das coisas? 
 
 
São qualquer coisa (equipamentos eletrônicos, sapatos, carros entre outros) dotados de mecanismos eletrônicos capazes de se 
conectar à internet a fim de trocar, registrar e divulgar informações. 
 
São qualquer computador que se pode acessar a internet; 
 
São automóveis dotados de mecanismos eletrônicos capazes de operar independentemente da interferência humana; 
 
São quaisquer dispositivos que possam receber dados da internet tais como: tablets, pen drives, entre outros; 
 
São qualquer coisa que se plug na tomada para acessar a internet; 
Respondido em 23/11/2020 16:14:38 
 
 
 3. Ref.: 1106271 Pontos: 0,00 / 0,60 
 
O Hadoop Distributed File System (HDFS), um subprojeto do projeto Apache Hadoop, é um sistema de arquivos 
altamente tolerante a falhas projetado para executar em hardware padrão de baixo custo. Qual o tamanho do bloco 
padrão do HDFS? 
 
 64M 
 
128K 
 
4M 
 
64K 
 128M 
Respondido em 23/11/2020 16:16:58 
 
 
 4. Ref.: 997148 Pontos: 0,60 / 0,60 
 
Qual a real diferença entre um processo de Big Data e um BI? 
 
 
BI é um mecanismo de TI que permite se conectar ao mundo exterior através da interner para coletar dados irrelevantes para a 
corporação enquanto que o Big Data se conecta a internet para obter dados relevantes; 
 
BI é um mecanismo de coleta de dados homogêneo que permite a tomada de decisão enquanto que o Big Data são mecanismo 
de coleta de dados heterogêneos; 
 
BI é um mecanismo de TI que permite traçar resultados para a tomada de decisão, enquanto que Big Data é um mecanismo que 
além de permitir a tomada de decisão oferece sugestões, tendências e padrões nos quais podem sofrer mudança dinamicamente; 
 
BI é um mecanismo de Data Warehouse que une várias informações num único lugar enquanto que Big Data, são grandes 
volumes de dados centralizados num único lugar; 
 
BI é um mecanismo de busca que pesquisa dada na internet enquanto que o Big Data busca esses dados dentro da corporação, 
sistemas operacionais e banco de dados. 
Respondido em 23/11/2020 16:19:12 
 
 
 5. Ref.: 1106269 Pontos: 0,00 / 0,60 
 
Apache Hadoop inclui outros componentes muito úteis para ETL. Um destes componentes é um sistema distribuído para 
a coleção, agregação, e transferência de grandes quantidades de dados de várias fontes para HDFS. Qual o componente 
que pode ser assim caracterizado? 
 
 Flume 
 Hive 
 
Pig 
 
Sqoop 
 
MapReduce 
Respondido em 23/11/2020 16:23:22 
 
 
 6. Ref.: 997079 Pontos: 0,60 / 0,60 
 
As pilhas de infraestrutura que devem ser levadas em consideração num processo de Big Data são: 
 
 
Infraestrutura segregada e compartilhada e armazenamento semântico; 
 
Sistema de Arrefecimento interno e externo, Sistema de Iluminação e refrigeração; 
 
Infraestrutura física redundante, de segurança, Base de Dados Operacionais, Serviços de Organização de Dados e Ferramentas e 
Armazém de Dados Analíticos. 
 
Conjunto de Servidores interligados a Gigabits, Racks inteligentes e monitoráveis remotos; 
 
Datacenter, Link de acesso remoto e Storage distribuído; 
Respondido em 23/11/2020 16:23:55 
 
 
 7. Ref.: 997137 Pontos: 0,60 / 0,60 
 
Como o HBase armazena os registros? 
 
 
Famílias de blobs; 
 
Em tipos e em colunas; 
 
Em blobs e bytes. 
 Em bytes e famílias de colunas; 
 
Em blobs e diretórios; 
Respondido em 23/11/2020 16:24:48 
 
 
 8. Ref.: 2977608 Pontos: 0,60 / 0,60 
 
O que vem a ser ETL? 
 
 
Explorar, transmitir e Lidar, com arquivos externos e desestruturados para integrar num Big Data; 
 
Extrair, Transformar e Ler (Carga) dados de vários ambientes e direcioná-los para um ambiente de Datawarehousing ou Big 
Data; 
 
Extrair, transmitir e Ler informações de um ambiente relacional em tempo real; 
 
Examinar, transformar e Lidar com grandes volumes de dados num Big Data; 
 
Examinar, traduzir e Localizar arquivos armazenados em bases de dados heterogêneas. 
Respondido em 23/11/2020 16:34:25 
 
 
 9. Ref.: 2977605 Pontos: 0,60 / 0,60 
 
Base de dados gráficas são bases: 
 
 
São endereçados por pastas e ponteiros; 
 
São registrados numa API; 
 
São documentacionais e registrados em RDBMS. 
 
São direcionados para vetores e ponteiros; 
 Que não são possíveis seus armazenamentos em RDBMS; 
Respondido em 23/11/2020 16:35:24 
 
 
 10. Ref.: 997115 Pontos: 0,60 / 0,60 
 
Como podemos definir uma plataforma de transmissão de dados num processo de Big Data? 
 
 
É uma plataforma de computação semântica que está focada em veracidade; 
 
É uma plataforma de computação analítica sem nenhum requisito a mais. 
 É uma plataforma de computação analítica que está focada em velocidade; 
 
É uma plataforma de computação semântica que está focada em velocidade; 
 
É uma plataforma de computação analítica que está focada em veracidade; 
Respondido em 23/11/2020 16:36:54 
 
 
 
Anotações: Avaliação realizada no navegador SIA.

Continue navegando