Buscar

SIMULADO AV - ARQUITETURA DE DATA WAREHOUSE E DATA MARTS

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Disc.: ARQUITETURA DE DATA WAREHOUSE E DATA MARTS 
Acertos: 10,0 de 10,0 07/10/2021
Acerto: 1,0 / 1,0
Metadados são dados de mais alto nível, que descrevem dados de um nível inferior. Eles
expressam significado sobre os dados. Devido à sua importância para um projeto de DW/DM
o Metadados deve:
Ser criado somente para a abordagem utilizada no desenvolvimento for a Top-Down.
Ser criado no final do projeto para não impactar no desenvolvimento das atividades arquiteturais.
Ser criado somente se o Data Warehouse buscar dados de vários sistemas fontes e deve ser atualizado sempre
que um novo sistema for utilizado como fonte.
Ser definido e criado no início do projeto, não havendo necessidade de atualizá-lo.
 Ser criado ao longo do projeto de forma incremental.
Respondido em 07/10/2021 15:41:32
Explicação:
Ser criado ao longo do projeto de forma incremental.
Acerto: 1,0 / 1,0
Kimball afirma que um bom planejamento e definição bem elaborada dos requisitos aumentam a probabilidade de
sucesso de um projeto de Data Warehouse, pois:
Após a conclusão do projeto do DW/DM não é possível fazer manutenções ou adicionar novos módulos ao
ambiente.
Seu desenvolvimento é baseado nos sistemas transacionais de onde os dados serão extraídos.
 Seu desenvolvimento é baseado nas necessidades dos usuários do negócio.
O levantamento de requisitos identifica as consultas que serão apresentadas no ambiente analítico.
Seu desenvolvimento é baseado em experiências empíricas e nas necessidades que podem surgir no futuro.
Respondido em 07/10/2021 15:41:37
Acerto: 1,0 / 1,0
 Questão11a
 Questão22a
 Questão33a
(CESPE - 2018 - TCM-BA - Auditor Estadual de Controle Externo.)
Acerca de modelagem dimensional assinale a opção correta.
No modelo Estrela, as dimensões são normalizadas para tornar mais ágeis as consultas analíticas.
Os Fatos e Dimensões não são tabelas do banco de dados, pois, no modelo dimensional, são componentes do
cubo de um Data Warehouse.
O modelo Floco-de-Neve (SnowFlake) aumenta o espaço de armazenamento dos dados dimensionais, pois
acrescenta várias tabelas ao modelo, todavia torna mais simples a navegação por softwares que utilizarão o
banco de dados.
 As granularidades fundamentais para classificar todas as tabelas Fato de um modelo dimensional são:
transacional, snapshot periódico e snapshot acumulado.
Os códigos e as descrições associadas, usadas como nomes de colunas em relatórios e como filtros em
consultas, não devem ser gravados em tabelas dimensionais.
Respondido em 07/10/2021 15:41:42
Explicação:
As granularidades fundamentais para classificar todas as tabelas Fato de um modelo dimensional são: transacional,
snapshot periódico e snapshot acumulado.
Acerto: 1,0 / 1,0
CESPE - 2012 - TJ-RO - Analista Judiciário - Análise de Sistemas ¿ Desenvolvimento.
Assinale a opção correta acerca de elementos básicos de data warehouse (presentation area, staging area, data source
e data access) e de extract transformation load (ETL).
 
Para maior confiabilidade em ETL, a importação de dados para o data ware house deve ser limitada a apenas
uma fonte de dados (data source).
 Define-se staging area como tudo o que existe entre a fonte de dados (data source) e a área de apresentação
(presentation area).
A limpeza e a combinação de dados devem ser realizadas na área de apresentação (presentation area), antes
da área de acesso a dados (data access).
 
Os dados são efetivamente organizados e armazenados em staging area, sendo disponibilizados para consulta
pelas ferramentas da área de acesso a dados (data access).
As ferramentas ad hoc de consulta de dados, presentes na área de acesso aos dados, possibilitam, se
necessário, o acesso aos dados diretamente da staging area ou mesmo na fonte de dados.
Respondido em 07/10/2021 15:41:46
Explicação:
Define-se staging area como tudo o que existe entre a fonte de dados (data source) e a área de apresentação
(presentation area).
Acerto: 1,0 / 1,0
(CESGRANRIO - 2012 - LIQUIGÁS - Profissional Júnior - Administração de Banco de Dados)
 Questão44a
 Questão55a
Considere o sistema de Data Warehouse para responder à questão.
Definições do sistema Data Warehouse:
. Tempo (hierarquia dada por semana, mês e ano).
. Item (hierarquia dada por produto, família de produtos, marca).
. Local (hierarquia dada por loja, cidade, estado, região).
Sejam as seguintes consultas OLAP pedidas pelo cliente:
I - Vendas semestrais de dois tipos de produtos específicos por região.
II - Vendas diárias de uma marca em uma cidade.
III - Vendas mensais por família de produtos por bairro.
IV - Vendas trimestrais por família de produtos de duas regiões diferentes.
De acordo com a hierarquia definida no sistema, são possíveis APENAS as consultas pedidas em:
I, III e IV
I e II
 I e IV
II e IV
III e IV
Respondido em 07/10/2021 15:41:50
Acerto: 1,0 / 1,0
(CESGRANRIO - 2010 - Petrobrás - Analista de Sistemas Júnior - Processos de Negócios.)
No contexto de Data Warehouses, o processo de Extração, Transformação e Carga (ETC):
 
Leva em consideração o modelo conceitual de dados das fontes de dados, que é geralmente expresso como
modelo entidade-relacionamento.
Revela-se como uma das etapas importantes do processo de criação do Data Warehouse, já que sua função é
obter automaticamente os conhecimentos necessários para a padronização dos dados em modelos
multidimensionais.
Produz, ao seu término, uma série de tabelas (chamadas Fatos) que caracterizam-se por possuírem dados
normalizados até a 3ª forma normal.
 Apresenta, como algumas de suas tarefas, filtragem, integração, conversão, condensação e derivação dos
dados de entrada, que podem ser originários de diversas fontes, inclusive externas aos sistemas OLTP da
organização.
Considera somente os dados provenientes de sistemas OLTP como válidos para o processo e, caso exista a
necessidade de consideração de dados externos, estes devem ser importados para os sistemas legados.
Respondido em 07/10/2021 15:43:03
Acerto: 1,0 / 1,0
(FCC - 2018 - DPE-AM - Analista em Gestão Especializado de Defensoria - Analista de Banco de Dados)
Sobre o processo de ETL aplicado a Data Warehouse é correto afirmar que:
 
 A fase de transformação consiste em realizar modificações nos dados carregados, adequando seus valores ao
modelo definido para o Data Warehouse.
A fase de carga de dados visa eliminar valores nulos contidos nos bancos de dados transacionais da empresa.
A fase de extração de dados consiste em obter os dados do servidor do Data Warehouse.
A fase de carga de dados consiste em inserir os dados transformados nos bancos de dados transacionais da
empresa.
 Questão66a
 Questão77a
As fases de extração e carga de dados são realizadas de forma simultânea.
Respondido em 07/10/2021 15:47:02
Acerto: 1,0 / 1,0
Sobre ETL (Extract, TransformandLoad), é correto afirmar que:
 
Na fase de transformação dos dados não devem ser corrigidos erros de digitação ou descoberta de violações de
integridade, por exemplo, para os dados serem mantidos como os originais.
Concentra a menor parte do esforço exigido no desenvolvimento de um Data Warehouse.
Não necessariamente os dados necessitam ficar homogêneos para serem carregados no Data Warehouse, pois
uma das funções deste último é resolver os conflitos que não foram resolvidos pela ETL.
 É o processo para tratamento dos dados de uma ou mais bases de dados de origem, para uma ou mais bases
de dados de destino.
A extração e a carga são opcionais no processo, porém a transformação é obrigatória.
Respondido em 07/10/2021 15:48:09
Acerto: 1,0 / 1,0
FCC Instituições: TRT - 15ª Região Provas: Analista Judiciário ¿ Tecnologia da Informação
No contexto de Business Intelligence, os sistemas OLAP e OLTP se diferenciam em diversas características. Na
tabela a seguir, no que diz respeito às características, está INCORRETO:
Característica - Volatilidade. /OLAP - Dados históricos e não voláteis que praticamentenão sofrem alterações salvo em casos
específicos motivados por erros ou inconsistências. / OLTP -Dados voláteis, passíveis de modificação e exclusão.
Característica - Estrutura dos dados. /OLAP - Armazenamento feito em Data Warehouse com otimização no desempenho em
grandes volumes de dados. / OLTP - Armazenamento feito em bancos de dados convencionais pelos sistemas de informação
da organização.
Característica - Tipo de permissões nos dados. /OLAP - É permitido apenas inserção e leitura. Para o usuário está disponível
apenas a leitura. / OLTP - Podem ser feitas leitura, inserção, modificação e exclusão de dados.
 Característica - Foco. /OLAP - Nível operacional da organização. Visa a execução operacional do negócio. / OLTP - Nível
estratégico da organização. Visa a análise empresarial e tomada de decisão.
Característica - Performance. /OLAP - Otimização para leitura e geração de análise e relatórios gerenciais.
/ OLTP - Alta velocidade na manipulação de dados operacionais, porém ineficiente para geração de
análises gerenciais.
Respondido em 07/10/2021 15:50:09
Explicação:
Característica - Foco. /OLAP - Nível operacional da organização. Visa a execução operacional do negócio. / OLTP - Nível estratégico da
 Questão88a
 Questão99a
organização. Visa a análise empresarial e tomada de decisão.
Acerto: 1,0 / 1,0
(FCC - 2014 - TCE-GO - Analista de Controle Externo - Tecnologia da Informação.)
As ferramentas OLAP permitem efetuar a exploração dos dados de um Data Warehouse (DW). Em relação a este tema
é correto afirmar que:
As operações slice and dice realizam a alteração nos dados do DW modificando o nível de granularidade da
consulta.
Para navegar nas dimensões do DW são utilizadas as operações drill, que não afetam o nível de granularidade
da consulta.
O resultado das operações OLAP não permite a descoberta de tendências e cenários; isso é possível por meio
de sistemas ERP, capazes de transformar dados do DW em informações estratégicas.
A análise multidimensional representa os dados como tabelas, de forma semelhante aos bancos de dados
relacionais.
 Combinando as dimensões, o usuário tem uma visão dos dados de um DW, podendo efetuar operações básicas
como slice and dice, drill down e roll up.
Respondido em 07/10/2021 15:51:18
 Questão1010a

Continue navegando

Outros materiais