Tecnologias da Informação — 136 questão(ões)
#661
ME
Dif. 2
(FCC – 2020 – AL-AP – Analista Legislativo – Desenvolvedor de Sistemas)
Duas definições de estruturas de dados estão determinadas para um projeto de datamart de uma loja de varejo: uma delas (tabela A) contém a data da venda, a identificação do produto vendido, a quantidade vendida do produto no dia e o valor total das vendas do produto no dia; a outra (tabela B) contém a identificação do produto, nome do produto, marca, modelo, unidade de medida de peso, largura, altura e profundidade da embalagem.
Considerando os conceitos de modelagem multidimensional de data warehouse, as tabelas A e B são, respectivamente:
Duas definições de estruturas de dados estão determinadas para um projeto de datamart de uma loja de varejo: uma delas (tabela A) contém a data da venda, a identificação do produto vendido, a quantidade vendida do produto no dia e o valor total das vendas do produto no dia; a outra (tabela B) contém a identificação do produto, nome do produto, marca, modelo, unidade de medida de peso, largura, altura e profundidade da embalagem.
Considerando os conceitos de modelagem multidimensional de data warehouse, as tabelas A e B são, respectivamente:
- A) Query e Réplica
- B) Fato e Dimensão
- C) Dimensão e Réplica
- D) Fato e ETL
- E) ETL e Query
#660
ME
Dif. 2
(FCC – 2019 – SANASA Campinas – Analista de Tecnologia da Informação – Suporte de DBA / Banco de Dados) Considere que a SANASA busca realizar a gestão de recursos hídricos subterrâneos com base em parâmetros conhecidos que determinam a poluição das águas subterrâneas. Um desses parâmetros, para exemplificar, seria o nitrato, um indicador de poluição difusa de água subterrânea.
Criando-se regras para realizar o aprendizado supervisionado do sistema de Data Mining, utilizando-se uma certa técnica, chegar-se-á a um resultado que considera os diversos parâmetros para se descobrir se um certo aquífero tem água potável ou não, comparando-se com uma definição conhecida.
Nesse cenário, a técnica aplicada é denominada
Criando-se regras para realizar o aprendizado supervisionado do sistema de Data Mining, utilizando-se uma certa técnica, chegar-se-á a um resultado que considera os diversos parâmetros para se descobrir se um certo aquífero tem água potável ou não, comparando-se com uma definição conhecida.
Nesse cenário, a técnica aplicada é denominada
- A) Associação.
- B) Classificação.
- C) Clustering.
- D) Regressão.
- E) Prediction.
#659
ME
Dif. 2
(FCC – 2020 – AL-AP – Analista Legislativo – Desenvolvedor de Sistemas)
No contexto de data mining, considere o caso hipotético a seguir:
Uma financeira possui o histórico de seus clientes e o comportamento destes em relação ao pagamento de empréstimos contraídos previamente. Existem dois tipos de clientes: adimplentes e inadimplentes. Estas são as categorias do problema (valores do atributo alvo).
Uma aplicação de mining, neste caso, consiste em descobrir uma função que mapeie corretamente os clientes, a partir de seus dados (valores dos atributos previsores), em uma destas categorias. Tal função pode ser utilizada para prever o comportamento de novos clientes que desejem contrair empréstimos junto à financeira.
Esta função pode ser incorporada a um sistema de apoio à decisão que auxilie na filtragem e na concessão de empréstimos somente a clientes classificados como bons pagadores.
Trata-se de uma atividade denominada
No contexto de data mining, considere o caso hipotético a seguir:
Uma financeira possui o histórico de seus clientes e o comportamento destes em relação ao pagamento de empréstimos contraídos previamente. Existem dois tipos de clientes: adimplentes e inadimplentes. Estas são as categorias do problema (valores do atributo alvo).
Uma aplicação de mining, neste caso, consiste em descobrir uma função que mapeie corretamente os clientes, a partir de seus dados (valores dos atributos previsores), em uma destas categorias. Tal função pode ser utilizada para prever o comportamento de novos clientes que desejem contrair empréstimos junto à financeira.
Esta função pode ser incorporada a um sistema de apoio à decisão que auxilie na filtragem e na concessão de empréstimos somente a clientes classificados como bons pagadores.
Trata-se de uma atividade denominada
- A) sumarização.
- B) descoberta de associações.
- C) classificação.
- D) descoberta de sequências.
- E) previsão de séries temporais.
#658
ME
Dif. 2
(FCC – 2018 – SABESP – Analista de Gestão – Sistemas) O conceito de Data Mining descreve
- A) o uso de teorias, métodos, processos e tecnologias para organizar uma grande quantidade de dados brutos para identificar padrões de comportamentos em determinados públicos.
- B) o conjunto de métodos, tecnologias e estratégias para atração voluntária de visitantes, buscando a conversão consistente de leads em clientes (realização de compra).
- C) as atividades coordenadas de modo sistemático por uma determinada organização para relacionamento com os seus distintos públicos, bem como com outras organizações, sejam públicas, privadas ou não governamentais.
- D) o conjunto de tarefas e processos, organizados e sistematizados, normalmente com o uso de uma plataforma tecnológica (hardware e software, ou até mesmo em cloud computing) para a gestão do relacionamento com clientes.
- E) o trabalho de produzir levantamento sobre os hábitos de consumo de mídia de um determinado público, identificando horários, tempo gasto etc., associando ao perfil socioeconômico, potencial de consumo, persuasão etc.
#657
ME
Dif. 2
(FCC – 2019 – SEFAZ-BA – Auditor Fiscal – Tecnologia da Informação – Prova II) “A Secretaria da Fazenda realizou procedimento que visa estimular os contribuintes paulistas a, voluntariamente, regularizarem as obrigações tributárias que devem ser transmitidas ao Fisco. Em uma etapa da operação foram selecionados 48 contribuintes do Regime Periódico de Apuração com R$ 143 milhões em débitos de ICMS.
Esta ação tem caráter orientador, com o objetivo de alertar as empresas sobre divergências em suas declarações e indicar a regularização, porém, a ação pode resultar em indicações de empresas de fachada que apresentaram um conjunto de indícios que sugerem tratar-se de documentos fiscais inidôneos ou de simulação de operações para gerar créditos falsos de ICMS na apuração mensal do tributo a recolher.
Para a elaboração da operação de autorregularização foram selecionados contribuintes com divergências nas notas fiscais emitidas entre janeiro a dezembro de 2016 em comparação com as informações declaradas nas Guias de Informação e Apuração do ICMS do mesmo período.”
(Baseado em: https://portal.fazenda.sp.gov.br)
Ao ler esta notícia, uma Auditora Fiscal da área de TI concluiu, corretamente, que o cruzamento e a análise simultânea de diversas informações, como Nota Fiscal Eletrônica (NF-e), inadimplência, regularidade no cumprimento de obrigações, porte da empresa, composição do quadro societário, autos de infração anteriores, localização geográfica e atividade econômica, entre outras,
Esta ação tem caráter orientador, com o objetivo de alertar as empresas sobre divergências em suas declarações e indicar a regularização, porém, a ação pode resultar em indicações de empresas de fachada que apresentaram um conjunto de indícios que sugerem tratar-se de documentos fiscais inidôneos ou de simulação de operações para gerar créditos falsos de ICMS na apuração mensal do tributo a recolher.
Para a elaboração da operação de autorregularização foram selecionados contribuintes com divergências nas notas fiscais emitidas entre janeiro a dezembro de 2016 em comparação com as informações declaradas nas Guias de Informação e Apuração do ICMS do mesmo período.”
(Baseado em: https://portal.fazenda.sp.gov.br)
Ao ler esta notícia, uma Auditora Fiscal da área de TI concluiu, corretamente, que o cruzamento e a análise simultânea de diversas informações, como Nota Fiscal Eletrônica (NF-e), inadimplência, regularidade no cumprimento de obrigações, porte da empresa, composição do quadro societário, autos de infração anteriores, localização geográfica e atividade econômica, entre outras,
- A) caracterizam-se como operações MOLAP, que usam a base de dados relacional para acessar os dados do cubo.
- B) caracterizam-se como operações HOLAP, que não usam a base de dados relacional para acessar os dados do cubo.
- C) podem ter sido realizados com a ajuda de ferramentas de Data Marts integrados, que não requerem a construção de um Data Warehouse.
- D) podem ter sido realizados com ferramentas de Data Mining em tempo real, uma vez que os dados do Data Warehouse são constantemente atualizados a partir da chave de tempo que indica o dia no qual os dados foram extraídos dos sistemas transacionais.
- E) podem ter sido realizados com a ajuda de ferramentas de Data Mining, que permitem a exploração de grandes volumes de dados para identificar padrões de comportamento e relacionamentos.
#656
ME
Dif. 2
(FCC – 2018 – SABESP – Técnico em Gestão 01 – Informática) Um Técnico executou uma operação de visualização OLAP que rotacionou os eixos de um determinado cubo, provendo uma visão alternativa dos dados, ou seja, permitindo a visão de suas várias faces. Ele executou a operação
- A) slice.
- B) dice.
- C) drill across.
- D) pivot.
- E) roll up.
#655
ME
Dif. 2
(FCC – 2018 – SEFAZ-SC – Auditor-Fiscal da Receita Estadual – Auditoria e Fiscalização – Prova 3)
Atenção: Para responder à questão, considere o seguinte caso hipotético:
Um Auditor da Receita Estadual pretende descobrir, após denúncia, elementos que possam caracterizar e fundamentar a possível existência de fraudes, tipificadas como sonegação tributária, que vêm ocorrendo sistematicamente na arrecadação do ICMS. A denúncia é que, frequentemente, caminhões das empresas Org1, Org2 e Org3 não são adequadamente fiscalizados nos postos de fronteiras. Inobservâncias de procedimentos podem ser avaliadas pelo curto período de permanência dos caminhões dessas empresas na operação de pesagem, em relação ao período médio registrado para demais caminhões.
Para caracterizar e fundamentar a existência de possíveis fraudes, o Auditor deverá coletar os registros diários dos postos por, pelo menos, 1 ano e elaborar demonstrativos para análises mensais, trimestrais e anuais.
O Auditor poderá fazer análises de pesagens diversas a partir de operações feitas sobre o cubo de dados multidimensional do Data Warehouse, por exemplo, trocar a ordem, ou aumentar ou diminuir a granularidade dos dados em análise, entre outras, como é o caso do uso da operação OLAP.
Assinale a alternativa correta.
Atenção: Para responder à questão, considere o seguinte caso hipotético:
Um Auditor da Receita Estadual pretende descobrir, após denúncia, elementos que possam caracterizar e fundamentar a possível existência de fraudes, tipificadas como sonegação tributária, que vêm ocorrendo sistematicamente na arrecadação do ICMS. A denúncia é que, frequentemente, caminhões das empresas Org1, Org2 e Org3 não são adequadamente fiscalizados nos postos de fronteiras. Inobservâncias de procedimentos podem ser avaliadas pelo curto período de permanência dos caminhões dessas empresas na operação de pesagem, em relação ao período médio registrado para demais caminhões.
Para caracterizar e fundamentar a existência de possíveis fraudes, o Auditor deverá coletar os registros diários dos postos por, pelo menos, 1 ano e elaborar demonstrativos para análises mensais, trimestrais e anuais.
O Auditor poderá fazer análises de pesagens diversas a partir de operações feitas sobre o cubo de dados multidimensional do Data Warehouse, por exemplo, trocar a ordem, ou aumentar ou diminuir a granularidade dos dados em análise, entre outras, como é o caso do uso da operação OLAP.
Assinale a alternativa correta.
- A) drill down, que permite ao Auditor aumentar o nível de detalhe de análise das informações de pesagens.
- B) drill off, que permite ao Auditor mudar o foco dimensional de análise das informações de pesagens.
- C) pivot, que permite ao Auditor pular um intervalo dimensional de análise das informações de pesagens.
- D) drill across, que permite ao Auditor mudar o escopo de análise das informações de pesagens, filtrando e rearranjando determinadas partes do cubo de dados.
- E) roll out, que permite ao Auditor diminuir o nível de detalhe de análise das informações de pesagens.
#654
ME
Dif. 2
(FCC – 2018 – Câmara Legislativa do Distrito Federal – Consultor Técnico Legislativo – Analista de Sistemas – Área)
Em um Data Warehouse de uma hipotética aplicação da Câmara Legislativa, um usuário elaborou análises a partir de dados armazenados, envolvendo: quantidade de votos coletados por região geográfica durante certo período de tempo. A visão que ele dispunha, inicialmente, para as dimensões região e tempo eram, respectivamente, cidade e trimestre. Em uma primeira análise, detalhou a informação solicitada para obter os dados mês a mês (1º nível hierárquico abaixo de trimestre). Em uma segunda análise, agregou os dados de cidade para estado da federação (1º nível hierárquico acima de cidade). Em uma terceira análise, trocou de posição os eixos tempo e região para obter uma visão alternativa. As análises On-line Analytical Processing (OLAP) aplicadas sobre o cubo de dados foram, respectivamente,
Em um Data Warehouse de uma hipotética aplicação da Câmara Legislativa, um usuário elaborou análises a partir de dados armazenados, envolvendo: quantidade de votos coletados por região geográfica durante certo período de tempo. A visão que ele dispunha, inicialmente, para as dimensões região e tempo eram, respectivamente, cidade e trimestre. Em uma primeira análise, detalhou a informação solicitada para obter os dados mês a mês (1º nível hierárquico abaixo de trimestre). Em uma segunda análise, agregou os dados de cidade para estado da federação (1º nível hierárquico acima de cidade). Em uma terceira análise, trocou de posição os eixos tempo e região para obter uma visão alternativa. As análises On-line Analytical Processing (OLAP) aplicadas sobre o cubo de dados foram, respectivamente,
- A) drill-down – roll-up e pivot.
- B) slice – pivot e drill-down.
- C) roll-up – drill-across e drill-within.
- D) holl-up – drill-down e drill-across.
- E) drill-trought – holl-up e pivot.
#653
ME
Dif. 2
(FCC – 2019 – TRF – 4ª Região – Analista Judiciário – Sistemas de Tecnologia da Informação) Utilizando operações típicas de On-line Analytical Processing (OLAP), um Analista pretende obter dados para análise bimestral dos processos da cidade de Porto Alegre. Considerando que essa busca implica obter um nível maior de detalhe, uma vez que foca em um bimestre de uma dada cidade e não em um ano de todo o estado, por exemplo, a operação OLAP ideal para ser utilizada é
- A) slice.
- B) rotation.
- C) drill-down.
- D) roll-up.
- E) dice.
#652
ME
Dif. 2
(FCC – 2019 – SANASA Campinas – Analista de Tecnologia da Informação – Suporte de DBA – Banco de Dados) Considere que uma Analista de TI realizou uma operação de análise multidimensional em um Data Warehouse (DW), operando em condições ideais, usando uma ferramenta OLAP. Após analisar os dados dos meses do 1º trimestre de 2018, relativos ao tratamento de água da estação ETA1, a Analista aumentou o nível de granularidade da informação para observar os dados de todos os 4 trimestres do mesmo ano da mesma estação. A Analista realizou uma operação
- A) drill down.
- B) roll down.
- C) drill up.
- D) drill across.
- E) roll through.
#651
ME
Dif. 2
(FCC – 2019 – SANASA Campinas – Analista de Tecnologia da Informação – Suporte de DBA – Banco de Dados) Considere que um Analista da SANASA está usando uma ferramenta OLAP para realizar uma operação de análise multidimensional em um Data Warehouse (DW), operando em condições ideais. Após analisar os dados de abastecimento de água por bairros da cidade, passou imediatamente a analisar a informação por ano, em outra dimensão. O Analista realizou uma operação
- A) drill through.
- B) roll down.
- C) drill across.
- D) drill up.
- E) roll through.
#650
ME
Dif. 2
Enunciado: (FCC – 2019 – SANASA Campinas – Analista de Tecnologia da Informação – Análise e Desenvolvimento)
No contexto de Business Intelligence (BI), uma Agência de Abastecimento de Águas implementou um cubo de informações cujas dimensões são:
– “o que” (ex.: reparo de tubulação);
– “quando” (ex.: primeiro trimestre de 2019);
– “onde” (ex.: Capivari).
Diversas consultas podem daí derivar mediante acesso a essas dimensões a partir da base que hospeda o cubo. Duas delas, feitas por um Analista de TI que desejava saber o valor dos serviços prestados, foram:
– obter informações do serviço troca de tubulação sem restrição de quando e onde;
– sumarizar as informações mensais em grupos trimestrais.
As operações de consultas por ele corretamente realizadas sobre o cubo foram, respectivamente,
No contexto de Business Intelligence (BI), uma Agência de Abastecimento de Águas implementou um cubo de informações cujas dimensões são:
– “o que” (ex.: reparo de tubulação);
– “quando” (ex.: primeiro trimestre de 2019);
– “onde” (ex.: Capivari).
Diversas consultas podem daí derivar mediante acesso a essas dimensões a partir da base que hospeda o cubo. Duas delas, feitas por um Analista de TI que desejava saber o valor dos serviços prestados, foram:
– obter informações do serviço troca de tubulação sem restrição de quando e onde;
– sumarizar as informações mensais em grupos trimestrais.
As operações de consultas por ele corretamente realizadas sobre o cubo foram, respectivamente,
- A) ranking e drill through.
- B) dicing e drill down.
- C) pivoting e slicing.
- D) slicing e roll up.
- E) drill across e ranking.
#649
ME
Dif. 2
(FCC – 2018 – DPE-AM – Analista em Gestão Especializado de Defensoria – Analista de Banco de Dados) Uma das características fundamentais de um ambiente de Data Warehouse está em
- A) servir como substituto aos bancos de dados operacionais de uma empresa, na eventualidade da ocorrência de problemas com tais bancos de dados.
- B) ser de utilização exclusiva da área de aplicações financeiras das empresas.
- C) proporcionar um ambiente que permita realizar análise dos negócios de uma empresa com base nos dados por ela armazenados.
- D) ser de uso prioritário de funcionários responsáveis pela área de telemarketing das empresas.
- E) armazenar apenas os dados mais atuais (máximo de 3 meses de criação), independentemente da área de atuação de cada empresa.
#648
ME
Dif. 2
(FCC – 2018 – DPE-AM – Analista em Gestão Especializado de Defensoria – Analista de Banco de Dados) Sobre o processo de ETL, aplicado a Data Warehouse, é correto afirmar que
- A) a fase de extração de dados consiste em obter os dados do servidor do data warehouse.
- B) a fase de transformação consiste em realizar modificações nos dados carregados, adequando seus valores ao modelo definido para o data warehouse.
- C) as fases de extração e carga de dados são realizadas de forma simultânea.
- D) a fase de carga de dados visa eliminar valores nulos contidos nos bancos de dados transacionais da empresa.
- E) a fase de carga de dados consiste em inserir os dados transformados nos bancos de dados transacionais da empresa.
#647
ME
Dif. 2
(FCC – 2018 – Prefeitura de São Luís – MA – Auditor Fiscal de Tributos I – Tecnologia da Informação) Para extrair dados de fontes de dados heterogêneas que irão alimentar um Data Warehouse de forma homogênea e concisa, servindo de base para gerar relatórios e gráficos para apoiar as decisões da gerência da organização, deve-se utilizar um processo conhecido como
- A) OLAP.
- B) Data Mart.
- C) ETL.
- D) OLTP.
- E) Data Mining.
#646
ME
Dif. 2
(FCC – 2020 – AL-AP – Analista Legislativo – Desenvolvedor de Sistemas) Um conjunto de programas de computador está sendo executado em um conjunto de servidores conectados em rede local, para alimentar um data warehouse a partir dos bancos de dados transacionais de uma empresa, sendo que: um primeiro programa realiza uma cópia de dados transacionais selecionados em estruturas de dados que formam um staging area; um segundo programa faz a leitura dos dados na staging area e alimenta estruturas de bancos de dados em um Operational Data Storage (ODS), que consolida dados operacionais de diversas aplicações e complementa conteúdo. Por fim, outro programa de aplicação faz a leitura do ODS e carrega estruturas de dados em uma estrutura não relacional de tabelas em um data warehouse. Esse processo para integrar os bancos de dados que são heterogêneos é denominado:
- A) troca de arquivos por mídia externa física.
- B) Data Base Link (DB Link).
- C) replicação de dados.
- D) File Transfer Protocol.
- E) ETL (Extract, Transform, Load).
#645
ME
Dif. 2
(FCC – 2020 – AL-AP – Analista Legislativo – Desenvolvedor de Sistemas) Para construir um Data Warehouse, algumas etapas e processos são necessários. Uma etapa é conhecida como ETL, que compreende as etapas de Extração, Transformação e Armazenagem de dados em Sistemas Específicos ou Armazéns de Dados. Essas etapas são constituídas de várias outras funções, processos e técnicas de data integration. Uma dessas funções chama-se Master Data Management – MDM e é responsável por
- A) misturar os dados para criar um panorama virtual.
- B) unir os dados para criar uma visão única deles, através de múltiplas fontes. Ela inclui tanto o ETL quanto capacidades de data integration, para misturar as informações e criar o “melhor registro”.
- C) monitorar e processar fluxos de dados e ajudar a tomar decisões mais rapidamente.
- D) fornecer tanto agendamento em lote quanto capacidades em tempo real.
- E) criar um ambiente de testes onde os dados possam ser integrados, limpos e padronizados (por exemplo: SP e São Paulo, Masculino e M, Senhora e Sra. etc) além de verificar e remover dados duplicados.
#644
ME
Dif. 2
(FCC – 2019 – SEFAZ-BA – Auditor Fiscal – Administração, Finanças e Controle Interno – Prova II) Nos sistemas transacionais, os dados sofrem diversas alterações como inclusão, alteração e exclusão. Antes de serem carregados no ambiente de um Data Warehouse, os dados são filtrados e limpos, de forma a gerar informação útil. Após esta etapa, esses dados
- A) ficam disponíveis para a mineração em tempo real, pois tais dados são constantemente atualizados a partir da chave de tempo que indica o dia em que foram extraídos dos sistemas transacionais.
- B) podem sofrer operações de consulta, mas, devido à sua não volatilidade, não podem ser alterados, não havendo necessidade de bloqueio por concorrência de usuários ao seu acesso.
- C) são reunidos a partir de diversas fontes de dados, o que facilita muito o trabalho do analista, embora este tenha que lidar com a grande redundância das informações.
- D) ficam ordenados pela data da extração do sistema transacional, sendo necessárias técnicas de data mining para fazer a sua recuperação orientada por assunto.
- E) são classificados somente pelo assunto principal de interesse da organização. Por exemplo, em uma organização de arrecadação de impostos, os dados são organizados pelo cadastro de contribuintes que possuem impostos a recolher.
#643
ME
Dif. 2
(FCC – 2019 – SEFAZ-BA – Auditor Fiscal – Tecnologia da Informação – Prova II)
Um Auditor da SEFAZ-BA, observando as necessidades da organização, propôs um Data Warehouse (DW) com as seguintes características:
– na camada de dados resumidos ficam os dados que fluem do armazenamento operacional, que são resumidos na forma de campos que possam ser utilizados pelos gestores de forma apropriada.
– na segunda camada, ou no nível de dados históricos, ficam todos os detalhes vindos do ambiente operacional, em que se concentram grandes volumes de dados.
Com esta organização, os tipos de consulta analítica de maior frequência acessariam os dados resumidos, mais compactos e de mais fácil acesso e, em situações em que seja necessário um maior nível de detalhe, utilizar-se-iam os dados históricos.
O Auditor propôs um DW
Um Auditor da SEFAZ-BA, observando as necessidades da organização, propôs um Data Warehouse (DW) com as seguintes características:
– na camada de dados resumidos ficam os dados que fluem do armazenamento operacional, que são resumidos na forma de campos que possam ser utilizados pelos gestores de forma apropriada.
– na segunda camada, ou no nível de dados históricos, ficam todos os detalhes vindos do ambiente operacional, em que se concentram grandes volumes de dados.
Com esta organização, os tipos de consulta analítica de maior frequência acessariam os dados resumidos, mais compactos e de mais fácil acesso e, em situações em que seja necessário um maior nível de detalhe, utilizar-se-iam os dados históricos.
O Auditor propôs um DW
- A) que oferece maior nível de detalhes, ou seja, alto nível de granularidade.
- B) que oferece menor nível de detalhes, ou seja, baixo nível de granularidade.
- C) com nível duplo de granularidade.
- D) com OLAP integrado.
- E) com data marts geminados.
#642
ME
Dif. 2
(FCC – 2019 – SANASA Campinas – Analista de Tecnologia da Informação – Análise e Desenvolvimento)
Atenção: Para responder à questão, considere a imagem abaixo.
O sistema de suporte à decisão representado em cada um dos cilindros do conjunto denominado Específicos, na imagem, é um
Atenção: Para responder à questão, considere a imagem abaixo.
O sistema de suporte à decisão representado em cada um dos cilindros do conjunto denominado Específicos, na imagem, é um
- A) Catálogo de Metadados.
- B) Schema.
- C) Drill.
- D) OLTP.
- E) Data Mart.