dc.contributor.advisor |
Baião, Fernanda Araujo |
|
dc.contributor.author |
Martins, Daniel Barbosa |
|
dc.date.accessioned |
2019-06-12T22:12:55Z |
|
dc.date.available |
2019-06-12T22:12:55Z |
|
dc.date.issued |
2009-09-24 |
|
dc.identifier.citation |
MARTINS, Daniel Barbosa. Extração personalizada e incremental de dados em ambientes de BI tempo real. 2009, 103f. Dissertação ( Mestrado em Informática ) - Universidade Federal do Estado do Rio de Janeiro, Rio de Janeiro, 2009. |
pt_BR |
dc.identifier.uri |
http://hdl.handle.net/unirio/12824 |
|
dc.description |
Dissertação também disponível em formato impresso, com o número de chamada MI 2009/22. |
pt_BR |
dc.description.sponsorship |
n/a |
pt_BR |
dc.language.iso |
Portuguese |
pt_BR |
dc.rights |
openAccess |
pt_BR |
dc.title |
Extração personalizada e incremental de dados em ambientes de BI tempo real |
pt_BR |
dc.title.alternative |
Customized and increment data extraction in real-time by environments |
pt_BR |
dc.type |
masterThesis |
pt_BR |
dc.contributor.advisor-co |
Cavalcanti, Maria Cláudia Reis |
|
dc.contributor.referee |
Baião, Fernanda Araujo |
|
dc.contributor.referee |
Cavalcanti, Maria Cláudia Reis |
|
dc.contributor.referee |
Campos, Maria Luiza Machado |
|
dc.contributor.referee |
Siqueira, Sean Wolfgand Matsui |
|
dc.contributor.referee |
Sampaio, Jonice de Oliveira |
|
dc.degree.department |
CCET |
pt_BR |
dc.degree.grantor |
Universidade Federal do Estado do Rio de Janeiro - UNIRIO |
pt_BR |
dc.degree.level |
Mestrado Acadêmico |
pt_BR |
dc.degree.local |
Rio de Janeiro, RJ |
pt_BR |
dc.degree.program |
Programa de Pós-Graduação em Informática |
pt_BR |
dc.subject.cnpq |
CIÊNCIAS EXATAS E DA TERRA |
pt_BR |
dc.subject.cnpq |
CIÊNCIA DA COMPUTAÇÃO |
pt_BR |
dc.subject.en |
Business Intelligence |
pt_BR |
dc.subject.en |
Data Quality |
pt_BR |
dc.subject.en |
Distributed Systems |
pt_BR |
dc.subject.en |
Process to Data Incremental Extraction |
pt_BR |
dc.description.abstracten |
Trends in Business Intelligence environments require information immediately available
in the Data Warehouse, reducing the time interval from the moment of an event in the
transactional environment to the moment a decision is taken in the informational
environment. This is called BI 2.0, or real-time BI, and its main goal is to improve
decision-making processes. However, one of the difficulties to implement real-time BI is
that ETL process execution is highly time-consuming, because it is carried out
considering the whole (full) set of source data, in a pre-determined low frequency. In
these environments, the existence of different users, with particular views on the data
quality, leads to different needs regarding DW update frequency. This work proposes
the Brahma architecture that dynamically specifies and executes ETL process
instances to provide incremental extraction of data based on the needs of groups of
users with similar views on the data quality. The proposed architecture was
implemented in a prototype and evaluated with the TPC-H Benchmark. The
experimental results showed that Brahma provided significant performance gain
(proportional to the amount of irrelevant data removed in each ETL instance), while
maintained the DW data quality in a higher and constant level. |
pt_BR |
dc.degree.country |
Brasil |
pt_BR |
dc.description.sponsordocumentnumber |
n/a |
pt_BR |
dc.description.abstractpt |
Tendências atuais em ambientes de Inteligência de Negócios (Business Intelligence –
BI) incluem a demanda pela disponibilização de informações de imediato no Data
Warehouse (DW), reduzindo o tempo entre a ocorrência de um evento no ambiente
transacional e o momento quando uma decisão é tomada no ambiente informacional,
com o propósito de melhorar o desempenho dos processos de tomada de decisão.
Nestes ambientes, a existência de usuários diferentes, com visões particulares sobre a
qualidade dos dados, acarreta em necessidades distintas quanto à atualização dos
dados no DW. Tipicamente para atender a todos os usuários, o processo de carga do
DW (processo ETL) é realizado para todo o grande volume de dados (completo), na
menor freqüência requerida, impactando fortemente no tempo para a atualização do
DW. Este trabalho busca uma maior adequação do processo ETL às tendências atuais
de BI. Para reduzir o tempo de atualização do DW, contribuindo com o aumento da
qualidade de dados, e ao mesmo tempo viabilizar a co-existência de usuários com
diferentes requisitos de qualidade de dados, este trabalho propõe a arquitetura
Brahma, que especifica e executa dinamicamente instâncias do processo de extração
incremental de dados, baseando-se nas necessidades de grupos de usuários com
visões semelhantes sobre a qualidade dos dados. A arquitetura proposta foi
implementada em um protótipo e avaliada num cenário baseando-se no esquema do
Benchmark TPC-H. Os resultados iniciais desta avaliação mostraram que as
instâncias ETL executadas segundo a arquitetura Brahma apresentam ganho de
desempenho significativo, diretamente proporcional à quantidade de dados
irrelevantes eliminados em cada instância ETL executada, além de manter a qualidade
de dados do DW em um nível mais elevado e constante. |
pt_BR |
dc.subject.pt |
Business Intelligence |
pt_BR |
dc.subject.pt |
Qualidade de Dados |
pt_BR |
dc.subject.pt |
Sistemas Distribuídos |
pt_BR |
dc.subject.pt |
Processo de Extração Incremental de Dados |
pt_BR |