Use este identificador para citar ou linkar para este item:
http://ri.ufmt.br/handle/1/275
Tipo documento: | Dissertação |
Título: | Adaptação de algoritmos de processamento de dados ambientais para o contexto de Big Data |
Autor(es): | Campos, Guilherme Falcão da Silva |
Orientador(a): | Figueiredo, Josiel Maimone de |
Membro da Banca: | Figueiredo, Josiel Maimone de |
Membro da Banca: | Gomes, Raphael de Souza Rosa |
Membro da Banca: | Vieira, Marcos Rodrigues |
Resumo : | Pesquisas ambientais dependem de dados de sensores para a criação das séries temporais referentes às variáveis analisadas. A quantidade de dados tende a aumentar, cada vez mais, à medida que novos sensores são criados e instalados. Com o passar do tempo os conjuntos de dados se tornam massivos, requerendo novas formas de armazenamento e processamento. Este trabalho busca meios de se contornar esses problemas utilizando uma solução tecnológica capaz de armazenar e processar grandes quantidades de dados. A solução tecnológica utilizada é o Apache Hadoop, uma ferramenta voltada a problemas de Big Data. Com a finalidade de avaliar a ferramenta foram utilizados diferentes conjuntos de dados e adaptados diferentes algoritmos usados na análise de séries temporais. Foram implementados analises de séries caóticas e não caóticas. As implementações foram a transformada de wavelet, uma busca por similaridade usando a função de distância Euclidiana, cálculo da dimensão box-counting e o cálculo da dimensão de correlação. Essas implementações foram adaptadas para utilizar o paradigma de processamento distribuído MapReduce. |
Resumo em lingua estrangeira: | Environmental research depend on sensor generated data to create time series regarding the variables that are being analyzed. The amount of data tends to increase as more and more sensors are created and installed. After some time the datasets become huge and requires new ways to process and store the data. This work seeks to find ways to avoid these issues using a technological solution able to store and process large amounts of data. The solution used is Apache Hadoop, a tool which purpose is to solve Big Data problems. In order to evaluate the tool were used different datasets and time series analysis algorithms. The analysis of chaotic and non-chaotic time series were implemented. These implementations were: the wavelet transform, similarity search using Euclidean distance function, the calculus of the box-counting dimension and the calculus of the correlation dimension. Those implementations were adapted for the MapReduce parallel processing paradigm. |
Palavra-chave: | MapReduce Hadoop Wavelets Dimensão fractal Dados ambientais |
Palavra-chave em lingua estrangeira: | MapReduce Hadoop Wavelets Fractal dimension Environmental data |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::FISICA |
Idioma: | por |
País: | Brasil |
Instituição: | Universidade Federal de Mato Grosso |
Sigla da instituição: | UFMT CUC - Cuiabá |
Departamento: | Instituto de Física (IF) |
Programa: | Programa de Pós-Graduação em Física Ambiental |
Referência: | CAMPOS, Guilherme Falcão da Silva. Adaptação de algoritmos de processamento de dados ambientais para o contexto de Big Data. 2015. v, 57 f. Dissertação (Mestrado em Física Ambiental) - Universidade Federal de Mato Grosso, Instituto de Física, Cuiabá, 2015. |
Tipo de acesso: | Acesso Aberto |
URI: | http://ri.ufmt.br/handle/1/275 |
Data defesa documento: | 23-Nov-2015 |
Aparece na(s) coleção(ções): | CUC - IF - PPGFA - Dissertações de mestrado |
Arquivos deste item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
DISS_2015_Guilherme Falcão da Silva Campos.pdf | 3.59 MB | Adobe PDF | Ver/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.