Use este identificador para citar ou linkar para este item: http://ri.ufmt.br/handle/1/275
Registro completo de metadados
Campo DCValorIdioma
dc.creatorCampos, Guilherme Falcão da Silva-
dc.date.accessioned2017-05-04T15:41:39Z-
dc.date.available2016-03-07-
dc.date.available2017-05-04T15:41:39Z-
dc.date.issued2015-11-23-
dc.identifier.citationCAMPOS, Guilherme Falcão da Silva. Adaptação de algoritmos de processamento de dados ambientais para o contexto de Big Data. 2015. v, 57 f. Dissertação (Mestrado em Física Ambiental) - Universidade Federal de Mato Grosso, Instituto de Física, Cuiabá, 2015.pt_BR
dc.identifier.urihttp://ri.ufmt.br/handle/1/275-
dc.description.abstractEnvironmental research depend on sensor generated data to create time series regarding the variables that are being analyzed. The amount of data tends to increase as more and more sensors are created and installed. After some time the datasets become huge and requires new ways to process and store the data. This work seeks to find ways to avoid these issues using a technological solution able to store and process large amounts of data. The solution used is Apache Hadoop, a tool which purpose is to solve Big Data problems. In order to evaluate the tool were used different datasets and time series analysis algorithms. The analysis of chaotic and non-chaotic time series were implemented. These implementations were: the wavelet transform, similarity search using Euclidean distance function, the calculus of the box-counting dimension and the calculus of the correlation dimension. Those implementations were adapted for the MapReduce parallel processing paradigm.pt_BR
dc.description.provenanceSubmitted by Jordan (jordanbiblio@gmail.com) on 2017-05-04T14:04:39Z No. of bitstreams: 1 DISS_2015_Guilherme Falcão da Silva Campos.pdf: 3678965 bytes, checksum: 16184b756c14ab6fc7eb19e95ff445d4 (MD5)en
dc.description.provenanceApproved for entry into archive by Jordan (jordanbiblio@gmail.com) on 2017-05-04T15:41:39Z (GMT) No. of bitstreams: 1 DISS_2015_Guilherme Falcão da Silva Campos.pdf: 3678965 bytes, checksum: 16184b756c14ab6fc7eb19e95ff445d4 (MD5)en
dc.description.provenanceMade available in DSpace on 2017-05-04T15:41:39Z (GMT). No. of bitstreams: 1 DISS_2015_Guilherme Falcão da Silva Campos.pdf: 3678965 bytes, checksum: 16184b756c14ab6fc7eb19e95ff445d4 (MD5) Previous issue date: 2015-11-23en
dc.languageporpt_BR
dc.publisherUniversidade Federal de Mato Grossopt_BR
dc.rightsAcesso Abertopt_BR
dc.titleAdaptação de algoritmos de processamento de dados ambientais para o contexto de Big Datapt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordMapReducept_BR
dc.subject.keywordHadooppt_BR
dc.subject.keywordWaveletspt_BR
dc.subject.keywordDimensão fractalpt_BR
dc.subject.keywordDados ambientaispt_BR
dc.contributor.advisor1Figueiredo, Josiel Maimone de-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1242386923227672pt_BR
dc.contributor.referee1Figueiredo, Josiel Maimone de-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/1242386923227672pt_BR
dc.contributor.referee2Gomes, Raphael de Souza Rosa-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/7352154839166198pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/9348769926232772pt_BR
dc.description.resumoPesquisas ambientais dependem de dados de sensores para a criação das séries temporais referentes às variáveis analisadas. A quantidade de dados tende a aumentar, cada vez mais, à medida que novos sensores são criados e instalados. Com o passar do tempo os conjuntos de dados se tornam massivos, requerendo novas formas de armazenamento e processamento. Este trabalho busca meios de se contornar esses problemas utilizando uma solução tecnológica capaz de armazenar e processar grandes quantidades de dados. A solução tecnológica utilizada é o Apache Hadoop, uma ferramenta voltada a problemas de Big Data. Com a finalidade de avaliar a ferramenta foram utilizados diferentes conjuntos de dados e adaptados diferentes algoritmos usados na análise de séries temporais. Foram implementados analises de séries caóticas e não caóticas. As implementações foram a transformada de wavelet, uma busca por similaridade usando a função de distância Euclidiana, cálculo da dimensão box-counting e o cálculo da dimensão de correlação. Essas implementações foram adaptadas para utilizar o paradigma de processamento distribuído MapReduce.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentInstituto de Física (IF)pt_BR
dc.publisher.initialsUFMT CUC - Cuiabápt_BR
dc.publisher.programPrograma de Pós-Graduação em Física Ambientalpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::FISICApt_BR
dc.subject.keyword2MapReducept_BR
dc.subject.keyword2Hadooppt_BR
dc.subject.keyword2Waveletspt_BR
dc.subject.keyword2Fractal dimensionpt_BR
dc.subject.keyword2Environmental datapt_BR
dc.contributor.referee3Vieira, Marcos Rodrigues-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/3387494140723481pt_BR
Aparece na(s) coleção(ções):CUC - IF - PPGFA - Dissertações de mestrado

Arquivos deste item:
Arquivo Descrição TamanhoFormato 
DISS_2015_Guilherme Falcão da Silva Campos.pdf3.59 MBAdobe PDFVer/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.