Bacharelado em Sistemas de Informação (Sede)
URI permanente desta comunidadehttps://arandu.ufrpe.br/handle/123456789/12
Siglas das Coleções:
APP - Artigo Publicado em Periódico
TAE - Trabalho Apresentado em Evento
TCC - Trabalho de Conclusão de Curso
Navegar
Item Uma abordagem baseada em aprendizado de máquina para dimensionamento de requisitos de software(2016-12-13) Fernandes Neto, Eça da Rocha; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/6325583065151828Este trabalho se propõe a realizar o dimensionamento automático de requisitos de software utilizando uma abordagem de aprendizado de máquina. A base de dados utilizada é real e foi obtida de uma empresa que trabalha com processo de desenvol- vimento baseado no Scrum e estimativa Planning Poker. Durante os estudos foram utilizadas técnicas de pré processamento de dados, classificação e seleção de melho- res atributos com os algorítimos termo–inverso da frequência nos documentos (tf-idf) e análise de componentes principais (PCA). O aprendizado de máquina e classificação automática se deu com o uso de Máquinas de Vetores de Suporte (SVM) baseado no histórico de dados disponível. Os testes finais foram realizados com e sem a seleção de atributos via PCA. Está demonstrado que a assertividade é maior quando é feita a seleção dos melhores atributos. A ferramenta fruto do trabalho consegue estimar o tamanho de histórias de usuário com uma generalização de até 91%. Os resultados foram considerados passíveis de serem utilizados em ambiente de produção sem pre- juízo para a equipe de desenvolvimento.Item Análise quantitativa entre métodos de estimativa da evapotranspiração horária integrada e diária no Brasil(2018) Andrade, Danyllo Gomes Figueredo de; Gonçalves, Glauco Estácio; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/9219132484229871A evapotranspiração é a fusão de dois processos naturais de perda de água do solo,que são: evaporação e transpiração. A evaporação consiste na mudança de estado da água que está contida no solo, passando do estado líquido para o gasoso. Por sua vez,a transpiração das plantas ocorre quando o vegetal realiza o processo de nutrição. As informações quantitativas de tais processos proporcionam uma lâmina de água mais precisa que auxiliam na resolução de problemas que envolvem o manejo de água na agricultura. A equação de Penman-Monteith FAO56 possibilita o cálculo da estimativa da medida da evapotranspiração de referência em um dia a partir dos dados horários somados ao longo de 24 horas e a partir de dados diários.O objetivo principal deste trabalho é promover um ensaio quanto à avaliação estatística das estimativas de evapotranspiração de referência em um dia a partir dos dados horários somados ao longo de 24 horas e a partir de dados diários, comparando-as através da regressão linear, intervalo de confiança, viés estatístico, índice de concordância de Willmott, índice de correlação, índice de confiança e classificação de desempenho segundo o índice de confiança. Os dados utilizados foram de todo o Brasil, no período de1 de janeiro à 31 de dezembro de 2017. Como objetivo específico pretende-se avaliaras estimativas dos dois métodos sob o aspecto quantitativo. Os resultados mostraram que no Brasil a medida da estimativa da evapotranspiração de referência diária é superestimada em aproximadamente 8.32% quando comparada a evapotranspiração de referência horária integrada. O Sul apresentou o maior R 2 com 0,927, enquanto que o Centro-Oeste apresentou o menor com 0,857. O R variou entre 0,963 e 0,926, sendo Sul e Centro-Oeste, respectivamente. O d variou entre 0,979 e 0,960, para o Sul e o Centro-Oeste, respectivamente. O c também apresentou maior valor no Sul e o menor no Centro-Oente. Para todas as regiões, a classificação de desempenho segundo o índice de confiança mostrou-se ”Ótima”.Item Uma abordagem de Game Learning Analytics para identificação de habilidades de leitura e escrita no ensino infantil(2018) Oliveira Neto, José Rodrigues de; Rodrigues, Rodrigo Lins; Amorim, Américo Nobre Gonçalves Ferreira; http://lattes.cnpq.br/7962263612352589; http://lattes.cnpq.br/5512849006877767; http://lattes.cnpq.br/3879751025550218O poder que os vídeo games têm de capturar atenção de seus jogadores trouxe consigo a ideia de usá-los tendo como objetivo principal o reforço no aprendizado na educação. Estudos recentes demonstram que é possível analisar as interações dos jogadores com tais jogos, chamados de Serious Games, para tirar conclusões e mensurar o aprendizado obtido durante a interação com tais jogos. Dado esse contexto, este se propõe a fazer uma análise de dados obtidos a partir da interação de jogadores com um dos jogos, dentre 20, aplicados durante uma pesquisa que comprovou o impacto positivo deles no desenvolvimento de habilidades de leitura e escrita de crianças de 4 anos de idade. Foram selecionados três classificadores: Naive Bayes, Support Vector Machines (SVM) e Regressão Logística, que foram treinados com os dados resultantes da interação desses jogadores com o jogo e demonstrada a taxa de acerto de cada um dos classificadores. Além disso, este trabalho também faz uma análise das interações consideradas mais relevantes na classificação de um dos modelos, encontrando relações entre as palavras propostas como desafio no teste e às presentes no jogo, levantando reflexões que podem ser levadas em consideração durante a produção de um jogo educacional que objetive aperfeiçoar habilidades de leitura e escrita de crianças no ensino infantil.Item Um sistema de recomendações de eventos culturais com áudio-descrição(2018) Souza Filho, Robson Ugo Ferreira; Medeiros, Victor Wanderley Costa de; Falcão, Taciana Pontual da Rocha; http://lattes.cnpq.br/5706959249737319; http://lattes.cnpq.br/7159595141911505Cerca de um bilhão de pessoas no mundo vive com algum tipo de deficiência, enquanto quase 24% da população brasileira declarou ter algum tipo de deficiência no CENSO de 2010. Desta forma, a presença cada vez mais constante de pessoas com deficiência visual em espaços culturais tem aumentado e deve-se também `a presença dos recursos de acessibilidade comunicacional. O avanço tecnológico tem tornado a disposição de tais recursos muito mais fácil e próxima, aumentando ainda mais a autonomia deste público. Com base neste argumento, este trabalho visa apresentar o planejamento e desenvolvimento de um sistema de recomendação de eventos culturais com audiodescrição voltado para pessoas cegas usando dispositivos moveis Android, aumentando a independência e capacidade do processo de indicação já natural às relações sociais humanas através de algoritmos de filtragem colaborativa baseada em item e filtragem baseada em conteúdo. Foram gerados uma potencial base de dados de eventos do gênero, um estudo acerca dos algoritmos propostos e um experimento de usabilidade da aplicação. Foi identificada ausência de métricas de avaliação estatística para as recomendações geradas, dada a abordagem pessoal utilizada pelos usuários na escolha das notas para os eventos, resultado também da inexistente consistência de seus dados.Item Planejador de roteiros turísticos: uma aplicação do Problema do Caixeiro Viajante na cidade do Recife(2018) Bispo, Rodolfo César; Cysneiros Filho, Gilberto Amado de Azevedo; http://lattes.cnpq.br/0534822491953359Um aplicativo móvel (prova de conceito) foi desenvolvido fornecendo recomendações de rota para turistas que visitam Recife a pé. O turista seleciona os pontos de interesse (POI) que ele deseja visitar e a aplicação recomenda uma rota. O turista pode escolher os pontos de interesse de uma lista de pontos e visualiza-los em um mapa. A aplicação também fornece informações detalhadas sobre os pontos de interesse para auxiliar na escolha. Três algoritmos foram implementados para recomendação da rota. Os algoritmos Força Bruta, Vizinho Mais Próximo e Vizinho Mais Próximo combinado com 2-OPT foram comparados em termos de tempo de execução, impacto no tamanho total do percurso gerado, uso de memória e CPU. O algoritmo da Força Bruta apresentou um tempo de execução hábil em até 8 pontos escolhidos. O Vizinho Mais Próximo afastou-se cada vez mais do roteiro ótimo a medida que a quantidade de pontos aumentava, enquanto que sua combinação com o 2-OPT resultou em uma otimização de até 50 minutos na duração do roteiro.Item Um sistema de apoio à decisão para priorização e estruturação de histórias de usuários: um suporte para equipe ágeis(2018-08) Calado, Alex Rogério da Silva; Garrozi, Cícero; Sampaio, Suzana Cândido de Barros; http://lattes.cnpq.br/0066131495297081; http://lattes.cnpq.br/0488054917286587; http://lattes.cnpq.br/1189807442146524Apesar dos avanços obtidos na Engenharia de Software com os métodos ágeis o mercado ainda apresenta taxas de sucesso em projetos insatisfatórias. Ao longo de um projeto de software, mudanças de requisitos e prioridades são inevitáveis e recorrentes. Esse é um fator importante para empresas de desenvolvimento de software principalmente as de pequeno porte que possuem recursos limitados. O uso de técnicas ágeis como Scrum e Histórias de Usuário (US) beneficiam as empresas e as tornam mais competitivas. Um dos problemas enfrentados com requisitos ágeis é obter uma priorização de US segura de acordo com o valor de negócio dado pelo cliente em consenso com especificações técnicas. Esse trabalho se propõe em apresentar um ensaio que serve de base para construção de uma ferramenta de apoio à decisão na priorização das US. Para tanto foi considerado um projeto de software como uma organização temporária e sugeridas métricas que melhor se adequem às necessidades de pequenas equipes evitando retrabalho, aumento de prazos e custos, sem desconsiderar a satisfação do cliente nas entregas interativas. Baseado no modelo de levantamento de requisitos Volere e na revisão de literatura foi proposto a adoção de cinco métricas a serem consideradas na priorização de Histórias de Usuários: a satisfação do cliente em receber a US e a insatisfação do cliente em não receber a US, substituindo o tradicional valor de negócio; a já usual complexidade; necessidade de aprendizagem da equipe e; riscos de software. Usando formulários online foram captados dados sobre essas métricas e a priorização dada a cada US em projetos de software que usam o método ágil Scrum. Árvore de Decisão foi a sugestão proposta para predição de priorização de US por possuir visualização prática e interpretação mais intuitiva, facilitando a aceitação como método de apoio a decisão de profissionais da área. Apesar do baixo volume da base de dados os resultados obtidos através da ferramenta Weka, como a Curva ROC e a precisão, mostraram-se satisfatórios sem tendências de predição e com bons índices de acertos, após ajustes dos algoritmos e da base de dados para evitar overfitting e underfitting.Item Identificação de Outliers para detectar riscos de gestão(2018-08-17) Brizeno, Raissa Costa; Monteiro, Cleviton Vinicius Fonsêca; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/9362573782715504; http://lattes.cnpq.br/1672154276438369Os outliers são valores que não convergem com o restante dos dados de uma série. Estes valores quando surgem no contexto financeiro podem representar problemas que influenciam diretamente na saúde de um empreendimento e na tomada de decisão pelos gestores. Diante disto pretendeu-se com este trabalho identificar anomalias em lançamentos financeiros advindos contas contábeis de empresas reais. Para isto, realizou-se análises estatísticas dos lançamentos para que técnicas de detecção de outliers pudessem ser escolhidas e, posteriormente, comparadas com a detecção de outliers de avaliadores. Dentre a grande variedade de técnicas foram escolhidos os métodos de Boxplot, Boxplot ajustado, MAD e desvio padrão. Os resultados obtidos mostram que a maioria das séries não seguiam uma distribuição normal, e os resultados experimentais das comparações entre os métodos automáticos e os avaliadores demonstraram diferenças substanciais.Item Um algoritmo para geração de Navigation Meshes em mapas bidimensionais homogêneos: uma aplicação no jogo Dragon Age: Origins(2019) Costa, Ingrid Danielle Vilela; Bocanegra, Silvana; http://lattes.cnpq.br/4596111202208863; http://lattes.cnpq.br/6113606913639280Nos cenário dos jogos eletrônicos e, mais recentemente, na robótica, agentes autônomos comumente necessitam resolver repetidamente o problema de busca de menor caminho. Esta necessidade eventualmente pode consumir muitos recursos e demandaotimizações para que estas buscas sejam mais eficientes. Tais otimizações podem in-cluir melhorias nos algoritmos de busca, na representação dos mapas, nas estruturasde dados utilizadas, entre outras. O presente trabalho apresenta uma otimização para algoritmos de busca baseada na redução do tamanho do espaço de busca, através deum algoritmo de geração automática de Navigation Meshes, que são redes de áreas caminháveis de mapas, implicando em redução do espaço de busca e consequen-temente melhoria de tempo de processamento. A geração de Navigation Meshes é um problema ainda sem solução estabelecida. Para avaliar a heurística foram solucionados problemas de caminho mínimo em 156 mapas obtidos de um benchmark. Os caminhos foram determinados pelo algoritmo A* e foram comparadas as soluções no mapa original e no mapa otimizado pela heurística. Foi alcançada uma redução de espaço de busca média de 97,42%, com desvio padrão de 0,026 e a busca teve uma redução marginal média no tempo de execução de 46,76%.Item Serviço computacional para interpolação espacial de dados meteorológicos(2019) Antonio, Wellington Luiz; Gonçalves, Glauco Estácio; Medeiros, Victor Wanderley Costa de; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/6454060359445906A interpolação espacial é uma técnica de suma importância para diversas atuações:meteorologia, hidrologia, zoneamento agrícola, caracterização de áreas de risco à saúde, sociodemográfica, entre outras. Por meio da interpolação pode-se modelar asuperfície de uma variável espacialmente distribuída a partir de um conjunto finito de dados pontuais conhecidos, no caso de dados meteorológicos para agricultura, por exemplo, a interpolação permite observar como as variáveis meteorológicas se comportam em uma determinada propriedade rural, o que poderia servir como base para o manejo de irrigação nesta propriedade. Devido à demanda cada vez maior pelo uso dainterpolação espacial, propôs-se desenvolver um serviço de interpolação espacial, escalável baseado em tecnologias e padrões do estado da arte em sistemas distribuídospara interpolação espacial de dados meteorológicos associados à agricultura. Para o alcance de tal objetivo, buscou-se desenvolver um serviço web que implementasse três algoritmos diferentes para a interpolação da evapotranspiração de referência, sendo eles:Inverse distance weighted(IDW),Ordinary Kriging(OK) eRandom Forest(RF),os dois primeiros são algoritmos amplamente utilizados na espacialização da evapo-transpiração de referência, sendo conhecidos por produzirem baixos erros na interpolação. Já o último algoritmo utilizado é originário da aprendizagem de máquina e tem sido empregado em estudos recentes como alternativa para a interpolação espacial de variáveis ambientais, obtendo também resultados promissores na estimativa da evapo-transpiração. O serviço web de interpolação espacial proposto foi implementado e seu desempenho avaliado por meio de medição. Este serviço foi implantado em ambiente de produção por meio de um contêiner Docker, e um aplicativo móvel foi desenvolvidopara integrar e demonstrar as principais funcionalidades do serviço web. O presente serviço pode ser aplicado em diversas áreas, contudo nesse trabalho atentou-se mais para o setor agrícola, por ser o setor para o qual esse estudo encontra-se direcionado.Os principais beneficiários do serviço web incluem pesquisadores e desenvolvedoresdesoftwareque, por sua vez, a partir da aplicação do serviço, podem desenvolverestudos que beneficiarão o agricultor. Durante a realização desse trabalho, buscou-se também avaliar como o serviço desenvolvido poderia ser útil para a promoção do desempenho e da escalabilidade com relação ao cálculo da interpolação espacial e geração de modelos espaciais. Destacou-se também, a importância desse software como ferramenta de apoio para outras pesquisas ou mesmo para outros software, como por exemplo, o Aquaprev, que utiliza, além de outros parâmetros, a evapotranspiração e a interpolação espacial para estimar o tempo de irrigação de uma determinada cultura.Item Métodos de previsão de consumo de energia elétrica residencial em grande volume de dados(2019) Carvalho, Daniel José de; Medeiros, Victor Wanderley Costa de; Gonçalves, Glauco Estácio; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6867315638833821A energia elétrica é uma das principais fontes de energia utilizadas pela humanidade.A crescente preocupação com a preservação do meio-ambiente estimulou a busca por fontes de energia renováveis capazes de reduzir os impactos à natureza. O crescimento populacional e o uso cada vez mais comum de dispositivos eletrônicos, na quase totalidade das atividades cotidianas, demandam o uso mais eficiente da energia elétrica. Diante destes desafios é essencial a realização de um planejamento para dimensionar a estrutura de geração e transmissão de energia elétrica. Uma das ferramentas capazes de auxiliar neste dimensionamento é a previsão de demanda. Outrogrande desafio nesta área está na realização destas previsões em cenários de grandes dados (Big Data).Este trabalho tem como objetivo principal avaliar o desempenho de dois métodos deprevisão, ARIMA e Holt-Winters, utilizando séries temporais aplicados a um grandevolume de dados. A base de dados utilizada foi fornecida no evento DEBS 2014 GrandChallenge, a qual contém dados de consumo de energia elétrica, de um grande nú-mero de residências, durante o período de um mês. Para a aplicação dos métodos de previsão, foram utilizadas bibliotecas na linguagem R. Para processar os dados,utilizou-se o frameworkApache Spark em conjunto com a linguagem R, para parale-lizar o processamento da leitura dos dados e a filtragem dos parâmetros desejados.Os dados tratados foram convertidos em séries temporais com valores de consumo horários, durante todo o mês compreendido pela base de dados original. Foram executadas previsões para a região das residências como um todo e para cada residência individualmente. Os resultados mostraram uma vantagem do ARIMA frente ao Holt-Winters no cenário utilizado, utilizando a métrica RMSE como base comparativa de desempenho. Contudo, baseado em experimentos similares encontrados na literatura,resguardando as devidas proporções, ambos os valores de RMSE estão dentro de uma faixa aceitável.Item Análise da utilização de aprendizado de máquina na redução do volume de alertas benignos(2019) Simião, Augusto Fernando de Melo; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/0529129636604731Para auxiliar no combate a ataques cibernéticos, Managed Security Services Providers (MSSPs) usam SIEMs (Security Information and Event Management). SIEMs são capazes de agregar, processar e correlacionar vastas quantidades de eventos provenientes de diferentes sistemas, alertando analistas de segurança da existência de ameças, tais como vírus de computador e ataques cibernéticos, em redes de computadores. No entanto, SIEMs são conhecidos pelas altas taxas de alertas benignos (alertas que não representam ameaça) em relação aos malignos (alertas que representam ameaça). Devido aos altos volumes e predominância de falsos alertas, o analista passa a ignorar alertas como um todo, o que inclui aqueles que representam incidentes em potencial, aumentando assim o risco da rede ser comprometida. Esse fenômeno é conhecido como fadiga de alerta e tem sido alvo frequente da aplicação de técnicas de aprendizado de máquina para a redução dos volume de alertas benignos. SIEMs modernos utilizam aprendizado de máquina, na correlação de eventos, para que apenas alertas que realmente representam possíveis ameaças sejam reportados. No entanto, essa correlação não leva em conta a deliberação do analista de segurança, permitindo assim que os SIEMs continuem gerando alertas previamente identificadas como benignos. Este trabalho investiga a utilização dos algorítimos Naïve Bayesian Learning, Árvore de Decisão e Random Forest, para a redução do volume de alertas benignos, utilizando alertas previamente identificados por analistas, ao invés da corrente de eventos que geram tais alertas. Dessa forma, foi possível mostrar, através de experimentos, que técnicas de aprendizado de máquina supervisionado podem ser aplicadas na identificação e alertas benignos previamente analisados.Item Estudo comparativo de algoritmos de classificação supervisionada para classificação de polaridade em análise de sentimentos(2019) Albuquerque, Rotsen Diego Rodrigues de; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/6441716676783585Com o grande aumento de dados na internet, mostra-se uma rica fonte para a avaliação da opinião pública sobre uma entidade específica. Consequentemente, o número de opiniões disponíveis torna impossível uma tomada de decisão se for necessário ler e analisar todas as opiniões. Como o uso de Machine Learning tem sindo bastante usado, irei apresentar um estudo comparativo de dois algoritmos para classificar oscomentários usando técnicas de processamento de linguagem natural e Análise de Sentimentos. O dados obtidos foram obtidos manualmente onde através do site de competições chamado Kaggle temos cerca de 50.000 comentários sobre diversos filmes. Este estudo tem por finalidade usar também os conceitos da ciência de dados e Machine Learning, processamento de linguagem natural e analises de sentimentos para agregar mais informação sobre a industria de entretenimento e cinema. Por isso esses algoritmos foram criados para que seja possível mostrar os resultados para esse domínio nos reviews de filmes registrados no site da grande industria cinematográfica o famoso IMDB. Após a aplicação dos treinos e testes, a máquina teve uma Acuráciade 86% sobre a predição de textos comentados de filmes.Item Utilização de Game Learning Analytics para verificação do aprendizado em jogo sério voltado ao ensino de zoologia(2019) Farias, Laura Lobo de; Cysneiros Filho, Gilberto Amado de Azevedo; http://lattes.cnpq.br/0534822491953359; http://lattes.cnpq.br/5281211059562823Jogos digitais são ferramentas capazes de auxiliar no aprendizado, jogos desenvolvidos exclusivamente com esse objetivo são chamados de Jogos Sérios. Jogos Sérios são utilizados em diversas áreas de aprendizagem inclusive no campo da Zoologia, que tem como objetivo formar pessoas que conhecem as características dos animais e se relacionam de forma ética com eles. Entretanto, Jogos Sérios enfrentam alguns problemas, uma dessas dificuldades é de entender como os jogadores interagem com o jogo e como o processo de aprendizagem ocorre. Com o uso de Game Learning Analytics é possível coletar e analisar os dados dos Jogos Sérios com o objetivo de melhorar sua aplicabilidade e assim desenvolver jogos educacionais mais efetivos. Nesse projeto foi desenvolvido um Jogo Sério capaz de auxiliar a aprendizagem em Zoologia e sua efetividade será analisada através da utilização de Game Learning Analytics.Item Suporte à decisão multicritério em aplicativos de saúde sob demanda(2019) Pereira, Gustavo Magalhães; Albuquerque Júnior, Gabriel Alves de; Falcão, Taciana Pontual da Rocha; http://lattes.cnpq.br/5706959249737319; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/6456769669695121Os aplicativos de saúde sob demanda tem o objetivo principal encontrar um médico e levá-lo até sua casa para prestar assistência domiciliar para aqueles que tem dificuldade de locomoção e buscam um serviço médico mais cômodo, que não querem enfrentar filas de espera e que desejam evitar se deslocar até um hospital para tratar enfermidades básicas. O avanço tecnológico tem transformado a forma como serviços tradicionais são ofertados sob demanda, que está cada vez mais popular no Brasil. O Conselho Federal de Medicina (CRM), sabendo do impacto do avanço tecnológico no exercício da medicina, publicou a resolução nº 2.178/2017, que busca regulamentar o funcionamento de aplicativos que oferecem consulta médica em domicílio. De acordo com a resolução, todos os aplicativos que oferecem esse serviço são obrigados a disponibilizar uma listagem de médicos disponíveis para o paciente escolher o melhor médico para cuidar do seu caso, mas os aplicativos não oferecem auxílio ao paciente na decisão e e carece de uma solução computacional. Neste trabalho foi realizado o planejamento e desenvolvimento de um sistema de recomendação utilizando a metodologia da análise de decisão de múltiplos critérios. Foi utilizado como estudo de caso o aplicativo Clinio, um produto de saúde sob demanda desenvolvido pela Epitrack. A solução aplicada para recomendar os melhores médicos tem objetivo de auxiliar os usuários do aplicativo na escolha do profissional que mais se enquadra nas suas necessidades e preferências. Para isso, foram utilizados algoritmos de recomendação para selecionar médicos com base nos sintomas e na geolocalização e o Processo Analítico Hierárquico (AHP), tendo como critérios de classificação: valor da consulta, distância entre o médico e paciente e idade do médico. O sistema foi implementado e testado usando uma base de dados de 143 médicos de Pernambuco que atuam em 10 casos clínicos. Através dos testes realizados foi observado na recomendação obtida pelos usuários que o sistema auxilia no processo de escolha do melhor profissional para um caso através das definições das preferências.Item Avaliação de métodos para interpolação espacial de dados de precipitação(2019) Neris, Airton Martins; Gonçalves, Glauco Estácio; Medeiros, Victor Wanderley Costa de; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/7254010025661115Informação sobre a quantidade de precipitação de chuva é essencial para os mais va-riados setores, como agrícola e agroflorestal. Apesar dessa importância, muitas áreasainda não possuem estações meteorológicas, o que ocasiona a falta de dados. Parasuprir essa necessidade existem os métodos de interpolação espacial, que utilizam asinformações de pontos correlatos para estimar o valor inexistente em determinada área.Assim, este trabalho tem como objetivo avaliar métodos para a interpolação de dadosdiários de precipitação. As técnicas de interpolação utilizadas nos experimentos foramos métodos: Ponderação pelo Inverso da Distância; Krigagem Ordinária; Floresta Ale-atória. Para a Floresta Aleatória foram usadas duas configurações distintas, uma querecebe como entrada as coordenadas, e outra que recebe a distância debuffer, que éum dos mais recentes pré-processamentos utilizados na literatura para que a FlorestaAleatória estime seus valores com base no seu referencial geográfico. Foram utilizadosdados de precipitações de chuva provenientes das 46 estações meteorológicas do es-tado de Pernambuco referentes ao período de 2013 a 2018, e para comparar a precisãoda generalização dos métodos, foi utilizado a validação cruzadaleave-one-out. Nos re-sultados, a Ponderação pelo Inverso da Distância apresentou um melhor desempenhoem suas estimativas, para todas as métricas, e a Floresta Aleatória utilizando coorde-nadas obteve o segundo melhor resultado. A Floresta Aleatória utilizando a distânciadebuffer, teve um resultado inferior em termos de suas métricas, mas a qualidade daespacialização visual mostrou-se superior por oferecer um resultado visualmente maissuave do que aquele oferecido pela Floresta Aleatória utilizando coordenadas.Item Método para Estimativa de Trajeto Baseado em Dados de Unidades de Medição Inercial(2019) Silva, Lucas Filipe Vieira da; Medeiros, Victor Wanderley Costa de; Gonçalves, Glauco Estácio; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/1223833449629855A Internet das Coisas ou IoT (Internet of Things) surgiu como uma nova visão para a internet onde os mais diversos dispositivos têm a capacidade de conectar-se a rede. Este conceito está diretamente relacionado aos avanços tecnológicos experimentados na construção de dispositivos semicondutores e circuitos integrados que tornaram-se baratos, menores e mais eficientes. Esses avanços também possibilitaram o surgimento de novas aplicações, dentre elas a possibilidade de localização em tempo real. A medição precisa da localização, através da orientação, desempenha um papel crítico para a estimativa do trajeto percorrido por um sensor atrelado a um objeto. O objetivo principal desse trabalho é avaliar, por meio de experimentação, a acurácia de um método para estimativa de trajetória baseado no algoritmo de gradiente descendente e em dados de aceleração e giro obtidos através de uma Unidade de Medição Inercial (IMU) debaixo custo. O experimento foi realizado através da coleta de dados numa caminhada em linha reta, a caminhada foi realizada 30 vezes, a uma frequência de 100Hz e 50 Hz.O equipamento utilizado foi uma MPU-6050 acoplada a uma placa TTGO T-Beam. A estimativa foi calculada por um algoritmo escrito na linguagem Python. Os resultados mostraram que é possível utilizar uma IMU para estimar a trajetória realizada por uma pessoa, com uma boa acurácia, adotando-se uma taxa de amostragem de 50Hz.Item Aspect term extraction in aspect-based sentiment analysis(2019) Francisco, Alesson Delmiro; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340O uso crescente da Internet criou a necessidade de analisar uma vasta quantidade dedados. Uma grande quantia de dados é apresentada como Texto em Linguagem Naturalnão estruturado, com várias maneiras de expressar a mesma informação. É uma tarefaimportante extrair informação e significado destes conteúdos não estruturados, comoopiniões em produtos ou serviços. A necessidade de extrair e analisar a vasta quantidadede dados criados todos os dias na Internet ultrapassou as capacidades humanas, comoresultado, várias aplicações de mineração de texto que extraem e analisam dados textuaisproduzidos por humanos estão disponíveis atualmente, uma destas aplicações é a Análise deSentimentos usada para que empresas e provedores de serviços possam usar o conhecimentoextraído de documentos textuais para melhor entender como seus clientes pensam sobreeles. No entanto, a tarefa de analisar texto não estruturado é difícil, por isso é necessárioprover informação coerente e resumos concisos para as revisões. Análise de Sentimentoé o processo de identificar e categorizar computacionalmente opiniões expressadas numtexto, especialmente para determinar a atitude do autor sobre um tópico ou produto emparticular. Análise de Sentimentos Baseada em Aspectos (ABSA) é um sub-campo daAnálise de Sentimentos que tem como objetivo extrair opiniões mais refinadas e exatas,quebrando o texto em aspectos. A maior parte dos trabalhos atuais na literatura não lucramde recursos baseados em semântica ou análises baseadas em Processamento de LinguagemNatural na fase de pré-processamento. Para tratar essas limitações, um estudo nestesrecursos é feito com o objetivo de extrair as características necessárias para a execuçãoda tarefa, e para fazer a melhor combinação para Extração de Termo de Aspecto. Estetrabalho tem como o principal objetivo implementar e analisar um método de Extraçãode Termo de Aspecto (ATE) de críticas de usuários (restaurantes e laptops). O métodoproposto é baseado em uma abordagem supervisionada chamada Campos CondicionaisAleatórios (CRF) que otimiza o uso de características para classificação, esta escolha éjustificada pelos trabalhos relacionados anteriores que demonstram a eficácia do CRFpara ATE. Um estudo também é feito em métodos para propor novas características eexperimantar com combinações de características para obter as melhores combinações.O estudo detalhado é feito a partir da experimentação com características de palavra,n-gramas e características customizadas utilizando um algoritmo supervisionado CRF pararealizar a tarefa de Extração de Termo de Aspecto com resultados em termo de Precisão,Cobertura e F-Measure, as métricas padrões de avaliação adotadas na área. Por fim, umaavaliação comparativa entre o método proposto para ATE contra outros trabalhos daliteratura mostra que o método apresentado neste trabalho é competitivo.Item Modelo e algoritmos para seleção de sensores como serviço(2019) Verçosa, Nichene Joslin; Gonçalves, Glauco Estácio; Medeiros, Victor Wanderley Costa de; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/3645909376039196A Internet das coisas (IoT) desempenha um papel fundamental no futuro da Internet,pois integrará bilhões de dispositivos inteligentes que apresentarão capacidades de de-tecção, atuação e processamento de dados. Assim, cada dispositivo integrado podeter um ou mais sensores incorporados que potencialmente gerarão enormes quantida-des de dados. Este cenário levanta o desafio de eficientemente procurar e selecionaros sensores mais adequados dentro de um conjunto que possa apresentar funciona-lidades e recursos similares. Neste contexto, este trabalho apresenta um modelo ma-temático para seleção de sensores capaz de maximizar o atendimento aos requisitosde entrada do usuário, como precisão, robustez e disponibilidade para diferentes tiposde sensores (como temperatura, pressão, umidade, velocidade do vento) em um orça-mento limitado. Este modelo foi testado através de dois algoritmos, sendo o primeiroum algoritmo de otimização com solução exata e o segundo uma heurística gulosa.Estas soluções foram avaliadas e comparadas em termos de três critérios: o tempode otimização, a quantidade de orçamento a ser utilizada e limites do objetivo ótimo.As melhores soluções foram encontradas pelo algoritmo de otimização no entanto, aheusrística gulosa obteve resultados próximos com tempo de solução, 10x mais rápidoque o algoritmo de otimização, em alguns casos.Item Predição de popularidade de podcasts através de características textuais(2019) Santana Júnior, Bernardo de Moraes; Cabral, Giordano Ribeiro Eulalio; http://lattes.cnpq.br/6045470959652684; http://lattes.cnpq.br/9948081717430490Com o tremendo crescimento dos Podcast se profissionalização de seus criadores,ao ponto de redes de notícias chamarem esse momento como ”era de ouro”para os Podcasts, novas ferramentas surgiram para auxiliar esses produtores na construção emanutenção de seus canais. Nesse contexto encontrar características nos episódios produzidos que proporcionem um alcance maior ao público alvo é de grande valor tantopara os criadores quanto para os ouvintes, permitindo que canais permaneçam ativospor mais tempo e ofereçam uma melhor qualidade de conteúdo.Assim, este trabalho propõe um estudo de análise de popularidade dosPodcastsna-cionais, utilizando uma ferramenta de análise da audiência dos Podcasts em um dos agregadores de canais e episódios mais utilizados do mundo, oiTunes. Através de ferramentas deWeb Scraping para a coleta das informações disponíveis e necessárias,de ferramentas para transcrições dos áudios dos episódios para a obtenção do que foidito e o calculo de métricas para medir precisão do modelo gerado, assim fazer uma análise de quais informações são relevantes para a predição de popularidade de um canal.Resultados obtidos foram favoráveis na correlação entre as categorias analisadas de forma individual e texto dos episódios nelas contidos, enquanto em uma análise em que categorias não são descriminadas há uma baixa relação entre texto e popularidade, demonstrando que a categoria de determinado canal tem um papel importante na análise de sua popularidade.Item Comparação entre protocolos da camada de aplicação para IoT(2019) Soares, Raphael Felipe Ramos Duarte; Gonçalves, Glauco Estácio; Medeiros, Victor Wanderley Costa de; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/4811240660930767A quantidade de objetos inteligentes, com capacidade computacional e de se comu-nicarem entre si e se conectarem à Internet cresce cada vez mais. Nesse contexto,a forma como estes dispositivos enviam e recebem informações entre si é de funda-mental relevância para alavancar a área da Internet das Coisas (IoT). Baseado nisto,o presente trabalho propõe avaliar 3 protocolos de comunicação em rede, sendo eleso HTTP, o MQTT e o CoAP, e elencar o mais rápido, robusto e confiável. Para tal, foielaborado um experimento utilizando uma placa Raspberry Pi, servindo como disposi-tivo IoT, e um notebook. O experimento consistiu no envio de uma certa quantidade dedados da placa Raspberry Pi para o notebook utilizando os protocolos mencionadosanteriormente. Para deixar o experimento o mais próximo possível da realidade, foiutilizado um simulador de redes para emular uma rede de baixa qualidade. Os paco-tes de dados enviados foram capturados e foi realizada uma análise estatística paracomparar 2 fatores: latência e perda de pacotes. A partir do resultado dessa análisefoi possível concluir que o protocolo CoAP se comportou melhor diante de uma redede baixa qualidade, enquanto que o HTTP mostrou melhor resultado para redes comqualidade superior.
