Logo do repositório
Comunidades & Coleções
Busca no Repositório
Guia Arandu
  • Sobre
  • Equipe
  • Como depositar
  • Fale conosco
  • English
  • Português do Brasil
Entrar
Novo usuário? Clique aqui para cadastrar.Esqueceu sua senha?
  1. Início
  2. Pesquisar por Orientador

Navegando por Orientadores "Sampaio, Pablo Azevedo"

Filtrar resultados informando o último nome do autor
Agora exibindo 1 - 5 de 5
  • Resultados por Página
  • Opções de Ordenação
  • Imagem de Miniatura
    Item
    Aprendizado profundo com capacidade computacional reduzida: uma aplicação à quebra de CAPTCHAs
    (2018-08-16) Melo, Diogo Felipe Félix de; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/2213650736070295
    Na última década, Redes Neurais Profundas tem se mostrado uma poderosa técnica de aprendizado de máquina. Em geral, essas técnicas demandam alto poder computacional e grandes volumes de dados para obter resultados expressivos, o que pode ser um fator limitante em algumas realidades. Entretanto, o projeto cuidadoso da arquitetura e do treino podem ajudar a reduzir estes requisitos. Neste trabalho apresentamos uma abordagem comparativa para a aplicação de redes neurais profundas à quebra de CAPTCHAs de texto como uma forma de contornar essas limitações. Estudamos modelos capazes de aprender a segmentar e identificar o texto contido em imagens baseando-se apenas em exemplos. A partir da experimentação de diferentes hiper-parâmetros e arquiteturas, fomos capazes de obter um modelo final com acurácia de 96.06% de acerto por token em aproximadamente 3 horas de treino executado em um simples computador pessoal.
  • Imagem de Miniatura
    Item
    Classificação de documentos de identificação com redes neurais convolucionais
    (2019-01-18) Rocha, Alessandro Nazário da; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/2466292990350036
    O aprendizado profundo (Deep Learning) tem desempenhado um papel importante em processamento de dados, tendo com uma de suas principais técnicas as redes neurais convolucionais, uma de suas aplicações é na área de visão computacional e pode ser utilizada para aprender automaticamente características incluídas em imagens em suas camadas. No entanto, essas redes neurais artificiais profundas precisam de uma quantidade significante de imagens, para os problemas propostos, já separados em categorias para realização dos treinamentos e validações dos modelos que nem sempre são disponíveis. Nexte contexto, neste trabalho foi construído um dataset com imagens de documento de identificação brasileiro de Registro Nacional (RG) e Carteira Nacional de Habilitação (CNH) separando-os em algumas categorias e por se tratar de documentos com informações sensíveis, juntar uma quantidade de imagens para obter bons resultados, foi um passo que demandou tempo. Por isso, foram tomados os devidos cuidados para que essas informações sensíveis fossem preservadas. Este trabalho apresenta algumas arquiteturas de redes neurais artificias convolucionais para classificar as imagens em diferentes categorias. Experimentos foram realizados com a utilização de unidade de processamento gráfico (GPU) e com a utilização só de unidade central de processamento (CPU). Resultados de 99% de acertos foram obtidos em alguns cenários que foram testados no decorrer do trabalho para as diferentes arquiteturas propostas.
  • Imagem de Miniatura
    Item
    Teacher-Student aplicado a diferentes modelos de recompensa do ambiente Lunar Lander
    (2021-07-20) Silva, Kenedy Felipe dos Santos da; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/7479192156880225
    As técnicas estudadas relacionadas à aprendizagem por reforço estão se tornando cada vez mais comuns em desafios do mundo real, porém um desafio é reduzir o tempo de aprendizado. Atualmente o tempo de aprendizado e/ou quantidade de interações realizadas pelo agente de aprendizagem por reforço podem resultar em altos custos nas aplicações, pois o treinamento dos modelos podem consumir bastante tempo, exigindo muitas interações do agente com o ambiente da tarefa. Este trabalho busca melhorar o aprendizado utilizando uma nova combinação de técnicas, a técnica Teacher-Student (Aluno-Professor) com a Reward Shaping (modelagem de recompensas). A técnica Teacher-Student visa escolher dentre um conjunto de tarefas similares que treinam para uma tarefa principal, de acordo com o aprendizado do aluno. A técnica Reward Shaping, altera a recompensa para tentar acelerar o aprendizado, fornece feedbacks mais frequentes sobre os comportamentos apropriados, ou seja, reporta recompensas com mais frequência. Adaptamos algoritmos de Teacher-Student para essa combinação de técnicas, e usamos o ambiente Lunar Lander como estudo de caso, usando quatro modelos de recompensa elaborados em (ALBUQUERQUE, 2021) para este ambiente. Foram realizados experimentos executando diferentes treinamentos para comparar essa abordagem com o treinamento apenas no Lunar Lander original (sem alteração das recompensas), e com os resultados obtidos em (ALBUQUERQUE, 2021) ao adotar cada um dos modelos de recompensas individualmente. A combinação das técnicas Teacher-Student com Reward Shaping contribuíram para uma nova experiência na área de aprendizagem por reforço, conseguindo acelerar o aprendizado do agente, considerando a duração de 600 mil passos de treinamento, atingindo o desempenho alvo em 2 de 5 propostas, além de conseguir aprender melhor que a abordagem original do Lunar Lander com algoritmo PPO.
  • Imagem de Miniatura
    Item
    Um currículo de aprendizado por reforço para o cenário “Run to Score with Keeper” do Google Research Football Environment
    (2019-12-10) Silva, Jonatan Washington Pereira da; Sampaio, Pablo Azevedo; Macário Filho, Valmir; http://lattes.cnpq.br/4346898674852080; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/6846637095187550
    O aprendizado por reforço é um conjunto de técnicas que permitem a um agente interagir com um determinado ambiente. Os agentes observam o estado do ambiente e executam uma ação, a ação é avaliada por meio de uma recompensa obtida. O agente tem como objetivo maximizar esta recompensa. Diversas questões como: locomoção em três dimensões e jogos eletrônicos foram abordados pelo aprendizado por reforço (KURACH et al., 2019). O treinamento de agentes para um jogo de futebol normalmente possui recompensas esparsas, o que retarda o aprendizado (MATIISEN et al., 2019). Uma técnica que pode contornar este obstaculo é o aprendizado por currículo proposto em (BENGIO et al., 2009). O aprendizado por currículo é uma técnica que aborda sub-tarefas mais simples da tarefa principal e aumenta gradativamente o nível de dificuldade ao longo do tempo. Neste trabalho apresentamos dois currículos, identificados como: 5-15-30-50 e 3-10-20-67, para o cenário Run to Score with Keeper da Football Academy. Mostramos que os currículos, em média, obtiveram melhores resultados se comparados ao treinamento apenas no cenário principal, sem currículo. O currículo 3-10-20-67 obteve um melhor resultado mesmo considerando o desvio padrão.
  • Imagem de Miniatura
    Item
    Um currículo de aprendizagem por reforço para recompensas modeladas no Lunar Lander
    (2021-07-19) Albuquerque, Renilson da Silva; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/3364503614448061
    A aprendizagem por reforço é um paradigma de aprendizagem de máquina onde o agente aprende a resolver problemas interagindo com um ambiente através de ações executadas em uma lógica de tentativa e erro. A cada ação executada, o agente recebe uma recompensa do ambiente indicando o quão efetiva foi em relação a resolução do problema, de forma que o objetivo do agente consiste em maximizar a recompensa total recebida. Porém, em alguns sistemas de aprendizagem por reforço o agente precisa aprender tarefas muito complexas que atribuem recompensas não muito informativas, gerando assim o problema de atribuição de crédito que torna a aprendizagem do agente muito lenta. A modelagem de recompensas e a aprendizagem por currículo, são técnicas que podem acelerar o tempo de treinamento do agente ao separar o problema em tarefas menores a serem resolvidas sequencialmente, atribuindo recompensas menores e mais informativas por ação executada. O Lunar lander é um simulador 2D simplificado, utilizado como referencial para a aplicação de soluções de aprendizagem por reforço para o problema de otimização do controle de pouso de um módulo lunar. Porém o seu sistema de recompensas padrão atribui muito mais recompensas punitivas pelo uso dos motores, não sendo muito construtivo para o agente, o que pode levar ao problema de atribuição de crédito. Neste sentido, este trabalho propôs um currículo utilizando dois novos modelos de recompensas, onde foram realizados experimentos a fim de minimizar o tempo de aprendizado do Lunar Lander. Foi constatado neste trabalho que ambos os novos modelos e o currículo, foram mais efetivos em treinar o agente do Lunar Lander, em comparação ao modelo de recompensas padrão.
Logo do SIB-UFRPE
Arandu - Repositório Institucional da UFRPE

Universidade Federal Rural de Pernambuco - Biblioteca Central
Rua Dom Manuel de Medeiros, s/n, Dois Irmãos
CEP: 52171-900 - Recife/PE

+55 81 3320 6179  repositorio.sib@ufrpe.br
Logo da UFRPE

DSpace software copyright © 2002-2025 LYRASIS

  • Enviar uma sugestão