01. Universidade Federal Rural de Pernambuco - UFRPE (Sede)

URI permanente desta comunidadehttps://arandu.ufrpe.br/handle/123456789/1

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 39
  • Imagem de Miniatura
    Item
    Navegando pelas emoções: aplicando modelos de linguagem de grande escala para auxiliar crianças no processamento de eventos pessoais
    (2025-08-08) Silva Filho, Aurineque da Costa; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340
    Nos dias atuais, diversos modelos de LLM têm sido aplicados em uma ampla gama de áreas, evidenciando o potencial dessas tecnologias para resolver desafios complexos. Nesse contexto, o Fafabot surge como uma iniciativa que visa apoiar o desenvolvimento emocional infantil, uma área essencial para a formação de habilidades sociais e o bem-estar das crianças. Existem avanços promissores identificados em estudos laboratoriais recentes, dos quais demonstram que é possível criar um ambiente onde a criança possa se sentir segura para não só compartilhar experiências sobre eventos pessoais, como também incentivar elas a entender as possíveis emoções associadas. Contudo ainda há uma lacuna significativa na aplicação dessas soluções em contextos cotidianos e também o campo cultural e econômico aplicado a outras realidades como o Brasil. Alguns Estudos reforçam que o desenvolvimento emocional é algo que deve ser trabalhado desde a infância, pois nesta fase as crianças possuem dificuldade de compreender e expressar o que estão sentindo. O Fafabot propõe utilizar Modelos de Linguagem de Grande Escala (LLMs) para criar um ambiente seguro, culturalmente sensível e acolhedor, onde as crianças possam compreender e expressar suas emoções de forma natural, além de auxiliá-las com estratégias de enfrentamento para emoções negativas que possam indicar quadros de ansiedade e tristeza, sugerindo a busca de um profissional da mente quando necessário e sempre incentivando a criança a compartilhar estes sentimentos com seus pais. Verificando as implicações deste tipo de tecnologia em crianças entre 8 e 12 anos na cidade de Olinda-PE.
  • Imagem de Miniatura
    Item
    Reestruturação ética na mineração de dados educacionais superiores: conformidade com a Lei Geral de Proteção de Dados
    (2025-08-12) Vasconcelos, Taciana dos Santos; Gouveia, Roberta Macêdo Marques; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/2024317361355224; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/8691839294756407
    Este estudo aborda a reestruturação dos dados públicos educacionais do Ensino Superior promovida pelo INEP, alinhada à LGPD. Inspirado pelo estudo conduzido por Rodrigues (2021), que analisou concluintes de graduação, visando à construção de modelos de classificação utilizando fatores socioeconômicos e tempo estimado para conclusão da graduação em IES públicas. Este trabalho examina como as mudanças na configuração dos dados do ENADE e do Censo da Educação Superior afetam a realização de pesquisas científicas. Em resposta às mudanças nos microdados efetuadas pelo INEP, que impossibilitam a reprodução de trabalhos com finalidade de análise individual de discentes, este estudo direcionou seu enfoque para as informações dos cursos e tempo de graduação dos discentes nesses cursos, considerando medidas de tendência central. Consideraram-se os anos de 2016 a 2018 para dados do ENADE e 2018 para Censo da Educação Superior. Utilizou-se o processo de Knowledge Discovery in Database (KDD) ao longo do trabalho, desde a seleção até a interpretação de dados. Usando 5.170 registros de cursos, técnicas do Aprendizado de Máquina Supervisionado foram empregadas para construção de modelos de regressão e classificação. Essa abordagem visa superar os desafios éticos e metodológicos da reestruturação dos dados, garantindo a utilidade dos dados para fins de pesquisa científica. Resultados mostram que as mudanças permitiram o uso eficaz de modelos de Aprendizado de Máquina. O estudo destaca a importância da ética nos dados educacionais e na inteligência artificial, garantindo a proteção da privacidade e a responsabilidade na utilização dos dados para tomada de decisões futuras.
  • Imagem de Miniatura
    Item
    Utilização ao de IA generativa para a geração e validação ao de questões com base na teoria da resposta ao item
    (2025-08-08) Souza, Jéssica Alves de; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/3448543860376528
    Este trabalho teve como objetivo investigar a utilização da IA generativa na geração de exercícios educacionais e na simulação de respostas de estudantes, com o intuito de aplicar a Teoria de Resposta ao Item (TRI) aos resultados da simulação e verificar se os exercícios gerados correspondem ao nível de dificuldade solicitado, calibrando o simulador. Para isso, foi desenvolvida uma arquitetura de serviços web em FastAPI que orquestra chamadas a Grandes Modelos de Linguagem (LLMs) por meio de templates de prompts contextualizados, permitindo a criação de questões objetivas e dissertativas no estilo ENEM, além da simulação de respostas de mil estudantes fictícios cujas habilidades foram amostradas a partir de uma distribuição gaussiana. A reestimação dos parâmetros a, b e c do modelo logístico de três parâmetros (ML-3P) via bootstrap foi avaliada quantitativamente por meio de métricas de erro. Qualitativamente, as questões produzidas seguiram o padrão ENEM e atenderam às regras predefinidas. No teste quantitativo de seis questões com o prompt A para determinar sua dificuldade, obteve-se 50 % de acerto. Nas classificações incorretas, as estimativas permaneceram coerentes com a faixa correta, com valores próximos aos seus limites. Por fim, a simulação de respostas forneceu subsídios quantitativos valiosos para aprimorar os prompts e a aplicação dos modelos, aproximando mais os resultados dos dados reais.
  • Imagem de Miniatura
    Item
    Análise de desempenho do Gemini na estimativa de peso de alimentos por imagem
    (2025-08-06) Silva, Carlos Gabriel Farias da; Garrozi, Cícero; http://lattes.cnpq.br/0488054917286587
    Com o avanço das inteligências artificiais multimodais, cresce o interesse em sua aplicação na área da saúde para facilitar a análise nutricional e auxiliar no combate à obesidade. No entanto, a confiabilidade desses modelos para identificar alimentos e estimar porções a partir de imagens ainda é incerta, sendo fundamental mensurar seu desempenho de forma objetiva. Este trabalho avalia a capacidade do modelo Gemini de classificar ingredientes e estimar seus respectivos pesos (em gramas) a partir de fotografias de refeições. Para isso, foi desenvolvido um sistema automatizado que envia requisições à API do Gemini, utilizando um prompt textual padronizado, elaborado com técnicas de engenharia de prompt, e uma lista de ingredientes de referência. As respostas do modelo, obtidas em formato JSON, foram comparadas com dados reais para análise de desempenho. Os resultados obtidos nos experimentos indicaram um baixo desempenho geral. Na classificação de ingredientes, o modelo apresentou baixa precisão e sensibilidade (recall), com dificuldade em detectar itens como temperos e condimentos (por exemplo, azeite e sal) que estavam misturados a outros alimentos, embora tenha obtido altas taxas de aceno para ingredientes visualmente distintos, como morangos e ovos mexidos. Na estimativa de peso, o desempenho também foi insatisfatório, com altos valores de erro (MAE e RMSE) e coeficiente de determinação (R2) negativo, evidenciando tendência à superestimação e desempenho inferior a uma simples predição pela média.
  • Imagem de Miniatura
    Item
    Tutoria: Plataforma para suporte à correção de atividades e envio de feedback personalizado
    (2023-04-19) Lima Neto, José Rodrigues de; Mello, Rafael Ferreira Leite de; http://lattes.cnpq.br/6190254569597745; http://lattes.cnpq.br/7813436627139390
    O feedback dado por professores a estudantes sobre atividades avaliativas é fundamental para a construção do conhecimento e compreensão acerca de sua trajetória de aprendizagem. Entretanto, frequentemente professores não conseguem fornecer feedback de qualidade e em tempo hábil, devido à sobrecarga de trabalho e à falta de tempo, gerando frustração para todos os envolvidos. Neste contexto, a plataforma Tutoria tem o objetivo de apoiar professores na correção de atividades avaliativas de maneira mais rápida, mantendo a qualidade e a personalização. Para isso, Tutoria utiliza técnicas de inteligência artificial para dar suporte na correção de questões discursivas, priorizando a usabilidade.
  • Imagem de Miniatura
    Item
    Comparação de modelos de ia para extração de dados em glicosímetros
    (2024-09-25) Carmo, Genivaldo Braynner Teixeira do; Correia, Julyanne Maria dos Santos; Silva Filho, Ronaldo Rodrigues da; Sampaio, Pablo Azevedo; Medeiros, Robson Wagner Albuquerque de
    A diabetes é uma condição crônica que requer monitoramento constante dos níveis de glicose no sangue, sendo essencial o uso de glicosímetros para a obtenção dessas informações. Este trabalho tem como objetivo comparar três modelos de Inteligência Artificial, Gemini, GPT-4o e Llava 1.5, para identificar qual deles extrai, de forma mais eficaz, os dados de glicose, data e hora dos glicos´ımetros. Utilizando técnicas de engenharia de prompt, busca-se aprimorar a precisão e eficiência na extração desses dados, otimizando o monitoramento e contribuindo para a melhor gestão da saúde de pacientes diabéticos.
  • Imagem de Miniatura
    Item
    The digital behavior of voters in interactions with the social media posts of candidates running for elections
    (2022-10-06) Silva Filho, Heriberto Alexandre da; Brito, Kellyton dos Santos; http://lattes.cnpq.br/8750956715158540; http://lattes.cnpq.br/6181814500468590
    The extensive use of digital tools and digital marketing strategies over the last few years has become increasingly more frequent and characteristic in political campaigns Within this scenario, this study aims to investigate the use of SM in contemporary political communication, seeking to understand the features that influence the engagement of voters in posts by politicians on their social media profiles. As a case study, we have focused on the Brazilian presidential election in 2018. The investigation was based on an analysis of politicians’ posts on Instagram, Twitter, and Facebook (N = 1319) in the last two weeks before the elections, which investigated features such as functional approach, the Aristotelian rhetoric adopted, and the type of content, among others, and established relationships between these features and user engagement. This study also proposes to investigate the feasibility of using machine learning models to predict the level of engagement of the candidate's posts. Finally, another objective of this paper is to find similarities or differences between the digital campaign strategies, and their impacts on the level of engagement, of the two candidates with the best electoral results. Our main results indicate that the platform with the highest level of engagement was Instagram, together with polarized discourses that presented speeches of attack and defense or emotionally charged topics tended to engage more. Regarding the predictions, the Gradient Boosting model proved to be efficient, R² =0.77, to make the predictions. Regarding the digital campaign strategies, although the two candidates are from opposite political sides, it was possible to find more similarities, such as: functional approach, content structure, and content type, and others...than differences. However the few differences found also represent a valuable result for the understanding of the political landscape, there were divergences for example in Aristotelian rhetoric, content type, and rhetorical device. All these results helped to understand how the electorate interacts with the candidates' speeches in a new era of digital campaigning.
  • Imagem de Miniatura
    Item
    Desenvolvimento de aplicação em Outsystems para área de saúde utilizando práticas do HIPAA compliance
    (2025-03-26) Carvalho, Udney Epaminondas; Bocanegra, Silvana; Marques, Paulo César Florentino; http://lattes.cnpq.br/1264573844331881; http://lattes.cnpq.br/4596111202208863; http://lattes.cnpq.br/3835096844800301
    A iminente necessidade das empresas de adotarem o processo de transformação digital induziu muitas a buscarem recursos que possam fornecer entregas ágeis e robustas para a digitalização dos seus processos. Esta transformação digital também atinge o setor de saúde, que atrelado aos desafios inerentes a própria natureza destas mudanças, também precisa lidar com cautela ao tratar das informações sensíveis dos pacientes e o compartilhamento destes dados. Para atender a demandas como estas, onde é necessário agilidade e segurança para a elaboração de projetos, tem se popularizado o uso de plataformas low-code, que por usar os benefícios da computação em nuvem e a possibilidade de criar código utilizando recursos visuais, vai facilitar o aprendizado técnico e permitir a criação de aplicações robustas em um tempo reduzido. O presente trabalho tem como objetivo apresentar o uso de uma plataforma low-code (OutSystems) no desenvolvimento de uma aplicação web para gerenciamento e realização de consultas médicas. Como estudo de caso, será utilizado um produto da start up ZophIA.tech, que faz uso de inteligência artificial aprimorada por análise geométrica para auxiliar no diagnóstico de esquizofrenia e outras doenças mentais através da fala e gestos de pacientes. Serão implementadas as regras de segurança de dados do padrão americano HIPAA para tratar com informações sensíveis dos pacientes.
  • Imagem de Miniatura
    Item
    Detecção de fake news: uma abordagem baseada em Large Language Models e Prompt Engineering
    (2025-03-20) Fonseca, Pablo Weslley Silva da; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/6258598537884813
    Este trabalho aborda o uso de Large Language Models (LLMs) para a detecção de fake news ou notícias falsas no idioma inglês e português. As notícias falsas têm gerado impactos negativos, como desinformação e conflitos sociais, sendo amplamente disseminadas pelas redes sociais. Embora métodos tradicionais de verificação sejam eficazes, como checagem manual e agências de verificação de fatos, a aplicação de algoritmos de machine learning e deep learning trouxe avanços importantes. No entanto, esses modelos apresentam limitações, como perda de contexto semântico e custos de treinamento. A introdução da arquitetura Transformers possibilitou avanços significativos com LLMs, como BERT, GPT e T5, devido à sua capacidade de compreender padrões linguísticos complexos. Este trabalho propõe uma abordagem de detecção de notícias falsas a partir recuperações de informações pela Web e o modelo Qwen2.5-7B-Instruct, comparando o desempenho com propostas que combina recuperação de informações com modelos tradicionais e LLMs. Os resultados destacam vantagens e desvantagens, contribuindo para futuras melhorias em sistemas automatizados de detecção de notícias falsas.
  • Imagem de Miniatura
    Item
    Geração aumentada para recuperação de dados urbanos integrados: consolidando dados do IBGE, Censo, CNEFE e OSM para a otimização do planejamento urbano
    (2025-03-21) Conceição, Keyson Raphael Acioli da; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/3198610477751043
    Nos últimos anos, os campos da Inteligência Artificial (IA) e do aprendizado de máquina (AM) revolucionaram o domínio do planejamento urbano, pois permitem que volumes substanciais de dados sejam analisados de forma eficaz, incentivando melhor alocação de recursos e entregas de serviços públicos. Para atingir este objetivo, o agente inteligente proposto neste trabalho reúne dados de várias fontes, incluindo Censo Demográfico, Cadastro Nacional de Endereços para Fins Estatísticos - CNEFE, e OpenStreetMap (OSM) para oferecer respostas baseadas em contexto relacionadas à distribuição da população e acesso a diferentes serviços urbanos. A abordagem proposta inclui um pipeline de processamento que implementa normalização, indexação vetorial das informações e representação semântica para tornar as consultas mais eficazes. Para avaliar o sistema proposto, foi conduzido um experimento com especialistas em planejamento urbano e analisamos a relevância, clareza e utilidade das respostas geradas pelo sistema. Tais resultados mostram que o agente é capaz de detectar áreas com pouca cobertura de serviços necessários, indicando uma alocação adequada. No entanto, outros desafios, tais como a necessidade de melhor clarificação das respostas e ampliação da cobertura espacial, foram reconhecidos como oportunidades para trabalho futuro.