@inproceedings{ribeiro-etal-2026-aspectrag,
title = "{A}spect{RAG}: Uma Arquitetura de Recupera{\c{c}}{\~a}o e Gera{\c{c}}{\~a}o para An{\'a}lise de Sentimentos Baseada em Aspectos",
author = "Ribeiro, Erick R. and
Carvalho, Andr{\'e} and
Esashika, Rhedson",
editor = "Souza, Marlo and
de-Dios-Flores, Iria and
Santos, Diana and
Freitas, Larissa and
Souza, Jackson Wilke da Cruz and
Ribeiro, Eug{\'e}nio",
booktitle = "Proceedings of the 17th International Conference on Computational Processing of {P}ortuguese ({PROPOR} 2026) - Vol. 1",
month = apr,
year = "2026",
address = "Salvador, Brazil",
publisher = "Association for Computational Linguistics",
url = "https://preview.aclanthology.org/ingest-dnd/2026.propor-1.19/",
pages = "194--202",
ISBN = "979-8-89176-387-6",
abstract = "Propomos o AspectRAG, uma arquitetura de Recupera{\c{c}}{\~a}o e Gera{\c{c}}{\~a}o para ASTE em portugu{\^e}s que opera sem treinamento supervisionado. O m{\'e}todo extrai aspectos com um LLM, codifica-os como vetores densos e usa apenas esses vetores para recuperar evid{\^e}ncias altamente espec{\'i}ficas por meio de busca aproximada e fus{\~a}o de rankings. As evid{\^e}ncias recuperadas comp{\~o}em o contexto do modelo gerador, que produz as triplas finais. Nos datasets ReLi e ReHol, o AspectRAG obt{\'e}m at{\'e} 93,47{\%} em ATE, 80,68{\%} em OTE e 69,83{\%} em ASTE, superando modelos supervisionados como OTE-MTL, CMLA-MTL e BOTE, o estado da arte em Portugu{\^e}s. O estudo de abla{\c{c}}{\~a}o evidencia que a recupera{\c{c}}{\~a}o sem{\^a}ntica guiada por aspectos {\'e} o principal fator respons{\'a}vel pelos ganhos observados, enquanto o tamanho do LLM tem impacto secund{\'a}rio. Os resultados mostram que a arquitetura AspectRAG {\'e} uma solu{\c{c}}{\~a}o eficiente, e competitiva mesmo sem fine-tuning, apoiando-se apenas em recupera{\c{c}}{\~a}o vetorial e infer{\^e}ncia contextualizada."
}Markdown (Informal)
[AspectRAG: Uma Arquitetura de Recuperação e Geração para Análise de Sentimentos Baseada em Aspectos](https://preview.aclanthology.org/ingest-dnd/2026.propor-1.19/) (Ribeiro et al., PROPOR 2026)
ACL