@inproceedings{guedes-etal-2026-identificacao,
title = "Identifica{\c{c}}{\~a}o de not{\'i}cias falsas em portugu{\^e}s: um olhar sobre a generaliza{\c{c}}{\~a}o de modelos",
author = "Guedes, Raphael and
Barros, Bruno and
Nascimento, Hugo do",
editor = "Souza, Marlo and
de-Dios-Flores, Iria and
Santos, Diana and
Freitas, Larissa and
Souza, Jackson Wilke da Cruz and
Ribeiro, Eug{\'e}nio",
booktitle = "Proceedings of the 17th International Conference on Computational Processing of {P}ortuguese ({PROPOR} 2026) - Vol. 1",
month = apr,
year = "2026",
address = "Salvador, Brazil",
publisher = "Association for Computational Linguistics",
url = "https://preview.aclanthology.org/ingest-dnd/2026.propor-1.71/",
pages = "717--726",
ISBN = "979-8-89176-387-6",
abstract = "A dissemina{\c{c}}{\~a}o de desinforma{\c{c}}{\~a}o em meios digitais requer mecanismos robustos de detec{\c{c}}{\~a}o, tarefa na qual modelos de linguagem apresentam desempenho satisfat{\'o}rio. Entretanto, s{\~a}o percebidas na literatura an{\'a}lises que desconsideram a caracter{\'i}stica da degrada{\c{c}}{\~a}o da capacidade de generaliza{\c{c}}{\~a}o dos modelos em dados reais, diferentes daqueles nos quais o treino ou ajuste fino foi realizado. Este trabalho investiga o comportamento dos modelos BERTimbau e mBERT em cen{\'a}rios de generaliza{\c{c}}{\~a}o cruzada (dados de teste diferentes dos dados de treinamento e valida{\c{c}}{\~a}o). Para isso, foi realizado um ajuste fino utilizando quatro corpora brasileiros (Fake.br, Fakepedia, FakeRecogna e FakeTrueBR). Os resultados confirmam a hip{\'o}tese de que avalia{\c{c}}{\~o}es intra-base t{\^e}m altas taxas de desempenho, enquanto avalia{\c{c}}{\~o}es entre-bases t{\^e}m baixas taxas e alta degrada{\c{c}}{\~a}o na generaliza{\c{c}}{\~a}o cruzada, ainda que o objetivo de identifica{\c{c}}{\~a}o de not{\'i}cias falsas seja mantido. Quanto {\`a} capacidade preditiva dos modelos, o BERTimbau se mostrou ligeiramente melhor na m{\'e}dia com 71{\%} de acur{\'a}cia e 67{\%} de f1-score contra 69{\%} e 64{\%}, respectivamente, para o mBERT."
}Markdown (Informal)
[Identificação de notícias falsas em português: um olhar sobre a generalização de modelos](https://preview.aclanthology.org/ingest-dnd/2026.propor-1.71/) (Guedes et al., PROPOR 2026)
ACL