Nazanin Shafiabadi
2026
Biases in Translation: Assessing Opinion Distortion in Machine Translated Texts
Nazanin Shafiabadi | François Yvon
Proceedings of the Fifteenth Language Resources and Evaluation Conference
Nazanin Shafiabadi | François Yvon
Proceedings of the Fifteenth Language Resources and Evaluation Conference
Current machine translation (MT) evaluation practices largely assume that high lexical and semantic fidelity implies preservation of meaning. We question this assumption by introducing a framework for detecting and quantifying translation-induced distortion—the systematic alteration of a text’s subjective properties during translation. Focusing on stance as a socially consequential property, we formalize stance preservation as an invariance problem and adapt two classical statistical tests, McNemar’s test and the two-proportion Z-test, to diagnose systematic opinion shifts between source texts and their translations. Unlike standard MT metrics such as BLEU or COMET, which prioritize surface similarity and adequacy, our approach explicitly targets preservation of subjective meaning. In controlled experiments with synthetically distorted translations, we demonstrate that the proposed tests are sensitive to graded levels of stance manipulation. We apply our framework to evaluate twelve multilingual models and find that none reliably preserve stance across all tested language directions. Our findings reveal a critical gap in current MT evaluation practices and highlight the need for explicit evaluation of subjective meaning preservation in socially and politically sensitive contexts.
2025
Comment mesurer les biais politiques des grands modèles de langue multilingues?
Paul Lerner | Laurène Cave | Hal Daumé | Léo Labat | Gaël Lejeune | Pierre-Antoine Lequeu | Benjamin Piwowarski | Nazanin Shafiabadi | François Yvon
Actes de l'atelier Ethic and Alignment of (Large) Language Models 2025 (EALM)
Paul Lerner | Laurène Cave | Hal Daumé | Léo Labat | Gaël Lejeune | Pierre-Antoine Lequeu | Benjamin Piwowarski | Nazanin Shafiabadi | François Yvon
Actes de l'atelier Ethic and Alignment of (Large) Language Models 2025 (EALM)
Nous proposons une nouvelle méthode pour mesurer les biais politiques des grands modèles de langue multilingues pour la traduction automatique, l’aide à la rédaction et le résumé automatique. Nous nous appuyons sur une représentation dense des opinions politiques exprimées dans les textes, apprise de façon faiblement supervisée.
Anti-surprise : Une métrique complémentaire pour évaluer l’apprentissage lexical des (grands) modèles de langue
Nazanin Shafiabadi | Guillaume Wisniewski
Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 2 : traductions d'articles publiés
Nazanin Shafiabadi | Guillaume Wisniewski
Actes des 32ème Conférence sur le Traitement Automatique des Langues Naturelles (TALN), volume 2 : traductions d'articles publiés
Un grand nombre de travaux s’appuient sur l’analyse des courbes de surprise pour évaluer la manière dont les modèles de langue capture le sens des mots au cours de leur apprentissage. Toutefois, cette approche ne considère que la capacité d’un modèle à prédire un mot dans des contextes appropriés, sans prendre en compte sa capacité à ne pas produire ce mot dans des contextes inappropriés. Pour combler cette lacune, nous introduisons une nouvelle mesure complémentaire, que nous appelons l’anti-surpris, qui évalue la capacité d’un modèle à ne pas utiliser un mot dans des contextes où il serait surprenant voire erroné. Nous montrons que l’analyse conjointe des courbes de surprise et d’anti-surprise permet de mieux caractériser l’acquisition du lexique par les modèles de langue.
Beyond Surprisal: A Dual Metric Framework for Lexical Skill Acquisition in LLMs
Nazanin Shafiabadi | Guillaume Wisniewski
Proceedings of the 31st International Conference on Computational Linguistics
Nazanin Shafiabadi | Guillaume Wisniewski
Proceedings of the 31st International Conference on Computational Linguistics
Many studies have explored when and how LLMs learn to use specific words, primarily by examining their learning curves. While these curves capture a model’s capacity to use words correctly in context, they often neglect the equally important skill of avoiding incorrect usage. In this paper, we introduce a new metric, anti-surprisal, which measures a model’s capacity to refrain from using words in inappropriate or unexpected contexts. By examining both correct usage and error avoidance, we offer a more comprehensive perspective on the learning dynamics of LLMs.