@inproceedings{hau-nguyen-etal-2022-filtrage,
title = "Filtrage et r{\'e}gularisation pour am{\'e}liorer la plausibilit{\'e} des poids d{'}attention dans la t{\^a}che d{'}inf{\'e}rence en langue naturelle (Filtering and regularization to improve the plausibility of attention weights in {NLI})",
author = "Hau Nguyen, Duc and
Gravier, Guillaume and
S{\'e}billot, Pascale",
editor = "Est{\`e}ve, Yannick and
Jim{\'e}nez, Tania and
Parcollet, Titouan and
Zanon Boito, Marcely",
booktitle = "Actes de la 29e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2022",
address = "Avignon, France",
publisher = "ATALA",
url = "https://preview.aclanthology.org/fix-sig-urls/2022.jeptalnrecital-taln.9/",
pages = "95--103",
language = "fra",
abstract = "Nous {\'e}tudions la plausibilit{\'e} d{'}un m{\'e}canisme d{'}attention pour une t{\^a}che d{'}inf{\'e}rence de phrases (entailment), c{'}est-{\`a}-dire sa capacit{\'e} {\`a} fournir une explication plausible pour un humain de la relation entre deux phrases. En s{'}appuyant sur le corpus Explanation-Augmented Standford Natural Language Inference, il a {\'e}t{\'e} montr{\'e} que les poids d{'}attention sont peu plausibles en pratique et tendent {\`a} ne pas se concentrer sur les tokens importants. Nous {\'e}tudions ici diff{\'e}rentes approches pour rendre les poids d{'}attention plus plausibles, en nous appuyant sur des masques issus d{'}une analyse morphosyntaxique ou sur une r{\'e}gularisation pour forcer la parcimonie. Nous montrons que ces strat{\'e}gies permettent d{'}am{\'e}liorer sensiblement la plausibilit{\'e} des poids d{'}attention et s{'}av{\`e}rent plus performantes que les approches par carte de saillance."
}
Markdown (Informal)
[Filtrage et régularisation pour améliorer la plausibilité des poids d’attention dans la tâche d’inférence en langue naturelle (Filtering and regularization to improve the plausibility of attention weights in NLI)](https://preview.aclanthology.org/fix-sig-urls/2022.jeptalnrecital-taln.9/) (Hau Nguyen et al., JEP/TALN/RECITAL 2022)
ACL