@inproceedings{charpentier-etal-2025-alignements,
title = "Alignements entre attention et s{\'e}mantique dans des mod{\`e}les de langues pr{\'e}-entra{\^i}n{\'e}s",
author = "Charpentier, Fr{\'e}d{\'e}ric and
Cugliari Duhalde, Jairo and
Guille, Adrien",
editor = "Bechet, Fr{\'e}d{\'e}ric and
Chifu, Adrian-Gabriel and
Pinel-sauvagnat, Karen and
Favre, Benoit and
Maes, Eliot and
Nurbakova, Diana",
booktitle = "Actes des 32{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : articles scientifiques originaux",
month = "6",
year = "2025",
address = "Marseille, France",
publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
url = "https://preview.aclanthology.org/corrections-2025-10/2025.jeptalnrecital-taln.6/",
pages = "100--116",
language = "fra",
abstract = "Les AMR (Abstract Meaning Representation) sont une structure destin{\'e}e {\`a} coder la s{\'e}mantique de phrases sous forme de graphes. Les mots des phrases correspondantes peuvent {\^e}tre align{\'e}s avec les sommets de l{'}AMR, de telle sorte que les relations s{\'e}mantiques entre les mots puissent {\^e}tre mises en correspondance avec les r{\^o}les s{\'e}mantiques lus sur les arcs de l{'}AMR. Le m{\'e}canisme d{'}attention d{'}un mod{\`e}le de langue (ML) peut {\^e}tre mod{\'e}lis{\'e} comme le calcul de vecteurs descripteurs pour les ar{\^e}tes d{'}un graphe complet dont les sommets sont les mots d{'}une phrase ou d{'}un paragraphe entier. Dans cet article, nous projetons les graphes AMR sur les graphes d{'}attention et concevons des m{\'e}thodes supervis{\'e}es pour d{\'e}tecter les relations s{\'e}mantiques {\'e}tiquetant les ar{\^e}tes {\`a} partir des poids d{'}attention. Pour cela, nous mettons en {\oe}uvre des m{\'e}thodes op{\'e}rant soit sur les ar{\^e}tes une {\`a} une, soit sur le graphe d{'}attention entier afin de comparer les capacit{\'e}s s{\'e}mantiques de ML pr{\'e}-entra{\^i}n{\'e}s. Il ressort de cette {\'e}tude que l{'}encodeur bidirectionnel RoBERTA-base est meilleur que les d{\'e}codeurs causaux, jusqu'{\`a} Llama 3 8B."
}
Markdown (Informal)
[Alignements entre attention et sémantique dans des modèles de langues pré-entraînés](https://preview.aclanthology.org/corrections-2025-10/2025.jeptalnrecital-taln.6/) (Charpentier et al., JEP/TALN/RECITAL 2025)
ACL