@inproceedings{alrahabi-etal-2025-extraction,
    title = "Extraction de mots-cl{\'e}s {\`a} partir d{'}articles scientifiques: comparaison entre mod{\`e}les traditionnels et mod{\`e}les de langue",
    author = "Alrahabi, Motasem  and
      Ben Mansour, Nacef  and
      Rahimi, Hamed",
    editor = "Bechet, Fr{\'e}d{\'e}ric  and
      Chifu, Adrian-Gabriel  and
      Pinel-sauvagnat, Karen  and
      Favre, Benoit  and
      Maes, Eliot  and
      Nurbakova, Diana",
    booktitle = "Actes des 32{\`e}me Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 2 : traductions d'articles publi{\'e}s",
    month = "6",
    year = "2025",
    address = "Marseille, France",
    publisher = "ATALA {\textbackslash}{\textbackslash}{\&} ARIA",
    url = "https://preview.aclanthology.org/ingest-emnlp/2025.jeptalnrecital-trad.12/",
    pages = "15--27",
    language = "fra",
    abstract = "L{'}extraction automatique des mots-cl{\'e}s est cruciale pour r{\'e}sumer le contenu des documents et affiner la recherche d{'}informations. Dans cette {\'e}tude, nous comparons les performances de plusieurs mod{\`e}les d{'}extraction et de g{\'e}n{\'e}ration de mots-cl{\'e}s appliqu{\'e}s aux r{\'e}sum{\'e}s d{'}articles issus des archives HAL : des approches bas{\'e}es sur des statistiques et des mod{\`e}les vectoriels, ainsi que des approches g{\'e}n{\'e}ratives modernes utilisant les LLMs. Les r{\'e}sultats montrent que les LLMs surpassent largement les m{\'e}thodes traditionnelles en termes de pr{\'e}cision et de pertinence, m{\^e}me en configuration zero-shot, et que l{'}inclusion des titres d{'}articles am{\'e}liore significativement les scores F1. Nous introduisons {\'e}galement une nouvelle m{\'e}trique pour {\'e}valuer les performances des LLMs en tenant compte des co{\^u}ts de traitement, offrant ainsi une perspective {\'e}quilibr{\'e}e entre efficacit{\'e} et co{\^u}t."
}Markdown (Informal)
[Extraction de mots-clés à partir d’articles scientifiques: comparaison entre modèles traditionnels et modèles de langue](https://preview.aclanthology.org/ingest-emnlp/2025.jeptalnrecital-trad.12/) (Alrahabi et al., JEP/TALN/RECITAL 2025)
ACL