@inproceedings{cao-etal-2023-etude,
title = "{\'E}tude comparative des plongements lexicaux pour l{'}extraction d{'}entit{\'e}s nomm{\'e}es en fran{\c{c}}ais",
author = "Cao, Danrun and
B{\'e}chet, Nicolat and
Marteau, Pierre-Fran{\c{c}}ois",
editor = "Servan, Christophe and
Vilnat, Anne",
booktitle = "Actes de CORIA-TALN 2023. Actes de la 30e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles (TALN), volume 1 : travaux de recherche originaux -- articles longs",
month = "6",
year = "2023",
address = "Paris, France",
publisher = "ATALA",
url = "https://preview.aclanthology.org/fix-sig-urls/2023.jeptalnrecital-long.8/",
pages = "94--104",
language = "fra",
abstract = "Dans ce papier nous pr{\'e}sentons une {\'e}tude comparative des m{\'e}thodes de plongements lexicaux pour le fran{\c{c}}ais sur la t{\^a}che de Reconnaissance d{'}entit{\'e}s nomm{\'e}es (REN). L{'}objectif est de comparer la performance de chaque m{\'e}thode sur la m{\^e}me t{\^a}che et sous les m{\^e}mes conditions de travail. Nous utilisons comme corpus d'{\'e}tude la proportion fran{\c{c}}aise du corpus WikiNER. Il s{'}agit d{'}un corpus de 3,5 millions tokens avec 4 types d{'}entit{\'e}s. 10 types de plongements lexicaux sont {\'e}tudi{\'e}s, y compris les plongements non-contextuels, des contextuels et {\'e}ventuellement ceux {\`a} base de transformer. Pour chaque plongement, nous entra{\^i}nons un BiLSTM-CRF comme classifieur. Pour les mod{\`e}les {\`a} base de transformer, nous comparons {\'e}galement leur performance sous un autre cas d{'}usage: fine-tuning."
}
Markdown (Informal)
[Étude comparative des plongements lexicaux pour l’extraction d’entités nommées en français](https://preview.aclanthology.org/fix-sig-urls/2023.jeptalnrecital-long.8/) (Cao et al., JEP/TALN/RECITAL 2023)
ACL