@inproceedings{naguib-etal-2022-vers,
title = "Vers la compr{\'e}hension automatique de la parole bout-en-bout {\`a} moindre effort (Towards automatic end-to-end speech understanding with less effort)",
author = "Naguib, Marco and
Portet, Fran{\c{c}}ois and
Dinarelli, Marco",
editor = "Est{\`e}ve, Yannick and
Jim{\'e}nez, Tania and
Parcollet, Titouan and
Zanon Boito, Marcely",
booktitle = "Actes de la 29e Conf{\'e}rence sur le Traitement Automatique des Langues Naturelles. Volume 1 : conf{\'e}rence principale",
month = "6",
year = "2022",
address = "Avignon, France",
publisher = "ATALA",
url = "https://preview.aclanthology.org/jlcl-multiple-ingestion/2022.jeptalnrecital-taln.25/",
pages = "257--268",
language = "fra",
abstract = "Les approches de compr{\'e}hension automatique de la parole ont r{\'e}cemment b{\'e}n{\'e}fici{\'e} de l`apport de mod{\`e}les pr{\'e}appris par autosupervision sur de gros corpus de parole. Pour le fran{\c{c}}ais, le projet LeBenchmark a rendu disponibles de tels mod{\`e}les et a permis des {\'e}volutions impressionnantes sur plusieurs t{\^a}ches dont la compr{\'e}hension automatique de la parole. Ces avanc{\'e}es ont un co{\^u}t non n{\'e}gligeable en ce qui concerne le temps de calcul et la consommation {\'e}nerg{\'e}tique. Dans cet article, nous comparons plusieurs strat{\'e}gies d`apprentissage visant {\`a} r{\'e}duire le co{\^u}t {\'e}nerg{\'e}tique tout en conservant des performances comp{\'e}titives. Les exp{\'e}riences sont effectu{\'e}es sur le corpus MEDIA, et montrent qu`il est possible de r{\'e}duire significativement le co{\^u}t d`apprentissage tout en conservant des performances {\`a} l'{\'e}tat de l`art."
}
Markdown (Informal)
[Vers la compréhension automatique de la parole bout-en-bout à moindre effort (Towards automatic end-to-end speech understanding with less effort)](https://preview.aclanthology.org/jlcl-multiple-ingestion/2022.jeptalnrecital-taln.25/) (Naguib et al., JEP/TALN/RECITAL 2022)
ACL