@inproceedings{block-medin-etal-2024-adaptation,
    title = "Adaptation de mod{\`e}les auto-supervis{\'e}s pour la reconnaissance de phon{\`e}mes dans la parole d{'}enfant",
    author = "Block Medin, Lucas  and
      Gelin, Lucile  and
      Pellegrini, Thomas",
    editor = "Balaguer, Mathieu  and
      Bendahman, Nihed  and
      Ho-dac, Lydia-Mai  and
      Mauclair, Julie  and
      G Moreno, Jose  and
      Pinquier, Julien",
    booktitle = "Actes des 35{\`e}mes Journ{\'e}es d'{\'E}tudes sur la Parole",
    month = "7",
    year = "2024",
    address = "Toulouse, France",
    publisher = "ATALA and AFPC",
    url = "https://preview.aclanthology.org/ingest-emnlp/2024.jeptalnrecital-jep.24/",
    pages = "231--241",
    language = "fra",
    abstract = "La reconnaissance de parole d{'}enfant est un domaine de recherche encore peu d{\'e}velopp{\'e} en raison du manque de donn{\'e}es et des difficult{\'e}s caract{\'e}ristiques de cette t{\^a}che. Apr{\`e}s avoir explor{\'e} diverses architectures pour la RAP d{'}enfant dans de pr{\'e}c{\'e}dents travaux, nous nous attaquons dans cet article aux nouveaux mod{\`e}les auto-supervis{\'e}s. Nous comparons d{'}abord plusieurs mod{\`e}les Wav2vec2, HuBERT et WavLM adapt{\'e}s superficiellement {\`a} la reconnaissance de phon{\`e}mes sur parole d{'}enfant, et poursuivons nos exp{\'e}riences avec le meilleur d{'}entre eux, un WavLM base+. Il est ensuite adapt{\'e} plus profond{\'e}ment en d{\'e}gelant ses blocs transformer lors de l{'}entra{\^i}nement sur parole d{'}enfant, ce qui am{\'e}liore grandement ses performances et le fait surpasser significativement notre mod{\`e}le de base, un Transformer+CTC. Enfin, nous {\'e}tudions en d{\'e}tail les comportements de ces deux mod{\`e}les en conditions r{\'e}elles de notre application, et montrons que WavLM base+ est plus robuste {\`a} diverses t{\^a}ches de lecture et niveaux de bruit."
}Markdown (Informal)
[Adaptation de modèles auto-supervisés pour la reconnaissance de phonèmes dans la parole d’enfant](https://preview.aclanthology.org/ingest-emnlp/2024.jeptalnrecital-jep.24/) (Block Medin et al., JEP/TALN/RECITAL 2024)
ACL