Traitement Automatique des Langues, Volume 64, Numéro 3 : Explicabilité des modèles de TAL [Explainability of NLP models]
Guillaume Wisniewski (Editor)
- Anthology ID:
- 2023.tal-3
- Month:
- Year:
- 2024
- Address:
- France
- Venue:
- TAL
- SIG:
- Publisher:
- ATALA (Association pour le Traitement Automatique des Langues)
- URL:
- https://preview.aclanthology.org/tal-24-ingestion/2023.tal-3/
- DOI:
Traitement Automatique des Langues, Volume 64, Numéro 3 : Explicabilité des modèles de TAL [Explainability of NLP models]
Guillaume Wisniewski
Introduction au numéro spécial sur l’explicabilité des modèles de TAL [Introduction to the special issue on the explainability of NLP models]
Guillaume Wisniewski
Sensibilité des explications à l’aléa des grands modèles de langage : le cas de la classification de textes journalistiques [Sensitivity of Explanations to the Randomness of Large Language Models: a Case Study on Journalistic Text Classification]
Jérémie Bogaert
|
Marie-Catherine de Marneffe
|
Antonin Descampe
|
Louis Escouflaire
|
Cédrick Fairon
|
François-Xavier Standaert
Détection de la nasalité en parole à partir de wav2vec 2.0 [Detecting Nasality in Speech Using Neural Models]
Lila Kim
|
Cédric Gendrot
Context-Aware Neural Machine Translation Models Analysis And Evaluation Through Attention
Marco Dinarelli
|
Dimitra Niaouri
|
Fabien Lopez
|
Gabriela Gonzalez-Saez
|
Mariam Nakhlé
|
Emmanuelle Esperança-Rodier
|
Caroline Rossi
|
Didier Schwab
|
Nicolas Ballier
Expliquer une boîte noire sans boîte noire [Explaining a Black Box Without a Black Box]
Julien Delaunay
|
Luis Galárraga
|
Christine Largouët
La recherche sur les biais dans les modèles de langue est biaisée : état de l’art en abyme [Bias Research for Language Models is Biased: a Survey for Deconstructing Bias in Large Language Models]
Fanny Ducel
|
Aurélie Névéol
|
Karën Fort