Back to Search Start Over

Qualitative Evaluation of Language Model Rescoring in Automatic Speech Recognition

Authors :
Thibault Bañeras Roux
Mickael Rouvier
Jane Wottawa
Richard Dufour
Traitement Automatique du Langage Naturel (LS2N - équipe TALN )
Laboratoire des Sciences du Numérique de Nantes (LS2N)
Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique (IMT Atlantique)
Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-École Centrale de Nantes (Nantes Univ - ECN)
Nantes Université (Nantes Univ)-Nantes Université (Nantes Univ)-Nantes université - UFR des Sciences et des Techniques (Nantes univ - UFR ST)
Nantes Université - pôle Sciences et technologie
Nantes Université (Nantes Univ)-Nantes Université (Nantes Univ)-Nantes Université - pôle Sciences et technologie
Nantes Université (Nantes Univ)-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique (IMT Atlantique)
Nantes Université (Nantes Univ)
Laboratoire Informatique d'Avignon (LIA)
Avignon Université (AU)-Centre d'Enseignement et de Recherche en Informatique - CERI
Laboratoire d'Informatique de l'Université du Mans (LIUM)
Le Mans Université (UM)
ANR-20-CE23-0005,DIETS,Diagnostic automatique des erreurs des systèmes de transcription de parole end-to-end à partir de leur réception par les utilisateurs(2020)
Source :
Proceeedings Interspeech 2022, Interspeech, Interspeech, Sep 2022, Incheon, South Korea
Publication Year :
2022
Publisher :
HAL CCSD, 2022.

Abstract

International audience; Evaluating automatic speech recognition (ASR) systems is a classical but difficult and still open problem, which often boils down to focusing only on the word error rate (WER). However, this metric suffers from many limitations and does not allow an in-depth analysis of automatic transcription errors. In this paper, we propose to study and understand the impact of rescoring using language models in ASR systems by means of several metrics often used in other natural language processing (NLP) tasks in addition to the WER. In particular, we introduce two measures related to morpho-syntactic and semantic aspects of transcribed words: 1) the POSER (Part-of-speech Error Rate), which should highlight the grammatical aspects, and 2) the Em-bER (Embedding Error Rate), a measurement that modifies the WER by providing a weighting according to the semantic distance of the wrongly transcribed words. These metrics illustrate the linguistic contributions of the language models that are applied during a posterior rescoring step on transcription hypotheses.

Details

Language :
English
Database :
OpenAIRE
Journal :
Proceeedings Interspeech 2022, Interspeech, Interspeech, Sep 2022, Incheon, South Korea
Accession number :
edsair.doi.dedup.....2fc81f48128ac9bf43290134f128d41f