苹果推出降噪语言模型DLM 用于纠正ASR系统中的错误

苹果最近推出了一项新的技术创新,去噪语言模型(DLM),通过大量合成数据的训练,取得了超越以往的成就,实现了自动语音识别(ASR)领域的最新性能水平。

这项技术的核心在于使用文本转语音(TTS)系统创建音频,并将其输入ASR系统,通过这种方式产生了嘈杂的假设,与原始文本进行配对,从而训练DLM。该方法的关键要素包括升级的模型和数据、多说话人TTS系统、各种噪声增强策略以及新的解码技术。

研究显示,单个DLM可以应用于不同的ASR系统,其性能显著优于传统的基于语言模型(LM)的集束搜索重新评分方法。这一突破意味着精心设计的纠错模型可以取代传统的LM,将ASR系统的准确率提升到一个新的高度。尤其值得注意的是,DLM在LibriSpeech上实现了1.5%的字错误率(WER),这是不使用外部音频数据时报告的最佳数字之一,证明了其卓越性能。

然而,DLM面临的挑战之一是需要大量的监督训练示例,而这在典型的ASR数据集中是有限的。为了解决这一问题,DLM采用了使用TTS系统生成合成音频的方法,从而扩展了训练数据集的规模。这种创新性的做法为DLM的性能提升提供了更广阔的空间,使其在ASR领域引领潮流。

返回顶部