近年来,大规模语言模型(LLMs)建模在 NLP 领域取得了许多突破,特别是 的成功,正引领大家迈入一个新的 AI 时代。截止目前,基于 – 框架的模型在语音处理任务中仍占主导地位,而基于语言模型(LM)的方法还处于初期探索阶段。 和 VALL-E 作为前期工作已经证明了利用离散语义单元( Units)和离散声学单元( Units)联合语言模型建模在音频生成任务上的有效性。

基于此,字节跳动的研究者们提出了基于语音离散单元的语音到语音翻译(S2ST)框架 。 有两点突出贡献:

(1)-only:使用 -only 框架实现直接的语音翻译,同时能够容纳多源的训练数据。

(2):构建了基于 units 的音频 LM 用于语音翻译,可以用于非书写语言。

翻译onlylove歌曲_only翻译_翻译onlyfans

论文地址:

demo 地址:

语音到语音翻译(S2ST)是一项具有挑战性的任务,因为它需要同时解决自动语音识别(ASR),机器翻译(MT)和文本到语音合成(TTS)中的所有难题。与传统的级联方法不同,直接建模的方法具有低延迟和简化 的优点。现有的 S2ST 直接建模的方法可以根据模型是预测连续的梅尔谱图特征还是离散单元进一步分类。近来,基于 units 的方法变得越来越受欢迎,有如下几点原因:

(1)基于 units 的方法可以将语音的离散单元视为一种 “伪语言”,可以适用现有的 NLP 技术;

(2)基于 units 的方法缓解了谱图的学习难度;

(3)基于 units 的方法可以通过无监督的方式获取离散单元,可以对非书写语言进行建模。

Units 和 Units 是两种常用的语音离散单元。 Units 主要用于捕获语音中的语义内容。 Units 也可以被称为 Codec Units,最初用于在有限的带宽下传输高质量的语音信号。

介绍

是一种基于语言模型的 S2ST 框架,能够处理书写和非书写语言。 使用通过自监督训练方法获得的离散单元作为源语音和目标语音之间的中间表示。 由两部分组成:

-to-Unit(S2UT)翻译模块,将源语言语音的离散单元转换为目标语言语音的离散单元;

Unit-to-(U2S)合成模块, 在保留源语言语音说话人风格的同时合成目标语言语音。

下图是 的整体架构:

翻译onlylove歌曲_only翻译_翻译onlyfans

-to-Unit(S2UT)翻译模块

通过使用通过自监督训练获得的离散单元,从连续语音表示中去除语义无关的信息。S2UT 利用语言模型学习基于语音离散单元的跨语言生成。

1. Unit :S2UT 通过 Unit 对原始语音进行处理。首先使用 k-means 聚类离散化 输出的连续表示,进而合并重复 units 的连续序列来压缩序列长度,这样可以减少计算成本,并有助于收敛。

2. 基于 units 的跨语言语言模型(U-XLM):U-XLM 将源语言 units “{}” 翻译为目标语言 units “{}”。U-XLM 的 形式可定义为: [src lang] unit “{}” to [tgt lang] unit: “{}”。

3. S2UT 的训练:为了解决在现实场景下跨语言 units 平行数据稀缺的问题,如下表所示, 适配地修改了提示符,为各种类型的数据源(例如 ASR, MT 等)构建训练样本,然后通过参数共享的方式训练模型。

翻译onlyfans_only翻译_翻译onlylove歌曲

U-XLM 有几个突出特性,有处理书写和非书写语言的能力、多语言建模功能,以及通过利用大量无标注数据进行 zero-shot 预测的能力。这些特性使 U-XLM 成为推进语音到语音翻译研究的一个有潜力的框架。

Unit-to-(U2S)合成模块

1. Unit-to- 语言模型(U-SLM):与 VALL-E 一样,U-SLM 也包括一个自回归模型和一个非自回归模型。在 中,输入为源语言和目标语言的 Units 以及包含源说话人说话风格的 Codec Units。

2. codec: 的 用于生成包含源说话人说话风格的 Codec Units, 将 U-SLM 预测的 Units 重构为语音波形。

3. model:离散单元的时长信息对于合成语音的稳定性非常重要。 使用 LM 来预测时长信息。具体地,如上图右下角所示,合并后的源 Units、合并后的目标 Units 和源时长值序列(D)作为提示输入到 LM 中。 LM 基于输入的提示信息预测目标时长值序列,并对每个目标 Units 进行相应次数的重复操作。

实验分析

作者在两个 S2ST 基准数据集 EMIME 和 CVSS 上验证了 的性能。

S2ST 实验

翻译onlylove歌曲_翻译onlyfans_only翻译

ASV 评分用来评估在输出语音中保留源说话人音色的能力,ASR-BLEU 用来测评翻译质量。通过实验作者给出了一些结论:

1. 当真实的目标翻译序列可用时, 展示了更好的语音克隆能力。

2. 在翻译质量方面略有下降,但在语音质量方面有显著的提升。翻译质量下降可能是由于无监督的音频离散化会引入信息损失。语音自然度提升则可能是因为大规模语言模型的数据容纳能力可以带来更好的生成效果。

only翻译_翻译onlylove歌曲_翻译onlyfans

为了验证 在非书写语言上的有效性,作者在不使用西班牙语的任何文本监督情况下,评估了一个英语→西班牙语 S2ST 系统,ASR-BLEU(18.3)的结果表明 生成的西班牙语语音在语义上是可理解的。

分析和消融实验

1. -only 和 – 两种框架的对比

翻译onlylove歌曲_翻译onlyfans_only翻译

-only 模型带来了 3.9 个 BLEU 的显著改进,当用 U2S 代替声码器合成语音时,缩小了性能差距,证明了 U2S 后端的鲁棒性。

2. 多任务训练

翻译onlylove歌曲_only翻译_翻译onlyfans

U-XLM 在涉及的多个任务(包括 S2ST、ASR、ST、MT 和 TTS)上都取得了可观的性能,验证了 -only 框架的通用建模能力。

3. U2S 模块的优化

翻译onlyfans_only翻译_翻译onlylove歌曲

从实验结果发现从 U2S 中去掉时长模型,WER 会急剧增加,可能是由于 units 本身不包含与音素一样多的时长信息。因此,在使用无监督训练得到的离散单元时,时长模型是必不可少的。此外,作者额外训练了一个中英的多语言 模型()作为 Unit ,实验对比发现更大的模型可能会生成更好的 Units。

结论

是一个基于语音离散单元的 S2ST 框架。实验结果表明,基于 units 的 S2ST 系统在 ASR-BLEU、ASV 和自然度方面优于现有系统。此外,作者还证明了 在不使用文本信息监督的情况下在非书写语言场景中的能力。由于 性能与语音离散单元的质量高度相关,未来的工作将持续研究如何更好地进行语音离散化。

© THE END

———END———
限 时 特 惠: 本站每日持续更新海量各大内部创业教程,永久会员只需109元,全站资源免费下载 点击查看详情
站 长 微 信: nanadh666

声明:1、本内容转载于网络,版权归原作者所有!2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!