【论文泛读115】多样化的预训练上下文编码改进了文档翻译

研究提出了一种融合多个预训练文档上下文的新架构,改善句子级序列到序列转换器。实验表明,这种方法能显著提高样本效率,需要大量并行数据进行学习,联合多个上下文表示优于单一表示,且源上下文对翻译质量更有益。该多上下文模型在多项任务中超越现有上下文感知转换器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

贴一下汇总贴:论文阅读记录

论文链接:《Diverse Pretrained Context Encodings Improve Document Translation》

一、摘要

我们提出了一种新架构,用于通过合并多个预训练文档上下文信号来适应句子级序列到序列转换器,并评估 (1) 生成这些信号的不同预训练方法对翻译性能的影响,(2) 并行的数量文档上下文可用的数据,以及 (3) 以源上下文、目标上下文或源上下文和目标上下文为条件。NIST 汉英、IWSLT 和 WMT 英德任务的实验支持四个一般性结论:使用预训练的上下文表示显着提高了样本效率,足够的并行数据资源对于学习使用文档上下文至关重要,联合调节多个上下文表示优于任何单一表示,并且源上下文比目标端上下文对翻译性能更有价值。我们最好的多上下文模型始终优于现有的最好的上下文感知转换器。

二、结论

我们引入了一种架构和训练方案,能够将来自多个预训练的屏蔽语言模型的表示合并到一个转换器模型中。我们表明,这种技术可以用来创建一个更强大的句子级模型,并在有足够的文档数据的情况下,进一步升级到一个基于上下文信息的文档级模型。通过消融和其他实验,我们建立了文档扩充和多阶段训练,作为面对数据稀缺时训练文档级模型的有效策略。对于这些模型来说,源端的上下文就足够了,而目标端的上下文几乎不会增加额外的价值。

三、model

Multi-context model的架构。左侧显示了预处理后的PEGASUS编码器和BERT模型及其输入和结果嵌入。在这种配置中,每个翻译示例向BERT传递一批两个不同的句子对。进入注意块的三个输入从左到右的顺序是:键、值、查询。在训练过程中,平均操作用分支代替。部分阴影框表示数据,而全阴影用于操作。虚线边框表示对于给定的翻译,数据是恒定的。我们使用虚线箭头表示剩余连接,蓝色箭头表示源自变压器模型外部的嵌入。

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值