【论文泛读147】ELMo 上下文嵌入的跨语言对齐

本文介绍了ELMoGAN,一种用于跨语言上下文ELMo嵌入对齐的新方法,不假设同构嵌入空间。通过遗传神经网络计算对齐,ELMoGAN在NER任务上表现出色,但在依赖解析任务上不如线性映射。未来工作将研究超参数优化和更多GAN架构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

贴一下汇总贴:论文阅读记录

论文链接:《Cross-lingual alignments of ELMo contextual embeddings》

一、摘要

为特定的 NLP 任务构建机器学习预测模型需要足够的训练数据,这对于低资源语言来说可能很难获得。跨语言嵌入将词嵌入从低资源语言映射到高资源语言,这样在高资源语言的数据上训练的预测模型也可以用于低资源语言。为了生成最近上下文嵌入的跨语言映射,嵌入空间之间的锚点必须是相同上下文中的单词。我们使用一种为跨语言上下文对齐创建数据集的新方法来解决这个问题。基于此,我们为 ELMo 嵌入提出了新颖的跨语言映射方法。我们的线性映射方法在上下文 ELMo 嵌入上使用现有的 vecmap 和 MUSE 对齐。我们新的非线性 ELMoGAN 映射方法基于 GAN,不假设同构嵌入空间。我们使用两个下游任务,NER 和依赖解析,评估了在九种语言上提出的映射方法。ELMoGAN 方法在 NER 任务上表现良好,与某些语言的直接训练相比,跨语言损失较低。在依赖解析中,线性对齐变体更成功。

二、结论

我们提出了ELMoGAN,一种新的跨语言映射方法,用于上下文ELMO嵌入。该方法不假设同构嵌入空间,而是使用遗传神经网络来计算比对。为了构建映射,我们必须为11种语言对构建上下文嵌入数据集。我们从平行语料库和双语词典中为每个语言对和每个ELMo层构建了一组匹配的上下文单词嵌入。我们使用这些新的数据集,用提出的非线性映射方法ELMoGAN来训练映射。

ELMoGAN对训练参数的值很敏感,主要是学习速率和迭代次数,但与同构映射相比,它可能会带来更好的性能,尤其是在对齐更远的语言对时。为了找到一组性能良好的超参数,这种方法必须针对每个任务进行仔细的微调。埃尔默根方法在NER任务上优于线性映射,但在动态规划任务上表

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值