【Image captioning】论文阅读九—Self-Distillation for Few-Shot Image Captioning_2022

本文提出了一种基于集成的自蒸馏方法,用于解决少样本图像字幕问题。利用集成生成的伪字幕和伪特征,结合未配对的图像和字幕进行训练,提高模型性能。该方法通过多模型集成和时间集成生成伪标题,利用置信度重新加权避免错误累积,并通过梯度下降生成伪特征。实验证明,这种方法在少样本设置下显著提高了图像字幕的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

image-20231115221013531

摘要

大规模图像字幕数据集的开发成本高昂,而大量未配对的图像和文本语料库可能有助于减少手动注释的工作。在本文中,我们研究了只需要少量带注释的图像标题对的少样本图像标题问题。我们提出了一种基于集成的自蒸馏方法,允许使用不成对的图像和字幕来训练图像字幕模型。该集成由多个基础模型组成,在每次迭代中使用不同的数据样本进行训练。为了从未配对的图像中学习,我们使用整体生成多个伪标题,并根据它们的置信水平分配不同的权重。为了从不成对的标题中学习,我们提出了一种基于梯度下降的简单而有效的伪特征生成方法。来自集成的伪标题和伪特征用于在未来迭代中训练基础模型。所提出的方法对于不同的图像描述模型和数据集具有通用性。我们的实验表明,性能显着提高,并且仅使用 1% 的配对训练数据即可生成有意义的标题。源代码可在 https://github.com/chenxy99/SD-FSIC

1. 介绍

深度神经网络 (DNN) 的进步在视觉和自然语言处理任务中展现了良好的性能。在这些进步的推动下,图像字幕这一需要视觉和语言建模的跨模态任务的研究近年来发展迅速。大多数图像字幕方法基于手动标记的图像字幕对以监督学习方式学习深度神经网络模型[5,54,57]。尽管取得了成功,但这些监督模型的训练需要大量与图像配对的字幕语料库,这是极其耗费人力

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CV视界

如果感觉有用,可以打赏哦~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值