Learning to Check: Unleashing Potentials for Self-Correction in Large Language Models

828 篇文章

已下架不支持订阅

本文研究大型语言模型(LLM)的自我纠正能力,通过分析数学推理错误并设计“Step-CoT Check”提示增强自检。实验表明,这种方法能提高模型的自校正准确性,减少对外部反馈的依赖,提高正确率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Learning to Check: Unleashing Potentials for Self-Correction in Large Language Models》的翻译。

学习检查:在大型语言模型中释放自我纠正的潜力

摘要

大型语言模型(LLM)在推理能力方面取得了重大进展,正在努力通过自我纠正来完善其推理。然而,最近的研究表明,如果没有外部准确的知识,自我纠正可能会受到限制,甚至适得其反,这引发了人们对自我纠正的局限性和有效性的质疑。在本文中,我们旨在通过精心设计训练数据来增强LLM的自检能力,从而提高自校正的准确性。我们对数学推理中的错误类型进行了详细分析,并开发了一个定制的提示,称为“步骤CoT检查”。然后,我们为训练模型构建了一个校验校正数据集。在整合原始CoT数据和校验校正数据进行训练后,我们观察到模型可以提高其自检能力,从而增强其自校正能力,并消除了对外部反馈或基本事实标签的需求,以确定校正的终点。我们将使用“Step-CoT Check”提示微调的模型的性能与在检查校正数据的上下文中使用其他提示优化的模型进行比较。在参数较大的模型中,“阶跃CoT检查”优于其他两种检查格式,提供了更精确的反馈,从而实现了更高的正确率。为了再现性,所有数据集和代码都在中提供https:

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值