文章主要内容总结
- 研究背景与目的:现有LLM评估基准多聚焦于最终推理结果,忽视了模型在规划、修订及资源约束下的决策等内部推理过程。而理解这些过程对提升模型在真实场景中的可靠性至关重要。
- 方法与框架:
- 提出AdvGameBench框架,将LLM嵌入资源受限的战略游戏(塔防、自动战斗、回合制战斗)中,通过封闭、规则明确的环境观察模型的多步推理行为。
- 定义三大核心评估维度:规划能力、修订能力、资源约束决策能力,并引入一系列过程指标,如过度修正风险率(ORR)、修正成功率(CSR)、改进斜率(β)、超预算率(OBR)等。
- 实验结果:
- 对12个先进LLM进行4320轮对抗测试,ChatGPT-o3-mini表现最佳,综合得分最高(胜率74.7%,修正成功率78.6%,改进斜率+0.041)。
- 发现过度修正风险率与修正成功率呈负相