目前被JCR收录的已经有将近1万种期刊了。如何选择一个发文范围匹配、审稿速度快、还比较容易accept的期刊?这中间有很多的考量。
之前用AI来选刊,只能根据内容来匹配期刊。但是期刊的影响因子、发文量、分区等信息,是实时变动的,AI没办法实时跟进。需要我们针对单个期刊核实最新指标。
现在,随着GPT-5,Claude 4等agentic模型的推出,理论上它们可以针对每一个合适的期刊,调用工具,依次查询期刊的相关指标,给出实时信息。
还有像Manus,GenSpark这样的agent,当然也能完成这类任务。
实践是检验真理的唯一标准。我们来测试一下当前最新的几大agentic模型(GPT-5, GPT agent,Claude 4.1),以及agent工具(Manus,GenSpark)在选刊方面的表现对比。
我们以这篇发表在BMC Psychiatry上的文章为例,来检验一下各大模型效果如何:
1 GPT agent:
官方介绍,GPT agent融合了Operator的网页浏览操作和deep research 深度研究功能:Operator 可以在网页上滚动、点击和输入,而 deep research 擅长分析和总结信息。
GPT agent处理了21分钟,给出了如下结果:
时间有点长,但是期刊相关指标都更新到最新。
推荐的期刊很精准,和内容匹配度高。难得的是它的每一项指标(影响因子、分区、发文量等)都有对应出处链接,供你溯源。并且在众多信息中,它善于从最新和权威的网站获取信息。可以说非常优秀了。
2 GPT-5
GPT-5是OpenAI自带agentic功能的最新大模型,我选了auto自动模型,它可以根据任务自主选择思考时间长短。分析和搜索结果如下:
它把BMC Psychiatry归到了Q2区,是过时信息,影响因子信息也模棱两可,没有给出精确分数。还有其他期刊也是。Frontiers in Psychiatry的IF还是2023年的信息。
这里可以看出,虽然模型有调用工具、任务规划的能力,但是实际任务中表现如何,又是一回事。很明显,GPT-5并没有像GPT agent一样,调用网页搜索功能,给出最新信息。而是“偷懒”,直接给出模型训练时已有的“过时信息”。
3 Claude Opus 4.1
Claude Opus 4.1也是优秀的agentic模型。来看看它的任务完成情况:
期刊名目推荐比较精确,好些期刊包括BMC Psychiatry的影响因子却没有抓取到。其实在它的思考轨迹中有该期刊的官网,甚至还多信息源找找该期刊信息:
这些都有期刊的最新影响因子3.6,Claude Opus 4.1都没有捕捉到。可见它浏览网页获取关键信息的能力不行。
对比GPT agent的突出表现,应该是归功于它的deep research:之前测试deep research发现对于每一个引用,点开链接会看到关键论据部分会在网页中高亮展示。所以OpenAI在训练deep research时,对于关键信息的抓取和分析能力的着重训练,赋能给了GPT agent。
4 GenSpark
GenSpark的表现也不错:
推荐的期刊比较精准,信息大部分是最新的。但是,它没有带链接,你的自己去核实是不是每个信息都是对的,没有GPT agent方便。而且,细看还是有信息不准确的:
5 Manus:
Manus也是优秀的agent工具,来看看它完成这类任务表现如何:
干了一半,300积分消耗完了也没完成这个任务。看它右侧的工作轨迹,有些是靠谱的,有些又显示匹配了The Lancet Public Health,甚至NEJM,这些跟这篇文章的主题“精神病学和心理健康”的主题相差很远。但是不知道最终给出的结果如何。
因为我一直没找到Manus的落地使用场景:什么任务他都能做,但是没有一个完成质量是最好的。所以一直没充值。
综上实测,GPT agent在精准匹配期刊和获取最新影响因子、分区等核心指标方面表现最优。相比之下,GPT-5 和 Claude 虽有agentic能力,但在信息实时性与可溯源性上仍有明显差距。GenSpark信息更新较快但缺乏来源链接,Manus虽功能很多,但专业度仍待提升。