书生大模型全链路开源体系
一、开源历程
2023年6月7日,InternLM发布了其首个千亿参数的浦语系列模型。随后,2023年7月6日,InternLM-7B开源并率先实现免费商用,发布了全链条的开源工具体系。接着,2023年9月20日,InternLM-20B也进行了开源,并对开源工具链进行了全面升级。2023年9月27日,开源了图文混合创作大模型——书生·浦语灵笔(InternLM-XComposer),标志着该领域的又一重要突破。
2024年1月17日,InternLM2开源,凭借其卓越性能超越了最新同量级的开源模型;1月23日,InternLM2-Math发布,这是首个支持形式化数学语言及解题过程评价的开源模型;1月29日,书生·浦语灵笔2(InternLM-XComposer2)发布,进一步提升了个性化高质量图文创作和对话的能力,2024年5月24日,InternLM2-Math-Plus开源,刷新了开源数学模型的性能上限;6月4日,InternLM2-WQX开源,凭借200亿参数量,在2024年高考中取得了接近GPT-4的优异成绩。2024年7月4日,InternLM 2.5正式开源!
二、性能天梯图
可以看到随着时间的推移,以及版本的迭代,书生浦语大模型的性能越来越接近GPT。InternLM2.5-20B-Chat的性能