“The @xAI Grok 2.5 model, which was our best model last year, is now open source.”
8 月 24 日,马斯克在 X 平台官宣 Grok-2.5
正式开源。
他嘴里的 Grok-2.5
,实际上就是 Grok-2
。
这并不是马斯克的 xAI 首次开源 AI 模型。
早在 2024 年 3 月,Grok-1
就以 Apache-2.0 协议开源。
而这次开源的 Grok-2
,则是发布于 2024 年 8 月;当然,还有接下来 2025 年 2 月上线的 Grok-3
,以及 7 月推出、现在仍在服役的 Grok 4
。
01|Grok-2 技术亮点
时间追溯到 2024 年 8 月 13 日,Grok-2
正式上线。
它由前一代 Grok-1.5
的升级而来,先行版曾以“sus-column-r”之名在 LMArena 对战平台上线,排名超越当时的 Claude 3.5 Sonnet
和 GPT-4-Turbo
。
Grok-2
的一些参数:
-
支持 128K tokens 上下文长度
-
支持“文本+图片”多模态理解
-
关键提升在“推理+指令跟随”方面
-
提供在 X 平台获取实时信息的能力
这是 Grok-2
的基准测试对比结果。
可以看到,当时的 Grok-2
已经隐约有了第一梯队的影子。后来的 Grok-3
、Grok-4
“纸面成绩” 一骑绝尘,其实在 Grok-2
这里就埋下了伏笔。
尽管如此,需要一提的是,马斯克 xAI 选择在当下这个时间点(2025 年 8 月)开源 Grok-2
,其实有点不够看。
不论是“国产开源四大天王”的 DeepSeek、Qwen、Kimi 以及 智谱 GLM,还是近期开源了 gpt-oss
的 OpenAI,xAI 都不太能打。
这里附上 gpt-oss-120b
在 GPQA 博士级科学问题测评中的结果。80.1% 的准确率可以说是吊打 Grok-2
的 56% 了。
02|Grok-2 是真正的开源吗?
这次 Grok-2
开源提供了模型权重,可在 Hugging Face 平台下载,共计约 500GB,拆分为 42 个文件存储,并提供 SGLang 推理工具。
Grok-2 模型下载链接:https://huggingface.co/xai-org/grok-2
然而,某种意义上来说,Grok-2
开源了,但又没有完全开源。
-
许可协议为 Grok-2 Community License,允许研究与非商业使用,商业使用需符合 xAI 的 Acceptable Use Policy 限制;
-
禁止用于训练新的基线模型;
-
要求分发时包含“Powered by xAI”标识。
以上周刚刚发布的 DeepSeek-V3.1
为例,来看看什么才是真正的、彻底的“开源”:MIT 协议,允许商用、再发布和二次开发,也没有使用限制。
03|部署 Grok 2 硬件要求
那么问题来了,本地部署 Grok 2
需要怎样的硬件配置?
来看看 Grok 自己怎么说(此处引用一位网友在 X 平台 @Grok 的回答)。
总结:
-
最少 8 块大于 40GB 显存的 GPU(比如 NVIDIA A100),用于模型推理;
-
存储空间约 500GB,用于存放模型权重文件;
-
如果你要全天运行,云端成本约 24000 美元/月(以 AWS p4d 实例估算);
-
如果自己买服务器,预算拉满,硬件成本大约 8-12 万美元。
个人用户还是洗洗睡吧。
结语
马斯克的开源是有节奏的:“每发布一个新版本,开源上一代模型。”
这次的 Grok-2
稍微有点掉队。
毕竟 DeepSeek、Qwen 这些国产选手已经把“开源”卷出新高度了。
还是期待 6 个月后开源的 Grok 3
更靠谱。
我是木易,一个专注 AI 领域的技术产品经理,国内 Top2 本科 + 美国 Top10 CS 硕士。
相信 AI 是普通人的“外挂”,致力于分享 AI 全维度知识。这里有最新的 AI 科普、工具测评、效率秘籍与行业洞察。
欢迎关注“AI信息Gap”,用 AI 为你的未来加速。