老外居然开始催更中国模型了

发布时间:2025-10-24 17:49  浏览量:5

昨天下班的时候刷到了@AI Dance 老师的帖子

有点意外[扶墙R]

为啥Cerebras会用GLM4.6替换掉Qwen3[黑薯问号R]

然后去看了看

发现根本原因还是那个无比现实的问题

成本💰

原版的Qwen3-Coder和Qwen3参数太大了

运行成本很高

对于需要精打细算的第三方零头来说

这无疑是一笔不小的开销💸

所以他们不得不选择下掉Qwen3

转向其他成本更便宜、性能更好的模型

而最近备受瞩目的GLM-4.6

显然就进入了他们的视野

当然他们也并未完全放弃Qwen3

而是选择自己动手

推出了一个经过剪枝的

更轻量化的Qwen3版本

更有意思的是

当我把视线投向海外开发者社区时

发现对GLM-4.6抱有强烈期待的

远不止国内的开发者[暗中观察R]

我翻到了许多国外开发者的讨论

他们竟然也在催促自己所使用的平台尽快上线GLM[买爆R]

图2️⃣这个老哥很直接哈哈哈哈

他直言不讳地更Cerebras表示:

“如果你们能提供GLM 4.6的托管服务

我今晚就切换我公司的整个基础设施。”

说明他已经体验过4.6能力了吧

觉得真的可以在他的生产环境中使用

所以才会催Cerebras去上线部署

为啥会有开发者催Cerebras上线GLM4.6呢?

不是有官方平台吗

另一个老哥一针见血地指出了原因(图3️⃣

官方的 TPS(每秒处理的Token数)较低

这确实是一个非常现实的问题。

模型的能力再强

但如果推理速度跟不上

用户体验就会大打折扣[汗颜R]

尤其是在需要高并发、低延迟的生产环境中

看到这些讨论

我突然意识到一个很有意思的现象

几年前我们还在追着GPT、Claude跑

现在居然是老外在催更中国模型[呃R]

这种角色反转真的挺魔幻的。。。

虽然现在的国产大模型

凭借其相对出色的性能

和极具竞争力的成本优势

在全球开发者社区中掀起了一股不小的波澜

但还需要在工程化和商业化上

解决很多像TPS这样的关键最后一公里问题

但至少我们已经站在了

让全世界开发者”催更“的位置上

这本身

就已经很了不起了。

#AI# #ai# #大模型# #互联网# #人工智能# #机器学习# #计算机##互联网大厂# #AI#