老外居然开始催更中国模型了
发布时间:2025-10-24 17:49 浏览量:5
昨天下班的时候刷到了@AI Dance 老师的帖子
有点意外[扶墙R]
为啥Cerebras会用GLM4.6替换掉Qwen3[黑薯问号R]
然后去看了看
发现根本原因还是那个无比现实的问题
成本💰
原版的Qwen3-Coder和Qwen3参数太大了
运行成本很高
对于需要精打细算的第三方零头来说
这无疑是一笔不小的开销💸
所以他们不得不选择下掉Qwen3
转向其他成本更便宜、性能更好的模型
而最近备受瞩目的GLM-4.6
显然就进入了他们的视野
当然他们也并未完全放弃Qwen3
而是选择自己动手
推出了一个经过剪枝的
更轻量化的Qwen3版本
更有意思的是
当我把视线投向海外开发者社区时
发现对GLM-4.6抱有强烈期待的
远不止国内的开发者[暗中观察R]
我翻到了许多国外开发者的讨论
他们竟然也在催促自己所使用的平台尽快上线GLM[买爆R]
图2️⃣这个老哥很直接哈哈哈哈
他直言不讳地更Cerebras表示:
“如果你们能提供GLM 4.6的托管服务
我今晚就切换我公司的整个基础设施。”
说明他已经体验过4.6能力了吧
觉得真的可以在他的生产环境中使用
所以才会催Cerebras去上线部署
为啥会有开发者催Cerebras上线GLM4.6呢?
不是有官方平台吗
另一个老哥一针见血地指出了原因(图3️⃣
官方的 TPS(每秒处理的Token数)较低
这确实是一个非常现实的问题。
模型的能力再强
但如果推理速度跟不上
用户体验就会大打折扣[汗颜R]
尤其是在需要高并发、低延迟的生产环境中
看到这些讨论
我突然意识到一个很有意思的现象
几年前我们还在追着GPT、Claude跑
现在居然是老外在催更中国模型[呃R]
这种角色反转真的挺魔幻的。。。
虽然现在的国产大模型
凭借其相对出色的性能
和极具竞争力的成本优势
在全球开发者社区中掀起了一股不小的波澜
但还需要在工程化和商业化上
解决很多像TPS这样的关键最后一公里问题
但至少我们已经站在了
让全世界开发者”催更“的位置上
这本身
就已经很了不起了。
#AI# #ai# #大模型# #互联网# #人工智能# #机器学习# #计算机##互联网大厂# #AI#
- 上一篇:孕期胸真难受,这件内衣有点东西
- 下一篇:四六级想过,有意识的写作积累真的很重要