这一次又是杭州,QwQ-32B加冕全球AI开源之王桂冠

电科技袁创2025-03-07 15:14:12

3月6日,当投资者们为阿里股价的再次大涨欢呼时,一场事先毫无声张的技术革命正通过QwQ-32B模型悄然展开。这款仅有320亿参数的推理大模型,以四两拨千斤的小参数姿态,性能直逼DeepSeek-R1,将中国AI竞赛一举带入全新维度,与其共同成为中国在全球AI赛道的开源双雄。值得一提的是,这也意味着,在全球前三的AI开源公司中,杭州独占两席

QWQ-32b

在DeepSeek-R1以6710亿参数树立起行业标杆的背景下,阿里云的这次出击,既是对技术路线的重构级探索,更是中国科技企业突破“参数内卷”的里程碑式宣言,不仅标志着中国AI产业开始挣脱参数规模的路径依赖,更是直接击穿了AI行业由来已久的“参数崇拜”定律。

破除参数迷思

在传统认知中,模型参数规模与性能有着强关联,DeepSeek-R1的6710亿参数架构曾被视为行业技术壁垒,但其需要专业级显卡集群支撑,而QwQ-32B通过强化学习(Reinforcement Learning,RL)的规模化应用,即实现了令人难以置信的以小搏大。

阿里云的QwQ-32B模型之所以能够如此给力,根本原因还是它的强化学习能力有了质的飞跃。

据悉,在预训练模型Qwen2.5-32B基础上,阿里采用了两阶段强化学习策略,先针对数学/编程任务的精准验证式RL训练,再叠加通用能力优化的混合式RL迭代。这种摒弃传统奖励模型的“硬验证”机制,使得32B参数的推理能力突破参数天花板,在AIME24数学测试中达到79.5分,DeepSeek-R1为79.8分,而能耗成本仅为后者的1/10。

再加上动态扩展技术,配合分组查询注意力的设计,其有效参数利用率(EPU)达传统模型的3倍,相当于960亿密集参数的等效性能。这种“参数虚拟化”技术,让英伟达(NVIDIA)RTX 4090显卡即可驱动顶级推理能力,彻底改写了AI硬件的成本公式。

阿吹

就像海外的AI大神所说的那样,他们那些笨重的大模型正在浪费大量的金钱。

事实上,通过QwQ-32B,阿里云还在客观上开启了大模型的“摩尔定律”,在可预见的未来,就像过去四十年,CPU一路飙升的性价比一样,大模型的降本速度也只会越来越快,显卡决定论在大模型行业彻底失去了市场。

阿里云重新定义AI竞赛规则

QwQ-32B的横空出世,正在重构产业认知,首当其冲的就是参数的转换效率。传统的Chinchilla定律开始遭遇正面挑战——这是一种用于描述大模型性能与计算资源之间关系的定律,由DeepMind首次提出。该定律表明,大模型的性能提升与计算资源的增加成正比,即模型的参数量和数据集的大小直接影响到其感知能力、推理能力和记忆能力的提升。

阿里云通过320亿参数实现等效960亿参数性能,证明了“参数密度”比“参数总量”更具战略价值。这种突破使得个人及中小企业在天猫上就能买到可部署顶级模型的显卡。这哪怕就是在前天,也还是一件不可想象的事情。

一张民用的娱乐显卡就能跑大模型,对于用户来说,意味着什么呢?对比 DeepSeek-R1 的部署成本即可略窥一二。

阿吹

众所周知,和其它知名的大模型相比,DeepSeek-R1的部署成本已经算是相当平易近人了,但也最少需要8张显存80G的A100显卡,成本至少要小150万人民币。而QwQ-32B仅需4张RTX 4090,十万元不到的成本,这种让娱乐显卡跑大模型的突破,必将形成AI春风吹满地的盛景,催生各行各业的AI应用大爆发。

在Hugging Face平台,QwQ-32B的首日下载量突破50万次,远超DeepSeek-R1同期数据。开发者社区测试显示,其工具调用准确率(BFCL测试65.2%)已接近人类专家水平,可直接替代部分企业级数据分析服务。

更为令人惊叹的是,采用Apache 2.0协议的QwQ-32B,上线48小时即衍生出7万个社区模型。这种开源即标准的打法,不仅冲击Hugging Face生态位,更有可能确立中国在全球推理模型领域的话语权体系。

登顶全球开源社区榜首

在全球最大的AI开源社区Hugging Face,刚刚更新的大模型榜单显示,今天凌晨刚发布并开源的QwQ-32B已然成功登顶。

突然加冕的桂冠绝非是一日之功。相反,正是因为阿里云数年来一以贯之的开源策略,成为其背后的决定性力量。

通义千问开源历史

从2023年至今,阿里云已开源200多款模型,包含大语言模型千问Qwen及视觉生成模型万相Wan等两大基模系列,开源囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等全模态,覆盖从0.5B到110B等参数全尺寸,屡次斩获Chatbot Arena、司南OpenCompass等权威榜单的全球开源冠军。

截至目前,海内外AI开源社区中千问Qwen的衍生模型数量已突破10万,超越美国Llama系列模型,成为全球最大的开源模型族群

由此意义宕开,QwQ-32B带给我们的启示其实远超技术层面带给我们的震撼。它证明了中国科技企业已具备了创造赛道的能力,而不是以往的在赛道中追赶,当参数规模的增长遭遇物理极限,通过算法革新实现等效参数密度的提升,恰是一次关于技术“涌现”的典型样本,预示着一个更注重算法创新而非算力堆砌的黎明正在开启。

正如此前所达成的行业共识,通往AGI的道路肯定不只有参数膨胀这一条。QwQ-32B验证了“基础模型+规模化RL”的技术可行性。正如《南华早报》早先发表的评论文章认为,“阿里巴巴模型的能力再次证明,中国正在缩小与美国领先企业的人工智能差距。”

在强调综合能力的LiveBench的评测中,QwQ-32B以73.1分超越DeepSeek-R1的71.6分,证明中等规模模型的智能涌现不依赖参数膨胀,这场320亿参数所引发的行业地震,不仅标志着中国AI企业首次打破了堆砌算力的路径依赖,开辟了算法密度驱动性能的新战场,也昭示着中国AI产业开始踏入从专注于与国外的外部竞争蝶变为内生良性竞争的历史转折点。

当行业集体转向中等规模模型时,数据质量、算法创新能力的比拼将更加残酷。阿里集团早前已宣布未来三年投入3800亿元建设AI基础设施,押注“AI+云计算”,股价由此累计涨幅超80%,一举带动阿里完成从电商向硬科技转身的大战略。

从QwQ-32B登顶开源社区榜单的当下,再回头看这阿里这艘大船所坚持的航向,毫无疑问,QwQ-32B发起的这场以小搏大的产业变局,在重塑了阿里未来的同时,也将全球AI时代的权力版图进行了全新的划分——而原点,依然还在杭州。

 

电科技()是一家专注于全球TMT行业的领先资讯媒体。

作为今日头条青云计划、百家号百+计划获得者,百度数码年度作者、百家号科技领域最具人气作者、搜狗科技文化作者、百家号季度影响力创作者,曾荣获搜狐最佳行业媒体人、中国新媒体创业大赛北京赛季军、 年度光芒体验大奖、中国新媒体创业大赛总决赛季军、百度动态年度实力红人等诸多大奖。

投稿、商务合作请联络微信公众号。

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。

//59087780b049bbb54ef4ba547ea51910