QwQ-32B:阿里巴巴开源的大型推理模型新星
一、QwQ-32B是什么
QwQ-32B是阿里巴巴旗下的Qwen团队最新推出的一款开源大型语言模型(LLM)。这款模型拥有320亿参数,旨在通过强化学习(RL)提升在复杂问题解决任务上的性能。作为QwQ系列的最新成员,QwQ-32B继承了前代模型在数学和编码任务中的出色表现,并通过进一步的技术优化和创新,成为了推理AI领域的重要竞争者。
二、模型性能
QwQ-32B在多项基准测试中展现出了卓越的性能。在测试数学能力的AIME24评测集上,QwQ-32B与DeepSeek-R1等领先模型表现相当,远超其他同尺寸的模型。在评估代码能力的LiveCodeBench中,QwQ-32B同样展现出了强大的编码能力。此外,在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜”LiveBench、谷歌等提出的指令遵循能力IFEval评测集,以及由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,QwQ-32B的得分均超越了DeepSeek-R1等竞品。
尽管QwQ-32B的参数量仅为DeepSeek-R1的约1/21,但其在性能上却能够与之媲美,甚至在某些测试中超越对方。这主要得益于QwQ-32B采用了大规模强化学习方法,通过预训练、监督微调和强化学习等多阶段训练,显著提升了模型解决复杂问题的能力。
三、模型参数与架构
QwQ-32B采用了因果语言模型架构,并进行了多项优化。模型包含64个Transformer层,采用了RoPE(旋转位置嵌入)、SwiGLU(Swish门控线性单元)、RMSNorm(均方根归一化)以及注意力机制的QKV偏置等技术。此外,QwQ-32B还采用了广义查询注意力(GQA),拥有131,072个tokens的扩展上下文长度,能够处理更复杂的输入和输出。
四、模型优势
五、结语
QwQ-32B作为阿里巴巴开源的大型推理模型新星,展现出了卓越的性能和广泛的应用前景。随着AI技术的不断发展,QwQ-32B有望在科研、工程、教育等领域发挥更大的作用,推动人工智能技术的进步和应用。
想了解更多AI创作软件工具请关注AI人工智能网站–www.aisosuo.cc-AI搜索网
发表评论