360智脑Tiny-R1-32B模型发布:小参数,高性能
2月24日,由360智脑团队与北京大学联合打造的中等规模推理模型 Tiny-R1-32B-Preview 震撼发布。这款模型凭借仅占 Deepseek-R1-671B 5% 的参数量,成功实现了对其满血性能的逼近,充分展现了小模型在高效推理领域的巨大潜力。
Tiny-R1-32B:关键领域表现突出
Tiny-R1-32B-Preview 在多个关键领域都表现出了非凡的实力。尤其在数学方面,其在 AIME2024 评测中取得了 78.1 分的佳绩,与原版 R1 模型的 79.8 分几乎不相上下,并大幅领先 Deepseek-R1-Distill-Llama-70B 的 70.0 分。 在编程和科学领域,该模型分别在 LiveCodeBench 和 GPQA-Diamond 测试中获得了 61.6 分和 65.0 分,全面超越了当前开源的70B模型 Deepseek-R1-Distill-Llama-70B。这一成果不仅证明了 Tiny-R1-32B-Preview 在性能上的卓越表现,更重要的是,它通过大幅降低参数量,实现了推理成本的显著降低,带来了效率上的飞跃。
“分治-融合”策略:性能突破的关键
这一突破性的成果背后,离不开“分治-融合”这一核心技术的支撑。研究团队首先基于 DeepSeek-R1 生成了海量的领域数据,并分别训练了数学、编程、科学这三大垂直领域的专业模型。紧接着,他们利用 Arcee 团队的 Mergekit 工具进行巧妙的智能融合,从而突破了单一模型的性能瓶颈,实现了多任务的均衡优化。 这种创新的技术路径不仅有效提升了模型的性能,也为未来推理模型的发展方向提供了新的借鉴。
开源共享,推动技术普惠
360智脑团队和北京大学的联合研发团队强调,Tiny-R1-32B-Preview 的成功离不开开源社区的鼎力支持。 该模型得益于 DeepSeek-R1 蒸馏、DeepSeek-R1-Distill-32B 增量训练以及模型融合等先进技术。
为了促进技术的普及和应用,研发团队承诺将全面公开模型仓库,其中包括技术报告、训练代码以及部分数据集。 模型仓库已上线 Hugging Face 平台,方便大家学习使用。
360智脑AI工具地址:【点击登陆】
Hugging Face 平台地址:https://huggingface.co/qihoo360/TinyR1-32B-Preview。
更多AI行业最新资讯新闻信息请关注AI人工智能网站--AITOP100平台--AI资讯专区:https://www.aitop100.cn/infomation/index.html