8 月 7 日消息,昨日(8 月 6 日),通义千问 Qwen 发布公告,宣布推出 Qwen3-4B-Instruct-2507 和 Qwen3-4B-Thinking-2507 两个模型,实现了性能的大幅提升。
官方指出,小型语言模型(SLM)在智能体人工智能(Agentic AI)的发展进程里具有极高价值。而 “2507” 版本的 Qwen3-4B 模型,具备体积小巧但性能强劲的特点,尤其适合在手机等端侧硬件上进行部署。
根据相关博文介绍,在非推理(non-thinking)领域,Qwen3-4B-Instruct-2507 显著增强了通用能力,目标是成为更为全能的端侧得力工具。
该模型掌握了更丰富的语言知识以及长尾知识,其上下文理解长度扩展到了 256K,即便作为小模型也能够处理长文本。在通用能力方面,该模型超越了闭源的小尺寸模型 GPT-4.1-nano,性能与同等规模的 Qwen3-30B-A3B(non-thinking)相近。
官方表示,该模型更像是一位高效的 “执行专家”,能够严格遵循指令,迅速给出响应,在内容创作、工具调用等方面更为适用。
在推理(thinking)领域,Qwen3-4B-Thinking-2507 的推理能力有了大幅提升,在 AIME25 测评中获得了高达 81.3 分的成绩。Qwen3-4B-Thinking-2507 的推理表现可与中等模型 Qwen3-30B-Thinking 相媲美,在聚焦数学能力的 AIME25 测评中,以仅 4B 的参数量取得了 81.3 分的优异成绩。
官方称此模型如同一位严谨的 “学术专家”,面对复杂问题时能够逐步展开推理,完成任务的过程更加深入且可靠 。