阿里云通义千问 Qwen 3 旗舰版模型宣布更新:性能全面提升,超越 Kimi、DeepSeek 等行业顶尖水平

感谢本站网友 HuTao29、天天潜水 的线索投递!

本站 7 月 22 日消息,阿里云今天更新了旗舰版 Qwen3 模型,推出 Qwen3-235B-A22B-FP8 非思考模式(Non-thinking)的更新版本,命名为 Qwen3-235B-A22B-Instruct-2507-FP8。

阿里云表示,在经过与社区沟通和深思熟虑后,决定停止使用混合思考模式,转为分别训练 Instruct 和 Thinking 模型,以获得最佳质量。

据介绍,新的 Qwen3 模型通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在 GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent 能力)等众多测评中表现出色,超过 Kimi-K2、DeepSeek-V3 等顶级开源模型以及 Claude-Opus4-Non-thinking 等领先闭源模型。

模型概述

FP8 版本的 Qwen3-235B-A22B-Instruct-2507 具有以下功能特点:

    类型:因果语言模型 / 自回归语言模型

    训练阶段:预训练与后训练

    参数量:总共 235B,激活 22B

    参数量(非嵌入):234B

    层数:94

    注意头数(GQA): Q 为 64,KV 为 4

    专家数:128

    激活专家数:8

    上下文长度:原生支持 262,144。

    阿里云表示,本次更新的 Qwen3 模型,还增强了以下关键性能:

      在多语言的长尾知识覆盖方面,模型取得显著进步。

      在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。

      长文本提升到 256K,上下文理解能力进一步增强。

      目前,Qwen3 新模型已在魔搭社区和 HuggingFace 上开源更新,本站附官方地址:

      • 官网地址:https://chat.qwen.ai/

      • HuggingFace:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

      • 魔塔社区:https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

文章版权声明:除非注明,否则均为 威乐软件园 原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,4655人围观)

还没有评论,来说两句吧...

目录[+]