阿里巴巴开源Qwen3大模型,2350亿参数支持119种语言,首创"快思考/慢思考"混合推理,数学/代码能力超越Gemini 2.5 Pro,4张显卡即可部署
1.1 智能模式切换
首创"快思考"(Fast Mode)与"慢思考"(Deep Mode)双引擎:
1.2 用户自定义控制
创新引入"思维预算"调节器,允许开发者通过API参数:
2.1 基准测试全面领先
测试项目 | Qwen3-235B | DeepSeek-R1 | OpenAI-o1 |
---|---|---|---|
AIME25数学推理 | 81.5 | 79.2 | 80.8 |
LiveCodeBench代码 | 70.7 | 68.4 | 69.9 |
ArenaHard对齐度 | 95.6 | 93.1 | 94.8 |
2.2 硬件成本革命
3.1 混合专家系统(MoE)
采用2350亿参数MoE架构,其中:
3.2 三阶段训练体系
4.1 模型矩阵
模型名称 | 参数量 | 类型 | 适用场景 |
---|---|---|---|
Qwen3-235B-A22B | 235B | MoE | 企业级AI中枢 |
Qwen3-32B | 32B | 稠密 | 云服务器部署 |
Qwen3-4B | 4B | 稠密 | 手机/车载设备 |
4.2 开发者支持
5.1 企业级解决方案
5.2 个人用户场景
6.1 硬件推荐配置
模型规模 | 显卡需求 | 显存占用 | 推理速度 |
---|---|---|---|
235B | 4x H20 | 64GB | 45token/s |
32B | 2x A100 80G | 48GB | 78token/s |
4B | 骁龙8 Gen3/RTX4060 | 6GB | 即时响应 |
6.2 快速接入通道
Qwen3通过混合推理架构实现"大象跳舞",在保持2350亿参数规模的同时,将商业落地成本压缩至行业1/3水平。其开源策略与多语言支持,正在全球范围内加速AI民主化进程。随着终端设备的逐步适配,这场由阿里巴巴引领的效能革命,或将成为AGI时代的关键转折点。
官方介绍:https://qwenlm.github.io/blog/qwen3/
github:https://github.com/QwenLM/Qwen3
发现更多相同类别的站点
Today, we're announcing the Claude 3 model family, which sets new industry benchmarks across a wide range of cognitive tasks. The family includes three state-of-the-art models in ascending order of capability: Claude 3 Haiku, Claude 3 Sonnet, and Claude 3 Opus.
Claude 3.7:Anthropic 的最新 AI 里程碑,混合推理能力引领未来
Gemini 2.0 our most capable AI model yet, built for the agentic era.
Opens in a new tab
分享你的想法。带 * 的字段为必填项。