一次性讲清楚大模型王者 Qwen3 系列的 17 个模型,大模型入门到精通,收藏这篇就足够了!
综合官方的比较,发现 Qwen3 的8个模型的从优到劣分别是:Qwen3-235B-A22B > Qwen3-32B > Qwen3-30B-A3B > …,本地24G显存可以部署 Qwen3-32B 和 Qwen3-30B-A3B 的量化版。
Qwen3 模型发展历程
第一阶段
2025年4月29日,阿里推出了 Qwen3 模型,包含8个模型,覆盖各种 GPU 要求。
-
- 两个 MoE 模型:
Qwen3-235B-A22B
和Qwen3-30B-A3B
- 两个 MoE 模型:
-
- 六个 Dense 模型:
Qwen3-32B
、Qwen3-14B
、Qwen3-8B
、Qwen3-4B
、Qwen3-1.7B
和Qwen3-0.6B
- 六个 Dense 模型:
其中 Qwen3-235B-A22B
是最优模型,各项评分超过 DeepSeek-R1
、Qwen32B
和 OpenAI-o1
,与 Gemini-2.5-Pro
的比较中,各有优势,官方比较指标如下:
Qwen3-30B-A3B
相较于上一代的 Qwen32B
,也更胜一筹。
综合官方的比较,发现 Qwen3 的8个模型的从优到劣分别是:Qwen3-235B-A22B
> Qwen3-32B
> Qwen3-30B-A3B
> …,本地24G显存可以部署 Qwen3-32B
和 Qwen3-30B-A3B
的量化版。
第二阶段
2025年7月21日到8月8日,阿里推出了 Qwen3 的升级模型,核心包含6个模型。
-
Qwen3-235B-A22B-Instruct-2507
和Qwen3-235B-A22B-Thinking-2507
,是针对上一代旗舰模型Qwen3-235B-A22B
的升级,前者是非思考模式,后者是思考模式模型。是新的旗舰模型。
-
Qwen3-30B-A3B-Instruct-2507
和Qwen3-30B-A3B-Thinking-2507
,是针对Qwen3-30B-A3B
的升级,前者是非思考模式,后者是思考模式模型。
-
Qwen3-4B-Instruct-2507
和Qwen3-4B-Thinking-2507
,是针对Qwen3-4B
的升级,前者是非思考模式,后者是思考模式模型。
其中 Qwen3-235B-A22B-Instruct-2507
与其他开闭源模型的性能对比如下,可以说是遥遥领先。
Qwen3-30B-A3B-Thinking-2507
的性能评测图如下,在大部分场景超过了上一代的 Qwen3-235B-A22B
模型的思考模式。
Qwen3-30B-A3B-Instruct-2507
的性能评测图如下,全面大幅度超过了上一代的 Qwen3-235B-A22B
模型非思考模式。
本地24G显存最高可以部署 Qwen3-30B-A3B-Instruct-2507
和 Qwen3-30B-A3B-Thinking-2507
的量化版本。
除了以上的通用模型之外,Qwen3 还提供了两个垂类编码模型 Qwen3-Coder-480B-A35B-Instruct
和 Qwen3-Coder-30B-A3B-Instruct
第三阶段
2025年9月5日,阿里推出了当前系列的最强模型 Qwen3-Max-Preview
,估计很快就会推出 Qwen3-Max
正式版,该模型具有1万亿参数,是同系列 Qwen3-235B-A22B
参数的四倍。官方测评如下,超过了 Qwen3-235B-A22B-Instruct-2507
/Kimi K2
/Claude Opus4
/Deepseek-V3.1
该模型当前可以在 https://chat.qwen.ai/
免费使用。
综上所述,如果是远程使用模型,则可以选择 Qwen3-Max-Preview
;如果是本地使用模型,24G 显存可以选择 Qwen3-30B-A3B-Instruct-2507
和 Qwen3-30B-A3B-Thinking-2507
的量化版本。
本地使用
通过 ollama 进行安装,确保先安装过 ollama,若无,先参考 https://www.aileading.cn/docs/llm/ollama.html
安装 ollama。
在 ollama 官网 https://ollama.com/library/qwen3
选择一个适合自己显存的模型进行下载。下载的过程中,如果发现突然变慢,可以 ctrl+c 终止下载流程,之后继续使用如下命令进行下载(会接着之前的进度)
复制命令,在 cmd 中执行,即可下载并运行模型
ollama run qwen3:30b-a3b-thinking-2507-q4_K_M
如果模型没有下载过,则会先下载模型,再运行。简单测试:
>>> 0.8和0.11谁大
0.8 比 0.11 大。
### 解释:
- 0.8 可以写成 0.80(小数点后补零,便于比较)。
- 比较小数部分:0.80 的十分位是 8,0.11 的十分位是 1。
- 8 > 1,因此 0.80 > 0.11。
- 用分数验证:0.8 = 80/100,0.11 = 11/100,80/100 > 11/100。
所以,**0.8 > 0.11**。
(简单来说:0.8 是 8 个十分之一,0.11 是 11 个百分之一,相当于 1.1 个十分之一,所以 0.8 更大。)
目前在终端中就可以使用 Qwen3
模型了,但是终端的界面不太友好,接下来通过 PageAssist 图形化界面进行使用,关于 PageAssist 的安装和使用见 https://www.aileading.cn/docs/llm/page-assist.html
。也可以使用 OpenWebUI 图形界面使用,关于 OpenWebUI 的安装和使用见 https://www.aileading.cn/docs/llm/open-web-ui.html
大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向
人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业
呢?是不是就暂时能抵抗35岁中年危机呢?
答案当然是这样,大模型必然是新风口!
那如何学习大模型 ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:
最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材
,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程
,深挖痛点并持续修改了近100余次
后,终于把整个AI大模型的学习路线完善出来!
在这个版本当中:
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来
, 😝有需要的小伙伴,可以 扫描下方二维码领取
🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源
已经整理打包,有需要的小伙伴可以微信扫描下方二维码
,免费领取
更多推荐
所有评论(0)