Qwen3-Coder入门教程|10分钟搞定安装配置,大模型入门到精通,收藏这篇就足够了!
还在觉得 Coding 遥不可及?别担心!无论你是技术小白,还是寻求效率提升的办公达人,这篇超基础教程都将手把手带你入门。
还在觉得 Coding 遥不可及?别担心!无论你是技术小白,还是寻求效率提升的办公达人,这篇超基础教程都将手把手带你入门。直接上手 Qwen-Code CLI,体验用“说话”就能让 AI 帮你写代码、处理文档的神奇魅力。打破专业壁垒,让每个人都能轻松感受 Coding 的乐趣与强大!
✅ 先来做基础的了解
Qwen3-Coder-Plus(强大的“大脑”):这是理解任务、生成方案的智能核心,经过海量数据训练,能洞察复杂任务。
Qwen-Code CLI 工具(易用的“驾驶舱”):这是一个安装简单的命令行工具,让你能轻松与“大脑”对话,指挥它完成任务。无论你是开发者想提升效率,还是办公人员想自动化处理文档、表格,它都能帮上忙。
由于Qwen-Code CLI是运行在命令行的工具,且逻辑处理和计算均在Qwen3-Coder的云端模型推理计算完成,所以对于设备性能基本没有要求,当前主流桌面电脑均可以运行。
下面进入到实操部分:
基础-激活并访问
Qwen-Coder-Plus API
在开始使用 Qwen-Code CLI 的强大功能之前,首先要保证“引擎”—— qwen-coder-plus API——已成功激活并可以调用。需要在阿里云百炼或者魔搭平台中获取一个有效的 API Key,但获取方式则根据用户所在的地理位置有所不同。
阿里云为中国内地和国际用户提供了不同的服务平台。选择错误平台是导致后续激活失败或 API 端点无法访问的最常见原因。
- 中国内地用户:应访问阿里云百炼平台(
bailian.console.aliyun.com
) 或魔搭平台(https://modelscope.cn/models) 来开通服务和获取 API Key。 - 国际(非中国内地)用户:应访问 Alibaba Cloud Model Studio
(modelstudio.console.alibabacloud.com
)来开通相关的服务。
第一步:注册并登录阿里云账户(以国内用户阿里云百炼平台举例)
如果您还没有阿里云账户,请先访问阿里云官网完成注册。
第二步:激活模型服务
根据您所在的地理位置,访问相应的平台(阿里云百炼或Model Studio),按照页面提示查看 Qwen-Coder 模型,并且可以发现当前账户下的模型会有一定的免费调用额度。
第三步:创建并查看 API Key
-
服务激活后,导航至控制台内的 API-Key 管理页面。
-
点击“创建 API Key”(或类似按钮)。
- 创建成功后,在密钥列表中找到新生成的 Key,点击“查看”,即可复制您的 API Key 字符串。
Qwen-Code CLI
安装与环境配置
成功获取 API Key 后,下一步是搭建本地开发环境并安装 Qwen-Code CLI 工具。正确的环境配置是确保 CLI 能与云端 API 顺畅通信的关键。
在安装 Qwen-Code 之前,必须确保您的系统先满足以下要求:
1、Node.js 版本:必须安装 Node.js 20 或更高版本,安装流程如下:
➡️ Windows:推荐官网下载
访问 Node.js 官方网站的下载页面,选择平台为 Windows 并选择下载并安装(推荐 LTS 版本)
安装验证:安装完成后,打开命令提示符(CMD)并运行以下命令,以确认 Node.js 和 npm(Node.js 包管理器)已成功安装。
node -v
➡️ Linux/macOS:安装 Node.js
首选安装 Homebrew(运行命令后选择任意国内镜像源即可)
/bin/bash -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
安装 Node.js
brew install node
Qwen-Code 提供了两种安装方式,开发者可根据需求选择。
方法一 (推荐):全局 npm 安装
这是最常用且推荐的安装方式,它会将 Qwen 命令安装到您的系统中,使其可在任何目录下调用。
安装 npm
curl -qL https://www.npmjs.com/install.sh | sh
然后安装 qwen-code
npm install -g @qwen-code/qwen-code
安装完成后,通过以下命令验证安装是否成功:
Bash
qwen --version
方法二 (高级):从源码安装
此方法适用于希望研究工具源码或为其贡献代码的开发者。
Bash
git clone https://github.com/QwenLM/qwen-code.git
该过程会先将官方仓库克隆到本地,然后安装所有项目依赖,并最终将本地项目链接为全局命令。
这是整个设置过程中最关键也最容易出错的环节。Qwen-Code 工具为了与广泛的开发生态兼容,采用了与 OpenAI 客户端库相同的环境变量命名约定。因此,即使连接的是阿里云的端点,也需要设置以 OPENAI_
为前缀的变量(所以无需疑惑为什么需要输入OpenAI的前缀内容)。
Qwen-Code 会按特定顺序查找配置:命令行参数(如有)> 环境变量 > 项目根目录的 .env
文件 > 首次运行时的交互式提示,以上所有步骤只需在任意步骤配置一次即可。
方法一:系统级环境变量
这是为专用开发机设置的、最一劳永逸的方法。它能确保在任何终端会话中 Qwen 命令都能自动获取配置。
➡️ Linux / macOS:
Bash
exportOPENAI_API_KEY="YOUR_API_KEY_HERE"
➡️ Windows (CMD):
DOS
setx OPENAI_API_KEY "YOUR_API_KEY_HERE"
请将
方法二:项目级 .env 文件
在项目根目录下创建一个名为 .env 的文件,是管理Qwen项目运行的最好方法。这可以避免污染全局环境,并方便团队成员共享配置(只需共享 .env.example 文件)。
在 Qwen 的根目录创建 .env 或文件(或使用vi .env命令),并填入以下内容:
OPENAI_API_KEY="YOUR_API_KEY_HERE"
方法三:首次运行交互式配置
- 如果 Qwen-Code 在启动时未检测到任何现有配置,它会进入一个交互式的设置向导,引导您输入 API Key、Base URL 和模型名称,但是该方法较为麻烦,需要在Qwen开启后按照展开显示的要求输入准确的变量内容。
不同地区的环境变量配置差异
为了彻底消除配置过程中的混淆,下表集中呈现了所有必要的环境变量及其根据不同地理位置应设置的值,不同的地区的差异主要在地区的URL地址上,该表格是这是您配置 Qwen-Code 的权威参考。
以下是配置 .env 文件所需的环境变量说明,适用于中国内地和国际用户。您可以根据所处地区,复制相应的配置信息进行设置:
➡️ API 密钥(OPENAI_API_KEY)
从 Model Studio 或阿里云百炼平台获取的私密 API 密钥:
OPENAI_API_KEY=sk-xxxxxxxx...
➡️ API 基础 URL(OPENAI_BASE_URL)
中国内地用户:
OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
国际用户:
OPENAI_BASE_URL=https://dashscope-intl.aliyuncs.com/compatible-mode/v1
➡️ 默认模型名称(OPENAI_MODEL)
使用的模型名称为:
OPENAI_MODEL=qwen3-coder-plus
请将上述内容复制到 .env 文件中,并根据您的地区选择合适的 OPENAI_BASE_URL。所有变量均为必填项。
精通 Qwen-Code CLI
你的 Agentic 编码伙伴
配置完成后,您就可以开始使用 Qwen-Code CLI 的核心功能。它不仅仅是一个命令执行工具,更是一个能在您的终端中与您协作的智能编码代理,还能够对您电脑上的内容进行操作和处理,真正的成为您最核心的办公助手。
在任意目录下,在终端中输入 Qwen 命令即可启动一个交互式会话。您会看到一个qwen > 的提示运行显示,以及下方的输入框,这里就是您与编码代理进行自然语言交流的入口。
1、基础交互:对话与控制
当您想让 AI 只关注特定的文件或文件夹时,请使用 @ 符号。这能将它的注意力集中在您需要它处理的文件或文件夹上,非常适合进行精准的修改或提问。
-
@src/utils.js 重构这个文件里的 ‘calculate’ 函数。
-
@components/ '解释一下当前项目?
-
@download/帮我给所有的下载文件都增加一个编号
- 执行终端命令 (! 符号)
无需退出 Qwen-Code 就能执行常规的终端(shell)命令。只需在命令前加上 ! 即可。您也可以直接用自然语言描述您想做的事,它会尝试帮您执行。
-
!npm install lodash(直接执行命令)
- 批量删除输入或退出 Qwen-Code
使用 Ctrl+C 可以清空当前输入的所有内容,再次输入 Ctrl+C 则会直接退出当前Qwen-Code,注意退出后则会中断当前Qwen-Code所有执行的任务
2、“斜杠”命令:管理您的会话
输入以/开头的命令可以执行各种管理操作。以下是常用命令的说明:
3. 键盘快捷键:使用以下的快捷键可以让你更好的操作Qwen-Code的功能。
一、 开发者用例
1、代码库智能与理解
-
描述此系统架构的主要组成部分。
-
核心业务逻辑组件是什么?数据流是如何工作的?
-
用一句话总结这个项目的架构和主要组件。
2.、智能重构与优化
>
重构此函数以提高可读性和性能。>
帮我重构这个类,使其遵循更好的设计模式。>
这个模块的哪些部分可以进行内存效率优化?
3、自动化生成(文档与测试)
>
为此函数生成全面的 JSDoc 注释。>
使用 Jest 为此组件编写单元测试。>
为此类中的公共方法创建 Markdown 格式的 API 文档。
4、工作流自动化
>
分析过去 7 天的 git 提交,按功能和团队成员分组。>
将 assets 目录中的所有 jpg 图像转换为 PNG 格式。
二、 日常办公用例
1、文档智能与理解 (快速掌握信息核心)
>
@2025年Q2会议纪要/ 帮我总结一下这个文件夹里所有会议纪要的关键决策和需要执行的行动项。>
我粘贴了一份项目建议书的内容。请帮我提炼出其中提到的主要风险、预算要求和项目时间线。>
@公司年度报告.pdf 请用一句话总结这份年度报告的核心业绩和未来展望,语言要精炼,适合在管理层早会上汇报。
2. 本地Excel文件数据处理 (数据分析与自动化)
>
@Q3销售报告.excel 这是我们的季度销售记录,列分别是’日期’, ‘产品’, ‘销售额’。请帮我计算出总销售额,以及销售额最高的那一笔交易是在哪一天、卖的什么产品。>
当前’待处理数据.xlsx’中,遍历A列的所有单元格,如果单元格的值是“待处理”,就将这一整行的背景色标记为黄色。如果值是“已完成”,就标记为绿色。>
我有两个Excel文件:‘客户列表.xlsx’和’订单记录.xlsx’,根据两个文件共有的’客户ID’列,将它们合并,并最终生成一个名为’客户订单总表.xlsx’的新文件。
3. 自动化生成 (内容与模板)
-
>
@候选人简历/,这是一个存放了100份简历(都是pdf格式)的文件夹。读取所有文件内容,然后筛选出那些简历中明确提到“人工智能”、“机器学习”或“深度学习”等关键词的候选人,并把他们的文件名列表给我。 -
>
我有一个’面试名单.xlsx’文件,里面有’姓名’和’邮箱’两列。我还有一个’面试邀请函模板.txt’文件。请帮我读取Excel中的每一行,然后根据模板,将[姓名]替换为具体的候选人名字,为每个人生成一个独立的邀请函文件,文件名就叫“给XXX的面试邀请.txt”。 -
>
我有一个’产品清单.xlsx’,包含’产品名称’, ‘产品特点’, '价格’和’图片路径’四列。为清单里的每一个产品都创建一个独立的Word文档。文档里需要包含产品名称(作为标题)、产品特点(作为正文)、价格,并插入对应路径的图片。
4. 工作流自动化 (自动处理繁琐任务)
>
帮我写一个Windows批处理脚本(.bat),功能是:将当前文件夹里所有文件名包含“草稿”的Word文档,都在文件名前面加上“【最终版】”。>
我需要一个脚本,能自动检查“下载”文件夹,然后把所有的图片文件(.jpg, .png)移动到“我的图片”文件夹,把所有的文档(.pdf, .docx)移动到“我的文档”文件夹。
是不是比想象中简单很多?快打开你的终端,按照上面的步骤动手试试吧!用 Qwen3-Coder 来处理你的第一个小任务,亲身体验一下 AI 助手的强大与便捷。
在接下来的日子里,我们会持续为大家带来更深入、实用的 Qwen3-Coder 挑战赛教程,探索更多 Agentic 编码的奇妙应用。
如果你在使用过程中有任何心得、技巧,或者有独特的玩法想要分享,欢迎在公众号后台私信我们!一旦内容被收录到教程中将会有机会获得通通BOX定制礼盒!
大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向
人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业
呢?是不是就暂时能抵抗35岁中年危机呢?
答案当然是这样,大模型必然是新风口!
那如何学习大模型 ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:
最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材
,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程
,深挖痛点并持续修改了近100余次
后,终于把整个AI大模型的学习路线完善出来!
在这个版本当中:
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来
, 😝有需要的小伙伴,可以 扫描下方二维码领取
🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源
已经整理打包,有需要的小伙伴可以微信扫描下方二维码
,免费领取
更多推荐
所有评论(0)