Open-AutoGLM命令行参数说明,新手必读
本文介绍了如何在星图GPU平台上自动化部署Open-AutoGLM – 智谱开源的手机端AI Agent框架镜像,实现自然语言驱动的移动端自动化操作。用户可通过简洁命令行指令,让AI代理完成如‘打开抖音搜索并关注用户’等典型任务,适用于移动App测试、RPA轻量级自动化等场景。
Open-AutoGLM命令行参数说明,新手必读
你刚下载完 Open-AutoGLM,连上手机、装好 ADB、配好 API Key,正准备输入第一条指令——却卡在了 python main.py 后面那一长串参数上?
别急。这不是考试,不用背参数;也不是黑箱,每个选项都有明确用途。本文不讲部署、不重复环境配置,只聚焦一个目标:让你看懂每一个命令行参数是干什么的、为什么必须填、填错会怎样、怎么填才最稳妥。
哪怕你昨天第一次听说 ADB,今天也能自信敲出完整、安全、可复现的命令。
1. 命令行入口:main.py 的核心结构
Open-AutoGLM 的控制逻辑全部封装在 main.py 中。它的调用形式非常清晰:
python main.py [全局选项] "你的自然语言指令"
注意两个关键点:
- 所有
--xxx开头的都是可选但高度推荐的全局参数,控制连接、模型、安全等底层行为; - 最后一个未加
--的字符串,是唯一必需的“任务指令”,必须用英文双引号包裹(尤其含空格或中文时)。
我们不从抽象定义讲起,而是直接拆解你实际会遇到的每一条参数——按使用频率和重要性排序。
2. 必须掌握的四大核心参数
2.1 --device-id:告诉 AI,“你要操控哪台手机”
这是你和真机建立控制关系的“身份证”。没有它,AI 就像司机没拿到车钥匙。
-
值是什么?
就是adb devices命令输出的第一列内容。例如:$ adb devices List of devices attached 1234567890ABCDEF device # ← 这就是 device-id -
常见填写方式:
- USB 连接:直接填设备 ID,如
--device-id 1234567890ABCDEF - WiFi 连接:填
IP:端口,如--device-id 192.168.1.100:5555(需先执行adb tcpip 5555)
- USB 连接:直接填设备 ID,如
-
新手易错点:
- 忘记运行
adb devices确认设备在线 → 报错Device not found - 复制了
offline或unauthorized状态的 ID → AI 无法发送任何指令 - 安全做法:每次运行前先执行
adb devices,只取状态为device的那一行
- 忘记运行
2.2 --base-url:指向“大脑”所在的位置
Open-AutoGLM 本身不运行大模型,它是个“指挥官”,把屏幕截图和指令发给远端的 LLM 服务,再把返回的操作步骤执行下去。--base-url 就是这个“大脑”的地址。
-
值是什么?
一个完整的 HTTP 接口地址,格式为http://<IP>:<端口>/v1或https://<域名>/v1。
它取决于你选择的模型服务商:服务商 示例值 说明 智谱 BigModel https://open.bigmodel.cn/api/paas/v4需配合 --apikey使用,免费额度充足ModelScope https://api-inference.modelscope.cn/v1魔搭社区托管服务,开箱即用 自建 vLLM http://192.168.1.50:8800/v1本地 GPU 服务器,需自行部署 -
新手易错点:
- 漏掉
/v1后缀 → 返回 404,AI 无响应 - 混淆
base-url和网页地址(如把https://open.bigmodel.cn当作 base-url)→ 连接失败 - 验证方法:在浏览器或
curl中访问该地址,应返回类似{"error":"Unauthorized"}(说明服务可达,只是缺密钥)
- 漏掉
2.3 --model:指定“用哪个大脑思考”
同一个 base-url 可能支持多个模型。--model 就是告诉服务:“请用这个型号的模型来理解我的指令”。
-
常用值对照表:
模型名称 适用场景 备注 autoglm-phone智谱官方通用版(推荐新手) 调用稳定,响应快 ZhipuAI/AutoGLM-Phone-9BModelScope 托管的 9B 版本 免费、无需显卡 autoglm-phone-9b本地部署的 9B 量化版 显存占用低,适合 12GB GPU -
新手易错点:
- 大小写敏感!
autoglm-phone≠AutoGLM-Phone - 在 ModelScope 上用了智谱的 model 名 → 返回
Model not found - 查证方式:访问对应服务商的模型文档页,复制“模型标识符”(Model ID),而非页面标题
- 大小写敏感!
2.4 指令字符串:用大白话下达任务
这是整个命令中唯一没有 -- 前缀、但最核心的部分。它不是代码,是你对 AI 助理说的一句话。
-
正确写法示例:
"打开小红书,搜索'北京咖啡探店',进入第一个笔记并点赞" "切换到微信,给张三发消息:'会议推迟到下午三点'" "打开设置,关闭蓝牙" -
关键原则:
- 动词开头:用“打开”“搜索”“进入”“发送”“关闭”等明确动作词
- 对象具体:写“小红书”而非“那个红色图标App”;写“张三”而非“通讯录里第二个联系人”
- 避免模糊表述: “帮我处理一下订单” → “打开淘宝,进入‘我的订单’,找到最新一笔,点击‘确认收货’”
- 一次只做一件事:复杂流程由 AI 自动拆解,你只需描述最终目标
-
为什么必须加英文双引号?
因为指令中含空格、中文、标点,不加引号会被 shell 当作多个参数切分,导致 AI 只收到第一个词(如只收到“打开”)。
3. 提升稳定性与安全性的进阶参数
这四个参数不强制,但强烈建议新手从第一天就加上——它们能帮你避开 80% 的“AI 卡住”“操作错乱”“误点敏感按钮”问题。
3.1 --apikey:给 AI 助理发“工牌”
当你用智谱或 ModelScope 时,--apikey 是调用模型服务的凭证,就像登录网站需要密码。
-
获取方式:
- 智谱:登录 open.bigmodel.cn → 个人中心 → API Key → 创建新 Key
- ModelScope:登录 modelscope.cn → 个人中心 → Access Token → 复制
-
填写方式:
--apikey "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"(注意:Key 前后不要加空格,且必须用英文双引号包裹)
-
安全提醒:
- 切勿在公开仓库、聊天记录、截图中泄露 API Key
- 本地开发时,可用环境变量替代:
export BIGMODEL_API_KEY="sk-...",然后改用--apikey "$BIGMODEL_API_KEY"
3.2 --max-steps:给 AI 设定“行动步数上限”
AI 会把你的指令拆成一连串操作(截图→识别→思考→点击→输入→再截图…)。--max-steps 就是允许它最多执行多少步。
-
默认值: 15
-
建议值:
- 简单任务(打开 App + 搜索):
--max-steps 8 - 中等任务(登录 + 浏览 + 下单):
--max-steps 20 - 复杂任务(多级菜单 + 表单填写):
--max-steps 30
- 简单任务(打开 App + 搜索):
-
为什么需要它?
防止 AI 在界面异常(如弹窗遮挡、加载中黑屏)时无限循环尝试。达到上限后会主动报错退出,而不是卡死。
3.3 --confirm-sensitive:对“危险操作”二次把关
什么是敏感操作?比如:
- 点击“删除账号”“清除数据”“格式化存储”等按钮
- 输入手机号、身份证、银行卡等隐私字段
- 在金融/支付类 App 中触发付款流程
开启此参数后,AI 在执行上述操作前,会暂停并打印提示,等待你手动输入 y 确认。
-
启用方式:
--confirm-sensitive(这是一个开关型参数,无需赋值)
-
强烈建议新手始终开启:既能防止误操作,又能帮你理解 AI 到底想做什么。
3.4 --screenshot-interval:控制“看屏幕”的节奏
AI 不是实时盯屏,而是按固定间隔截图分析。这个参数决定它多久截一次图(单位:秒)。
-
默认值: 1.0 秒
-
调整建议:
- 网络慢 / 手机卡顿 → 改为
--screenshot-interval 2.0 - 追求极致响应(如抢券)→ 可降至
--screenshot-interval 0.5(不推荐新手)
- 网络慢 / 手机卡顿 → 改为
-
原理很简单:
截图太快,AI 可能看到“正在加载”的中间态;截图太慢,可能错过按钮闪现。1.0 秒是多数场景的黄金平衡点。
4. 实用组合示例:从入门到进阶
别再零散记参数。下面给出 3 个真实可运行的命令模板,覆盖最常见场景,直接复制、替换、运行。
4.1 新手首测:用智谱服务,USB 连接,带安全确认
python main.py \
--device-id 1234567890ABCDEF \
--base-url https://open.bigmodel.cn/api/paas/v4 \
--model "autoglm-phone" \
--apikey "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \
--confirm-sensitive \
--max-steps 12 \
"打开抖音,搜索用户'科技小明',进入主页并关注"
适合:第一次运行,想确保每一步都可控
优势:API 免费、响应快、敏感操作有人把关
4.2 效率优先:用魔搭服务,WiFi 连接,静默执行
python main.py \
--device-id 192.168.1.100:5555 \
--base-url https://api-inference.modelscope.cn/v1 \
--model "ZhipuAI/AutoGLM-Phone-9B" \
--apikey "your-modelscope-token" \
--max-steps 20 \
--screenshot-interval 1.5 \
"打开高德地图,搜索'最近的充电站',查看第一个结果的电话并拨打"
适合:已熟悉流程,追求自动化效率
优势:免 GPU、免部署、WiFi 远程更灵活
4.3 调试定位:开启详细日志,定位卡点
python main.py \
--device-id 1234567890ABCDEF \
--base-url http://localhost:8800/v1 \
--model "autoglm-phone-9b" \
--max-steps 10 \
--log-level DEBUG \
"打开设置,进入'应用管理',找到'微信'并强制停止"
适合:AI 卡在某一步,你想看清它“看到了什么”“打算做什么”
关键参数:--log-level DEBUG 会输出每张截图的 OCR 文本、模型思考链、ADB 执行命令
5. 常见报错速查表:5 分钟定位问题根源
| 报错信息(精简版) | 根本原因 | 30 秒解决方法 |
|---|---|---|
adb: device 'xxx' not found |
设备未连接或未授权 | 运行 adb devices,确认状态为 device;若为 unauthorized,手机点“允许调试” |
Connection refused |
base-url 地址不通 |
ping 或 curl -I 测试该地址是否可达;检查云服务器防火墙/端口映射 |
Authentication failed |
API Key 错误或过期 | 重新生成 Key,确认 --apikey 值无空格、无换行 |
Model not found |
--model 名称不匹配 |
查阅服务商文档,严格复制 Model ID(区分大小写) |
Sensitive screen detected |
界面被系统标记为隐私区域 | 暂停任务,手动退出当前 App 或关闭悬浮窗/录屏软件 |
No response from LLM after 60s |
网络延迟或模型超载 | 增加 --screenshot-interval 至 2.0;换用响应更快的模型(如 autoglm-phone) |
重要提醒: 所有报错都不是模型能力问题,而是连接、配置、权限、网络四类基础环节的信号。先查这四点,90% 的问题当场解决。
6. 总结:参数不是负担,而是掌控权
你不需要记住所有参数,只需要建立一个简单心法:
- 设备在哪? →
--device-id - 大脑在哪? →
--base-url - 用哪个大脑? →
--model - 让它做什么? → 最后的那句引号内的话
- 安全吗? → 加
--confirm-sensitive - 稳吗? → 加
--max-steps和--screenshot-interval
参数不是束缚你的绳索,而是把 AI 助理从“黑盒执行者”变成“可预期、可干预、可追溯”的工作伙伴。
今天你敲下的每一行命令,都在训练自己和 AI 的协作默契——它听懂你的话,你读懂它的反馈,这才是真正的人机协同。
---
> **获取更多AI镜像**
>
> 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐



所有评论(0)