超详细配置:在M1 Mac上部署AutoGLM-Phone全流程

摘要:本教程教你在 Mac (Apple Silicon) 上部署智谱 AutoGLM-Phone-9B 多模态大模型,实现完全本地化、隐私安全、零成本的手机 AI 助理。从原理到部署、从操作到优化,一文搞定!


1. 什么是 Open-AutoGLM?

1.1 项目简介

Open-AutoGLM 是智谱 AI 开源的手机端 AI Agent 框架,基于视觉语言模型(VLM)构建,能够通过自然语言指令自动操控安卓设备。该系统结合 ADB(Android Debug Bridge)、多模态感知与智能规划能力,实现“一句话完成复杂任务”的自动化体验。

典型应用场景包括:

  • “打开小红书搜索美食探店”
  • “在抖音关注指定账号并点赞最新视频”
  • “使用美团点一份外卖并发送地址给朋友”
  • “进入微信聊天窗口发送预设消息”

整个流程无需手动干预,AI 自动理解屏幕内容、解析 UI 元素、生成操作路径并执行点击、滑动、输入等动作。

1.2 为什么选择本地部署?

对比项 云端 API 模式 本地 MLX 模式
隐私安全 截图上传至远程服务器 所有数据保留在本机
运行成本 按 Token 计费 仅消耗电力
网络依赖 必须联网 支持离线运行
响应延迟 受网络波动影响 推理稳定,延迟可控

对于注重隐私和长期使用的用户,本地部署是更优选择。

1.3 适用人群

  • 开发者:研究 AI Agent 架构与多模态推理机制
  • 极客玩家:探索 Apple Silicon 上的大模型部署
  • 隐私敏感者:拒绝将手机界面上传至第三方服务
  • 自动化爱好者:构建个性化手机工作流

2. 核心原理解析

2.1 AI Agent 工作循环

Open-AutoGLM 遵循经典的 感知-思考-行动(Perception-Thinking-Action) 循环架构:

┌─────────────────────────────────────────────────────────────┐
│                    Agent 工作循环                            │
├─────────────────────────────────────────────────────────────┤
│                                                             │
│   ┌──────────┐     ┌──────────┐     ┌──────────┐          │
│   │  感 知   │ ──→ │  思 考   │ ──→ │  行 动   │          │
│   │          │     │          │     │          │          │
│   │ 截图     │     │ 理解状态 │     │ 点击     │          │
│   │ UI解析   │     │ 规划步骤 │     │ 滑动     │          │
│   │ App状态  │     │ 生成指令 │     │ 输入     │          │
│   └──────────┘     └──────────┘     └──────────┘          │
│        ↑                                  │                 │
│        └──────────────────────────────────┘                 │
│                     循环执行                                 │
└─────────────────────────────────────────────────────────────┘

每轮迭代中:

  1. 获取当前手机屏幕图像与结构化 UI 信息;
  2. 将任务描述与多模态输入送入 VLM 模型进行推理;
  3. 解析输出的操作指令并通过 ADB 执行;
  4. 判断是否完成任务或需要人工接管。

2.2 三层系统架构

感知层(Perception Layer)

负责采集手机当前状态,主要包括三类数据源:

数据类型 技术手段 输出格式
视觉感知 adb shell screencap -p PNG 图像
结构化感知 adb shell uiautomator dump XML 元素树
应用状态 adb shell dumpsys activity activities 当前 Activity 名称

这些信息共同构成对手机界面的完整理解基础。

推理层(Reasoning Layer)

采用 AutoGLM-Phone-9B 视觉语言模型,其输入为:

[系统提示] + [用户指令] + [截图 Base64 编码]

模型输出遵循特定格式:

<think>我需要先找到微信图标...</think>
<answer>{"action": "Tap", "element": [500, 800]}</answer>

其中 <think> 包含推理过程,<answer> 包含可执行 JSON 指令。

执行层(Execution Layer)

根据模型输出调用对应 ADB 命令:

操作类型 ADB 命令示例
Tap adb shell input tap x y
Swipe adb shell input swipe x1 y1 x2 y2 duration
Type am broadcast -a ADB_INPUT_TEXT --es msg "hello"
Launch App adb shell am start -n com.tencent.mm/.ui.LauncherUI
Back / Home adb shell input keyevent KEYCODE_BACK/HOME

所有操作均通过 ADB 实现无侵入式控制。

2.3 MLX 框架优势

MLX 是苹果专为 Apple Silicon 设计的深度学习框架,具备以下特性:

  • 统一内存架构:CPU 与 GPU 共享物理内存,避免频繁拷贝
  • 延迟编译优化:动态编译计算图,提升执行效率
  • Metal 加速支持:充分利用 M 系列芯片的 GPU 能力

得益于 MLX,我们可以在 M1 Mac 上高效运行 9B 参数级别的多模态模型,而无需依赖云服务。


3. 环境准备(超详细)

3.1 系统要求

组件 最低要求 推荐配置
操作系统 macOS 13.3+ macOS 14 Sonoma
芯片 M1 M1 Max / M2 Pro 及以上
内存 16GB 32GB
存储空间 20GB 可用 50GB SSD
Python 3.10+ 3.11

建议使用带有独立显存的高端机型以获得更好性能。

3.2 安装 Python 环境

推荐使用 pyenv 管理 Python 版本。

# 安装 Homebrew(如未安装)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安装 pyenv
brew install pyenv

# 配置 zsh 环境变量
echo 'export PYENV_ROOT="$HOME/.pyenv"' >> ~/.zshrc
echo 'eval "$(pyenv init -)"' >> ~/.zshrc
source ~/.zshrc

# 安装并设置 Python 3.11
pyenv install 3.11.9
pyenv global 3.11.9

验证安装:

python --version  # 应输出 Python 3.11.9

3.3 安装 ADB 工具

ADB 是连接 Mac 与安卓设备的核心工具。

# 使用 Homebrew 安装
brew install android-platform-tools

# 验证版本
adb version

确保输出类似 Android Debug Bridge version 1.x.x

3.4 配置安卓手机

步骤 1:开启开发者模式
  1. 进入 设置 → 关于手机
  2. 连续点击 版本号 7 次
  3. 提示“您已进入开发者模式”

不同品牌路径略有差异,华为在“关于手机”,小米在“我的设备”。

步骤 2:启用 USB 调试
  1. 返回 设置 → 系统 → 开发者选项
  2. 开启 USB 调试
  3. 可选:关闭“监控 ADB 安装”以减少弹窗
步骤 3:连接授权
  1. 使用数据线连接手机与 Mac
  2. 手机端弹出授权对话框时勾选“始终允许”
  3. 在终端验证:
adb devices

正常应显示:

List of devices attached
ABCDEF1234567890	device

3.5 安装 ADB Keyboard

用于支持中文文本输入。

  1. 下载 APK 文件:

    curl -L -O https://github.com/senzhk/ADBKeyBoard/releases/download/v1.7/ADBKeyboard.apk
    
  2. 安装到设备:

    adb install ADBKeyboard.apk
    
  3. 在手机上启用:

    • 设置 → 语言与输入法 → 虚拟键盘 → 启用 ADB Keyboard
  4. 验证:

    adb shell ime list -a | grep ADB
    

    应输出包含 com.android.adbkeyboard/.AdbIME

3.6 安装项目依赖

# 克隆仓库
git clone https://github.com/zai-org/Open-AutoGLM.git
cd Open-AutoGLM

# 安装 MLX 相关库
pip install mlx "git+https://github.com/Blaizzy/mlx-vlm.git@main" torch torchvision transformers

# 安装项目依赖
pip install -r requirements.txt
pip install -e .

验证安装成功:

python -c "import mlx; import phone_agent; print('✅ 所有依赖安装成功')"

4. 模型下载与部署

4.1 下载模型

方法 A:HuggingFace CLI(国际源)
# 安装 HuggingFace CLI
pip install -U "huggingface_hub[cli]"

# 设置国内镜像加速(可选)
export HF_ENDPOINT=https://hf-mirror.com

# 下载模型(约 20GB)
huggingface-cli download \
  --resume-download \
  zai-org/AutoGLM-Phone-9B \
  --local-dir ./models/AutoGLM-Phone-9B
方法 B:ModelScope(国内推荐)
pip install modelscope

python -c "
from modelscope import snapshot_download;
snapshot_download('ZhipuAI/AutoGLM-Phone-9B', local_dir='./models/AutoGLM-Phone-9B')
"

4.2 启动本地推理

python main.py \
  --local \
  --model ./models/AutoGLM-Phone-9B \
  "打开微信"

首次加载模型约需 30 秒,后续任务可复用缓存。

4.3 4-bit 量化优化(适用于 16GB 内存设备)

若内存有限,建议进行 4-bit 量化以降低资源占用。

指标 FP16 原始模型 4-bit 量化后
模型大小 ~20 GB ~6.5 GB
内存需求 ≥32GB 16GB 可运行
推理速度 基准 提升约 3 倍
精度损失 <2%

执行量化:

python -m mlx_vlm.convert \
  --hf-path ./models/AutoGLM-Phone-9B \
  -q \
  --q-bits 4 \
  --mlx-path ./autoglm-9b-4bit

使用量化模型运行:

python main.py \
  --local \
  --model ./autoglm-9b-4bit \
  "打开B站搜索Python教程"

5. 实战操作指南

5.1 基础运行模式

单次任务模式
python main.py \
  --local \
  --model ./models/AutoGLM-Phone-9B \
  "打开抖音搜索博主dycwo11nt61d并关注"
交互式模式
python main.py --local --model ./models/AutoGLM-Phone-9B

# 进入交互环境后输入:
> 打开小红书搜索咖啡探店
> 发送消息给李四说晚上聚餐改到七点
> 退出

5.2 常用参数说明

参数 作用 示例值
--local 启用本地 MLX 推理 --local
--model 指定模型路径 ./models/AutoGLM-Phone-9B
--device-id 指定 ADB 设备 ID 或 IP 192.168.1.100:5555
--lang 设置语言 cn / en
--list-devices 列出已连接设备
--max-steps 限制最大执行步数 --max-steps 50

5.3 典型任务示例

# 社交沟通
python main.py --local --model ./autoglm-9b-4bit "打开微信给王五发消息:会议推迟半小时"

# 电商购物
python main.py --local --model ./autoglm-9b-4bit "打开淘宝搜索无线耳机按销量排序"

# 外卖点餐
python main.py --local --model ./autoglm-9b-4bit "打开饿了么点一份黄焖鸡米饭送到公司"

# 视频娱乐
python main.py --local --model ./autoglm-9b-4bit "打开B站搜索AI教学视频播放第一个"

5.4 WiFi 远程调试

摆脱 USB 线束缚,实现无线控制。

步骤 1:开启无线调试
  1. 手机与 Mac 处于同一局域网
  2. 进入 开发者选项 → 无线调试
  3. 记录 IP 地址与端口号(通常为 5555)
步骤 2:建立连接
# 第一次需用 USB 连接启动 TCP/IP 模式
adb tcpip 5555

# 断开 USB,使用 IP 连接
adb connect 192.168.1.100:5555

# 验证
adb devices
步骤 3:运行任务
python main.py \
  --local \
  --model ./autoglm-9b-4bit \
  --device-id 192.168.1.100:5555 \
  "打开抖音刷新首页"

5.5 支持的操作类型

操作类型 描述
Tap 单击坐标或元素
Swipe 滑动手势
Type 输入文本
Launch 启动应用
Back 返回键
Home 回到桌面
Long Press 长按
Double Tap 双击
Wait 等待页面加载完成
Take_over 请求人工介入(如验证码)

6. 性能优化详解

6.1 内置性能优化策略

图像降采样

原始高分辨率截图会显著拖慢推理速度。系统自动将图像长边压缩至 1024px 以内:

原始尺寸 压缩后尺寸 像素减少比例
2400×1080 1024×460 82%
1920×1080 1024×576 72%

大幅降低视觉编码器负担。

KV Cache 量化

启用 kv_bits=8 将注意力缓存从 FP16 降至 INT8:

  • 显存占用减少约 30%
  • 推理速度小幅提升
  • 几乎无精度损失
显存主动回收

每步推理结束后调用:

mx.clear_cache()
gc.collect()

防止内存泄漏导致长时间运行卡顿。

6.2 手动优化建议

  1. 关闭后台应用:释放更多内存供 MLX 使用
  2. 优先使用 USB 连接:传输更稳定,延迟更低
  3. 降低屏幕亮度:减少截图文件体积
  4. 定期重启进程:若发现响应变慢,Ctrl+C 后重新启动

6.3 性能实测参考(M1 Max 32GB)

阶段 耗时范围
模型加载 ~30 秒
单步推理 13–18 秒
截图获取 0.5–1 秒
完整任务示例 ~2 分钟

示例任务:“打开网易云音乐搜索《晴天》并播放”共 6 步,总耗时约 2 分 18 秒。


7. API 与进阶用法

7.1 Python API 调用

from phone_agent import PhoneAgent
from phone_agent.model import ModelConfig
from phone_agent.agent import AgentConfig

# 配置模型
model_config = ModelConfig(
    model_name="./autoglm-9b-4bit",
    is_local=True,
    max_tokens=3000,
    temperature=0.1,
)

# 配置 Agent 行为
agent_config = AgentConfig(
    max_steps=50,
    verbose=True,
    lang="cn",
)

# 创建代理实例
agent = PhoneAgent(
    model_config=model_config,
    agent_config=agent_config,
)

# 执行任务
result = agent.run("打开微信给张三发消息:今天不加班")
print(f"任务结果: {result}")

7.2 自定义回调函数

处理敏感操作或需人工介入场景:

def on_confirmation(message: str) -> bool:
    """支付、删除等敏感操作确认"""
    print(f"⚠️ 检测到敏感操作: {message}")
    return input("是否继续?(y/n): ").lower() == "y"

def on_takeover(message: str) -> None:
    """验证码、登录等人机协作场景"""
    print(f"✋ 需要人工操作: {message}")
    input("完成后请按回车继续...")

# 注册回调
agent = PhoneAgent(
    confirmation_callback=on_confirmation,
    takeover_callback=on_takeover,
)

7.3 批量任务执行

tasks = [
    "打开微信查看未读消息",
    "打开支付宝查余额",
    "打开微博刷新首页",
]

for task in tasks:
    result = agent.run(task)
    print(f"✅ 完成: {task}")
    agent.reset()  # 清除上下文

7.4 配置参数速查表

ModelConfig

参数 类型 默认值 说明
model_name str - 模型路径
is_local bool False 是否本地推理
max_tokens int 3000 最大输出长度
temperature float 0.1 生成随机性控制

AgentConfig

参数 类型 默认值 说明
max_steps int 100 最大执行步数
device_id str None ADB 设备标识
lang str cn 语言(cn/en)
verbose bool True 是否打印详细日志

8. 常见问题 FAQ

Q1: adb devices 无设备显示

adb kill-server
adb start-server
adb devices

常见原因:

  • 使用了纯充电线(非数据线)
  • 未在手机上授权调试权限
  • 开发者选项未正确开启

Q2: 模型下载中断或失败

使用断点续传:

huggingface-cli download --resume-download zai-org/AutoGLM-Phone-9B --local-dir ./models/AutoGLM-Phone-9B

或切换国内镜像:

export HF_ENDPOINT=https://hf-mirror.com

Q3: 内存不足导致崩溃(Killed / MemoryError)

解决方案:

  1. 使用 4-bit 量化模型(见第 4.3 节)
  2. 关闭其他大型应用程序
  3. 重启 Mac 后重试

Q4: 文本输入无效

检查:

  1. ADB Keyboard 是否已安装
  2. 是否已在系统输入法中启用
  3. 验证命令:
    adb shell ime list -a | grep ADB
    

Q5: 截图为黑屏

部分应用(如银行、支付类)禁止截图,属系统级保护。此时模型会自动触发 take_over 请求人工操作。

Q6: 运行逐渐变慢

终止当前进程并重启:

# Ctrl+C 中断
python main.py --local --model ./autoglm-9b-4bit "新任务"

Q7: WiFi 连接失败

排查:

  1. 手机与 Mac 是否在同一 WiFi 网络
  2. 是否开启了“无线调试”
  3. 防火墙是否放行 5555 端口

Q8: Windows/Linux 编码错误

设置环境变量解决乱码:

# Windows
set PYTHONIOENCODING=utf-8

# Linux/macOS
export PYTHONIOENCODING=utf-8

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐