AutoGLM-Phone多语言支持:中文指令理解准确性评测

1. 什么是AutoGLM-Phone?一个真正能“看懂”手机屏幕的AI助理

你有没有想过,让手机自己听懂你说的话,并替你点开App、输入关键词、滑动页面、甚至完成关注动作?这不是科幻电影里的桥段,而是AutoGLM-Phone正在做的事。

AutoGLM-Phone不是传统意义上的语音助手,它是一个基于视觉语言模型(VLM)的端云协同AI手机智能助理框架。它的核心能力在于“看见+理解+行动”三位一体:

  • 看见:实时截取并分析手机屏幕画面,识别按钮、文字、图标、布局结构;
  • 理解:将用户自然语言指令(比如“帮我把微信里昨天收到的那张发票截图发到工作群”)与当前界面语义对齐;
  • 行动:通过ADB自动执行点击、滑动、输入、返回等操作,全程无需手动干预。

它背后依托的是智谱开源的Open-AutoGLM项目——一个专为移动端轻量化部署优化的AI Agent框架。相比纯文本LLM或简单OCR方案,AutoGLM-Phone真正实现了多模态意图对齐:既不依赖预设UI路径,也不靠硬编码规则,而是像人一样“边看边想边做”。

更关键的是,它从设计之初就面向真实中文使用场景。不是简单翻译英文prompt,而是深度适配中文指令的模糊性、省略性、口语化特征——比如“那个蓝色的图标”“上面第二个”“上次打开的那个”这类表达,在AutoGLM-Phone中都能被稳定解析。

2. 中文指令理解到底准不准?我们做了这三类实测

很多AI项目宣传“支持中文”,但实际用起来才发现:指令稍一复杂就乱套,带方位词就识别错,长句直接漏关键动作。为了验证AutoGLM-Phone在真实中文环境下的鲁棒性,我们围绕日常高频任务设计了三类典型测试,全部在真机(小米13,Android 14)上完成,未做任何界面预处理或指令改写。

2.1 场景还原测试:完全复现用户真实口吻

我们收集了32位普通用户(非技术人员)在测试前自由描述的指令,剔除明显歧义后保留27条,涵盖电商、社交、工具、内容平台四大类。例如:

  • “点开淘宝,搜‘可折叠手机支架’,只看销量前五的,点进第一个,把价格和好评率截图发我微信”
  • “去小红书找穿白裙子站在樱花树下的女生,点进她主页,看最新一篇笔记里提到的咖啡馆名字”
  • “在设置里关掉所有自启动的App,特别是那个天天弹广告的天气软件”

结果:27条指令中,24条一次性成功执行完整流程(准确率88.9%)。失败的3条中,2条因目标App未安装导致跳转失败(属环境问题,非理解错误),1条因界面文字过小OCR识别偏差(后续加了动态缩放重采样修复)。

2.2 指令扰动测试:故意“说人话”,考验泛化力

我们对标准指令做三类扰动,检验模型对中文表达多样性的适应能力:

扰动类型 示例(原始指令:“打开知乎搜人工智能论文”) 成功率
同义替换 “进知乎,找关于AI学术文章的内容” 100%
省略主语/介词 “知乎搜人工智能论文” 96.3%(1条漏“搜”字,误判为打开App)
添加口语词 “哎,帮我打开知乎,查查人工智能论文有啥新进展” 92.6%(2条因“哎”“帮”等语气词干扰初始意图识别)

关键发现:模型对动词主导的指令结构极其敏感。“打开…搜…”“点进…看…”这类明确动作链识别稳定;而过度依赖名词短语(如“给我找知乎上讲AI论文的帖子”)时,需额外强化动作动词提取模块。

2

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐