OpenClaw移动办公:ollama-QwQ-32B+Termux安卓端配置

1. 为什么要在手机上部署OpenClaw?

去年冬天的一次出差经历让我意识到移动办公自动化的必要性。当时我在高铁上收到紧急需求——整理一份会议纪要并发送给客户。手边只有手机,却要反复切换记事本、邮箱和文件管理器。这种场景下,一个能理解自然语言指令的自动化助手显得尤为珍贵。

经过多次尝试,我找到了Termux+ollama-QwQ-32B+OpenClaw的组合方案。这套配置让我的安卓手机变成了随身AI助手,可以:

  • 在通勤路上处理文件整理
  • 通过语音指令触发自动化流程
  • 用移动端Web界面监控任务状态
  • 实现7*24小时轻量级自动化值守

最吸引我的是它的隐私性——所有数据处理都在本地完成,敏感商业资料不会经过第三方服务器。

2. 安卓端环境准备

2.1 Termux基础配置

首先需要为Termux配置完整Linux环境。这里有个坑点:直接安装的Termux可能缺少关键库。我的解决方案是:

pkg update && pkg upgrade
pkg install -y git python nodejs-lts openssh
termux-setup-storage

特别提醒:

  • 执行termux-setup-storage会请求文件权限,这是后续文件操作的基础
  • 建议安装Node.js 18+版本(实测20.x兼容性最佳)
  • 内存小于4GB的设备需要配置swap空间:
pkg install termux-api
termux-wake-lock
dd if=/dev/zero of=/data/local/tmp/swapfile bs=1M count=1024
mkswap /data/local/tmp/swapfile
swapon /data/local/tmp/swapfile

2.2 ollama-QwQ-32B部署

在Termux中运行大模型需要特殊处理。我测试了三种方案后,最终选择使用预编译的ollama-QwQ-32B镜像:

curl -fsSL https://ollama.ai/install.sh | bash
ollama pull qwq-32b

关键配置参数:

  • 模型默认监听127.0.0.1:11434
  • 需要修改~/.ollama/config.json限制内存使用:
{
  "host": "0.0.0.0",
  "port": 11434,
  "environment": {
    "OLLAMA_MAX_LOADED_MODELS": "1",
    "OLLAMA_NO_MULMAT": "1"
  }
}

遇到的最大挑战是内存不足。我的解决方法是:

  1. 关闭所有后台应用
  2. 使用termux-change-repo切换为国内镜像源加速下载
  3. 运行前执行termux-fix-shebang避免脚本解析错误

3. OpenClaw移动端集成

3.1 特殊安装方式

标准npm安装会遇到权限问题,改用以下方案:

npm install -g openclaw --unsafe-perm
openclaw onboard --mobile

配置向导中选择:

  • Model Provider: Custom
  • Base URL: http://127.0.0.1:11434
  • API Type: ollama
  • Model Name: qwq-32b

3.2 端口转发技巧

为了让局域网设备访问Termux服务,需要:

  1. 在Termux中获取本机IP:
ifconfig | grep "inet addr"
  1. 设置SSH隧道(需先安装openssh):
ssh -R 18789:localhost:18789 user@你的电脑IP
  1. 或者使用adb反向代理:
adb reverse tcp:18789 tcp:18789

3.3 移动端Web界面优化

默认Web界面在手机上显示不佳,我通过自定义CSS解决:

  1. 修改~/.openclaw/web/styles.css
@media (max-width: 768px) {
  .container { padding: 5px; }
  button { min-width: 80px; }
}
  1. 使用Termux的termux-open-url快速访问:
termux-open-url http://localhost:18789

4. 实战:移动端自动化场景

4.1 文件自动整理

配置file-manager技能后,可以实现:

  • 自动归类下载文件夹中的文件
  • 按日期重命名截图
  • 压缩并备份指定目录

触发示例:

openclaw exec "整理下载文件夹,将图片移动到Pictures"

4.2 即时通讯集成

通过Ngrok实现微信/飞书接入:

  1. 安装ngrok:
pkg install ngrok
  1. 启动隧道:
ngrok http 18789
  1. 在IM平台配置Webhook地址

4.3 语音控制方案

结合Termux:API实现语音指令:

  1. 安装语音组件:
pkg install termux-api
pip install speechrecognition
  1. 创建语音触发脚本:
import speech_recognition as sr
r = sr.Recognizer()
with sr.Microphone() as source:
    audio = r.listen(source)
    command = r.recognize_google(audio)
    os.system(f"openclaw exec '{command}'")

5. 性能优化与问题排查

5.1 资源占用控制

~/.openclaw/config.json中添加:

{
  "resource": {
    "cpu_throttle": 0.5,
    "memory_limit": "512MB",
    "idle_timeout": 300
  }
}

5.2 常见错误处理

  • 模型加载失败:检查ollama日志tail -f ~/.ollama/logs/server.log
  • 端口冲突:修改OpenClaw默认端口openclaw gateway --port 28789
  • 证书错误:添加"tls_skip_verify": true到模型配置

5.3 省电策略

  1. 使用Termux定时任务:
crontab -e
*/30 * * * * openclaw health-check
  1. 启用CPU调频:
pkg install cpufreq
cpufreq-set -g powersave

6. 我的使用体验与建议

经过三个月的实际使用,这套移动方案最让我惊喜的是场景适应性。在咖啡厅、机场等场所,我可以通过手机快速完成:

  • 紧急文档格式转换
  • 会议录音转文字摘要
  • 临时数据抓取与分析

但也存在明显局限:

  1. 连续运行2小时后可能出现内存泄漏
  2. 复杂任务响应速度较慢(平均5-8秒)
  3. 屏幕常亮导致电量消耗较快

我的改进方案是:

  • 重要任务前重启Termux释放内存
  • 对时效性不高的任务使用延迟队列
  • 搭配充电宝使用

这套方案特别适合需要随时处理轻量级自动化任务的移动办公人群。相比云端方案,本地处理的隐私保障和离线可用性是最大优势。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐