
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
llama.cpp 安卓平台部署实战:在本地高效运行大语言模型
想让你的安卓手机变成随身携带的 AI 助手吗?本教程将手把手教你如何利用 llama.cpp 工具,在不依赖网络的情况下,将开源大语言模型(如 Llama 3)部署并在手机本地高效运行,体验零延迟、高隐私的移动端 AI。

OpenClaw 安装、配置与卸载完整指南:快速上手 Qwen 集成开发环境
想在自己电脑上跑通义千问(Qwen)这类 AI 工具?其实很简单!先用 NVM 装个 Node.js——它能帮你管好版本,装错也不怕,随时换。然后装 OpenClaw,这是个本地小工具,能连上 Qwen。运行命令后,按提示点几下(比如选“是”、登录账号),其他暂时不用的直接跳过就行。启动后,AI 就在你电脑上 ready 了。以后不想用了,一条命令就能彻底卸载,干净利落。整个过程不用折腾,小白也能

大模型qwen3使用llama.cpp转换为gguf格式
为了在安卓设备上顺利运行Qwen3系列大模型,通常需要借助llama.cpp工具将原始模型转换为更适合移动端部署的GGUF格式。GGUF是一种轻量、高效的模型格式,支持在资源受限的设备上进行推理。通过这一转换流程,不仅可以减小模型体积,还能提升在手机端的加载速度与运行效率,从而实现本地化、低延迟的AI体验。

从零开始:Ubuntu 系统下搭建 LLaMA-Factory 微调环境 + CUDA 驱动配置(保姆级图文)
LLaMA-Factory 是一个功能强大且用户友好的开源工具,旨在简化 LLaMA、ChatGLM、Qwen 等多种主流大模型的微调(Fine-tuning)与部署流程。本文将详细介绍如何在本地机器上部署 LLaMA-Factory,并正确配置 CUDA 环境以充分利用 GPU 进行加速。

到底了







