MCP 的官方文档的 QuickStart,介绍了基于 Claude Desktop 和 Filesystem MCP Server,实现了对本地文件的智能操作:用户以自然语言的形式下指令,大模型识别用户意图,并通过 MCP 服务端对本地文件系统的文件进行读取、搜索、创建等操作

然而,由于科学上网的原因,国内用户不方便使用 Claude Desktop。本文介绍一款桌面 AI 客户端 Cherry Studio。Cherry Studio 是面向国内用户的 AI 桌面客户端,不仅具有 Claude Desktop 的文件交互能力,还提供多模型调度、编程助手与知识管理等进阶功能。 本文主要内容:

  1. Cherry Studio 的功能特性与安装使用

  2. Filesystem MCP Server 介绍

  3. 基于 Cherry Studio+Filesystem MCP Server,搭建个人智能文件助手

Cherry Studio

Cherry Studio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 Cherry Studio 高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 Cherry Studio 中找到适合自己的 AI 功能,提升工作效率和创造力。

图片

官方网站:https://www.cherry-ai.com/

官方文档:https://docs.cherry-ai.com/

github 项目地址:https://github.com/CherryHQ/cherry-studio,目前已有 29.4 K stars

Cherry Studio 的三大特性:

  1. 💬全能 AI 助手:支持多服务商集成的 AI 对话客户端。

  2. 📚个性化知识库:支持多种格式文件导入和网页导入等方式来搭建个性化知识库。

  3. 🔒保障隐私安全:所有使用数据都储存在本地,不会上传到任何第三方服务器,并且支持本地部署的模型调用。

图片

🧠 核心功能

1、多样化模型支持

  • ☁️ 主流云服务:OpenAI、Gemini、Anthropic 等大语言模型云服务

  • 🔗 AI网页集成:Claude、Perplexity、Poe、腾讯元宝等网页端AI服务

  • 💻 本地模型支持:通过 Ollama、LM Studio 部署本地私有模型

2、AI助手与对话系统

  • 📚 300+预设助手:覆盖编程、写作、翻译等专业领域

  • 🤖 自定义助手:支持创建个性化AI角色

  • 💬 多模型并行对话:同时向多个AI提问并对比回答

3、文档与数据处理

  • 📄 多格式支持:文本、图片、Office文档、PDF等

  • ☁️ WebDAV文件管理:云端备份与跨设备同步

  • 📊 Mermaid图表:流程图/时序图可视化

  • 💻 代码高亮:支持主流编程语言语法

4、实用工具集成

  • 🔍 全局搜索:快速检索历史对话与文档

  • 📝 主题管理:按项目分类对话记录

  • 🔤 AI翻译:多语言实时互译

  • 🎯 拖拽排序:界面元素自由调整

  • 🔌 小程序支持:扩展第三方功能

  • ⚙️ MCP服务器:支持模型上下文协议(文件/数据库安全交互)

5、用户体验优化

  • 🖥️ 跨平台支持:Windows、macOS、Linux

  • 📦 开箱即用:无需配置环境,安装即启动

  • 🎨 主题与窗口:明/暗主题切换+透明窗口效果

  • 📝 Markdown渲染:完整支持Markdown语法

  • 🤲 内容分享:一键导出对话与图表

🚀 功能规划

后续 Cherry Studio 将推出以下功能:

类别

功能亮点

🎯 核心增强

智能内容选择优化 · 深度研究能力 · 全局记忆系统 · 文档预处理升级 · MCP生态市场

🗂 知识管理

笔记与收藏集 · 动态画布可视化 · OCR文字识别 · TTS语音合成

📱 平台扩展

HarmonyOS版 · Android/iOS应用(第一阶段) · 多窗口支持 · 窗口置顶功能

🔌 高阶特性

插件系统 · 语音识别(ASR) · 助手与主题交互重构

安装与使用

在下载页面:https://docs.cherry-ai.com/cherry-studio/download,选择与操作系统匹配的版本下载后,点击 exe 文件,按照提示指引,完成安装。

模型服务配置

设置模型服务,以选择阿里云的模型服务为例:点击左下角的设置按钮,选择模型服务,选择模型供应商:阿里云百炼;填写 API key;点击右上角的按钮,开启该服务。

图片

设置默认模型:点击默认模型,选择阿里云百炼的 qwen-max 模型作为默认助手模型。

图片

与模型对话:点击左上角的对话按钮,选择默认助手,开启与大模型的对话(默认模型是之前设置的 qwen-max)。下方可选择辅助功能,如选择模型、网络搜索、MCP 服务器等。

图片

Cherry Studio 具有丰富的功能,具体使用说明,可阅读官方文档:https://docs.cherry-ai.com/

Filesystem MCP Server

Filesystem MCP Server 是 MCP 官方仓库的一个 MCP 服务端实现。它将文件系统操作(如读文件、写文件、管理目录)暴露为 MCP 协议定义的标准接口(Tools)。这使得遵守 MCP 协议的 AI 模型能够安全地与主机文件系统进行交互。

项目地址:https://github.com/modelcontextprotocol/servers/tree/main/src/filesystem

主要功能
  • read_file: 读取单个文件的完整内容 (UTF-8)。

  • read_multiple_files: 同时读取多个文件的内容(错误文件不影响其他读取)。

  • write_file: 创建新文件或覆盖现有文件内容(使用时需谨慎)。

  • edit_file (高级功能): 对文件内容进行选择性编辑。

  • create_directory: 创建目录(包括父目录),如果目录已存在则静默成功。

  • list_directory: 列出目录内容,并用 [FILE] 或 [DIR] 标记类型。

  • move_file: 移动或重命名文件和目录。

  • search_files: 递归搜索匹配特定模式(支持 glob,不区分大小写)的文件/目录,并可排除特定模式。

  • get_file_info: 获取文件/目录的详细元数据(大小、创建/修改/访问时间、类型、权限)。

  • list_allowed_directories: 列出服务器被允许访问的所有目录。

技术实现与部署

语言: Node.js

部署方式

1、Docker (推荐且安全):

  • 构建镜像:docker build -t mcp/filesystem -f src/filesystem/Dockerfile .

  • 运行容器:通过 docker run 命令启动,使用 --mount 参数将宿主机上允许访问的目录绑定挂载 (bind mount) 到容器内的 /projects 路径下。可以设置 ro 标志控制只读访问。

  • Docker 部署天然提供了一层隔离。

服务配置示例:

{
  "mcpServers": {
    "filesystem": {
      "command": "docker",
      "args": [
        "run",
        "-i",
        "--rm",
        "--mount", "type=bind,src=/Users/username/Desktop,dst=/projects/Desktop",
        "--mount", "type=bind,src=/path/to/other/allowed/dir,dst=/projects/other/allowed/dir,ro",
        "--mount", "type=bind,src=/path/to/file.txt,dst=/projects/path/to/file.txt",
        "mcp/filesystem",
        "/projects"
      ]
    }
  }
}

2、NPX (便捷,但隔离性弱于 Docker):

使用 npx 直接运行包 (@modelcontextprotocol/server-filesystem),在命令后跟上允许访问的本地目录路径列表。 配置示例:

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-filesystem",
        "/Users/username/Desktop",
        "/path/to/other/allowed/dir"
      ]
    }
  }
}

使用该运行方式,需要在本机安装 node.js 。可在 https://nodejs.org/zh-cn 上下载安装包进行安装。安装完成后,在终端输入:node --version,验证是否已安装成功。

C:\Users\yuan_>node --version
v22.17.0

搭建个人智能文件助手

配置 MCP 服务端

点击 Cherry Studio 的设置,选择 MCP 服务器,点击右上角的“添加服务器”,可以选择可视化的快速创建、从 JSON 导入两种方式:

图片

以 JSON 方式,配置 Filesystem MCP Server,允许访问我的桌面和下载目录。

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-filesystem",
        "C:\\Users\\yuan_\\Desktop",
        "C:\\Users\\yuan_\\Downloads"
      ]
    }
  }
}

保存 JSON,即创建 MCP 服务器。

我们还可以点击上方的搜索 MCP 服务器,发现更多第三方已实现的 MCP 服务器:

图片

创建智能文件助手

点击“添加助手”:

图片

Cherry Studio 已内置了300+预设助手。选择一个预设助手:默认助手

图片

编辑新创建的默认助手,重命名为智能文件助手,添加系统提示词(为了让模型能准确识别文件目录路径,在系统提示词明确桌面和下载两个目录的路径):

图片

图片

设置助手使用的模型,使用 qwen-max 模型:

图片

启用 MCP 服务器 filesystem:

图片

使用测试

点击智能文件助手,开启与助手的对话。用户以自然语言的形式下指令,大模型识别用户意图,并通过 MCP 服务端对本地文件系统的文件进行读取、搜索、创建等操作

1、列出目录下的全部文件:我的桌面下有哪些文件?

图片

2、创建一个文件:在我的桌面上,创建一个文件,文件名为:report.txt

图片

在桌面上成功创建了文件:

图片

3、编辑文件:为什么天空是蓝色的?将这个问题的回答,保存到桌面上的 report.txt

图片

问题回答自动地保存到桌面上的 report.txt 文件:

图片

从上面的测试示例可见,用户以自然语言的形式下达指令,即可实现对本地文件系统的操作

以上是基于Cherry Studio+Filesystem MCP Server 搭建个人智能文件助手的介绍。基于 AI 桌面客户端、第三方已实现的通用 MCP 服务器,我们可以快速地搭建满足个人需求的智能助手

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
在这里插入图片描述

在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型实战项目&项目源码👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)
在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
在这里插入图片描述

为什么分享这些资料?

只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

(👆👆👆安全链接,放心点击)

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐