概述

官网,开源(GitHub,33.6K Star,3K Fork)。

客户端相比官网Chat聊天的优势:

  • 多供应商集成
  • 对话结果本地保存,支持导出
  • 功能扩展丰富

类似产品:Lobe Chat、Chatbox、Chatwise。

功能强大

  • 支持主流AI模型:OpenAI、Gemini、Claude等,一个客户端全搞定;
  • 内置300+专业AI助手,从写作、编程到设计;
  • 可自定义AI助手,打造专属智能伙伴;
  • 支持多模型同时对话,方便对比不同AI的回答;
  • 强大的文件处理能力;
  • 支持WebDAV文件管理,数据备份。

对话框

以Windows系统为例,从官网下载exe安装包,双击安装即可。
在这里插入图片描述
工具按钮比较多,默认折叠起来;点击展开,从左到右分别是:新话题、上传图片/文档、网络搜索、知识库、MCP设置、选择模型、快捷短语、清空消息、展开、清除上下文。

看一下回答内容右下角支持的操作,几个按钮功能如图:
在这里插入图片描述

遇到的其他问题:
在这里插入图片描述
401 Invalid token:表示模型API Key配置有误。

配置连接本地部署的Ollama模型,发起Query,报错502(no body)
在这里插入图片描述
解决方法:TODO

助手

在这里插入图片描述
系统内置助手:默认助手、产品经理、策略产品经理、社群运营、内容运营、商家运营、产品运营、销售运营、用户运营、市场营销、商业数据分析、项目管理、SEO专家、网站运营数据分析、数据分析师、前端工程师、运维工程师、开发工程师、测试工程师、HR人力资源管理、行政、财务顾问、医生、编辑、哲学家、采购、法务、翻译成中文、英语单词背诵助手、文章总结、招聘、表情符号翻译、美文排版、会议精要、PPT精炼、爆款文案、影剧推荐、职业导航、影评达人、营销策划、面试模拟、要点精炼、推闻快写、诗意创作、期刊审稿、宣传slogan、网页生成、汉语新解卡片、Unicode字符替换、心理模型专家、概念框架开发者、认知科学研究员、分析性思维导师、供应链策略专家、数字营销助手、数字艺术创作助手、虚拟导游、个性化健康顾问、虚拟教练专家、动作捕捉分析专家、游戏社区经理、电子游戏评论员、电竞高级选手、ChatGPT SEO提示、以太坊开发人员、Linux终端、英语翻译和改进者、面试官、Excel表格、英语发音助手、英语口语教师和改进者、旅游指南、抄袭检查工具、角色扮演、广告商、故事讲述者、足球评论员、脱口秀喜剧演员、励志教练、作曲家、辩手、辩论教练、电影评论家、关系辅导员、诗人、说唱歌手、励志演讲者、哲学教师、哲学家、数学老师、AI写作导师、UX/UI开发者、网络安全专家、招聘人员、人生教练、词源学家、评论员、魔术师、职业顾问、宠物行为专家。

添加助手,支持自定义,比如新增绘图大师,提示文案有点问题:
在这里插入图片描述

模型配置

包括模型服务和默认模型两个配置,模型服务支持列表非常齐全,模型平台备注,支持markdown格式。支持新增提供商:
在这里插入图片描述
默认列表已经有OpenAI,这个应该是OpenAI兼容(compatible)提供商Server?

OpenAI-Response和OpenAI啥区别呢??

以百炼为例,填写API Key之后,默认列出5个模型,都是推理模型。需要自己新增embedding模型(如text-embedding-v4)、reranker模型(如gte-rerank-v2)。

默认模型,用于设置三种场景的默认模型:
在这里插入图片描述
每个场景都能个性化设置。

设置

点击设置
在这里插入图片描述

网络搜索

其他设置-网络搜索
在这里插入图片描述
搜索结果压缩,三个选项:不压缩、截断、RAG,

黑名单,支持正则表达式形式过滤搜索结果。

黑名单订阅,可屏蔽一大堆垃圾网站的的内容,这样就不用在黑名单设置中一个个手输,将 https://git.io/ublacklist 添加到订阅源中,直接访问这个网址能看到所有订阅要屏蔽的网站地址。

联网搜索分为两类:

  • 模型自带搜索功能,有些模型显示支持联网搜索,但实际上不支持;
  • 使用第三方搜索服务。

使用第三方搜索服务,会经历两个阶段:

  • 提取用户提问内容:将提问发送给大模型->从模型获取格式化响应->解析格式化响应提取关键词->根据关键词搜索网页->保存网页内容
  • 向大模型提问:将用户提问和之前保存的网页内容一并发送给模型->模型响应

搜索结果压缩,为了解决联网搜索的结果过长超过模型上下文的问题。

配置阿里云百炼,搜索引擎使用百度,结果错误:
在这里插入图片描述

文档处理

即OCR服务。OCR服务提供商有三种:Tesseract、系统OCR(默认)、PaddleOCR。
在这里插入图片描述
支持的语言,可多选,依赖于操作系统:
在这里插入图片描述
文档处理服务商也有三个:MinerU、Doc2x、Mistral。
在这里插入图片描述

CSS

支持自定义CSS样式,设置->显示设置->自定义CSS,点击右侧https://cherrycss.com/,找到喜欢的风格,点击即复制代码,粘帖到编辑框,即时生效。

分组

全局记忆

开启全局记忆,需要提前配置好embedding模型,如text-embedding-v4
在这里插入图片描述
添加记忆:
在这里插入图片描述
怎么使用呢??

MCP

内置8个MCP Server,点击右上角的+,相当于安装:

  • mcp-auto-install:自动安装MCP Server,用于测试
  • memory:基于本地知识图谱的持久性记忆基础实现,使得模型能够在不同对话间记住用户的相关信息
  • fetch:获取URL网页内容,即爬虫
  • filesystem:操作本地文件系统
  • dify-knowledge:支持与Dify进行简单交互
  • python:提供安全沙盒环境,可基于Pyodide(GitHub,基于 WebAssembly的可用于浏览器和Node.js环境的Python发行版)运行Python代码,支持大多数标准库和科学计算包
    在这里插入图片描述
    此外提供10个MCP集市(Hub)超链接,方便用户找到更多有用的MCP Server,然后可集成到Cherry Studio中:
    在这里插入图片描述
    新增MCP Server,支持三种方式:
  • 快速创建
  • 从JSON导入
  • 从DXT导入

在这里插入图片描述
mcp.jsonJSON文件,在之前的MCP系列文章中多次提过:

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": [
        "@playwright/mcp@latest"
      ]
    }
  }
}

DXT,原Desktop Extensions,anthropics开源,后改名为MCPB(MCP Bundles),参考GitHub。此处Cherry Studio依旧保留旧的命名方式,但未引入新的命名方式。

编辑,实际上就是编辑上面mcp.json文件。
在这里插入图片描述
告警提示
在这里插入图片描述
同步
在这里插入图片描述

快捷创建,或编辑MCP Server时,注意到类型有三种:

  • stdio:标准输入/输出
  • sse:服务器发送事件
  • streamableHttp:可流式传输的HTTP

在这里插入图片描述
通过Python代码启动一个本地MCP Server:

from fastapi import FastAPI
from fastapi_mcp import FastApiMCP
import uvicorn

app = FastAPI()
@app.get("/text", operation_id="text")
async def hello():
	return "Hello"

mcp = FastApiMCP(
    app, name="测试MCP",
    description="测试",
)
mcp.mount(mount_path='/test-mcp')
if __name__ == '__main__':
	uvicorn.run(app, host="0.0.0.0", port=8000)

python demo.py,启动日志:
在这里插入图片描述
选择SSE类型后开启MCP Server却报错:
在这里插入图片描述
原因在于URL配置为http://0.0.0.0:8000/test-mcp,改成http://localhost:8000/test-mcp,可看到连接成功,【工具】标签页下出现Hello,描述也是代码里指定的测试
在这里插入图片描述
这个应该是Cherry Studio的Bug?!

API服务器

在这里插入图片描述

调用链

常规设置,启用开发者模式后,将可使用调用链功能查看模型调用过程的数据流。
在这里插入图片描述
底部指出,该功能得到阿里云EDAS的加持。
在这里插入图片描述

应用

点击左上角加号:
在这里插入图片描述

小程序

小程序,其实就是通过H5的形式,把市面上最常见的聊天应用嵌入到Cherry Studio里:
在这里插入图片描述
在这里插入图片描述
新版本这个列表持续新增中,比如美团最新发布的龙猫(LongCat);部分应用需要有代理才能使用,如ChatGPT:
在这里插入图片描述
右上角几个按钮的解读:

  • 在浏览器中打开
  • 添加到启动台,也就是添加到顶部的+按钮里,方便快速找到
    在这里插入图片描述
  • 链接:貌似没啥用
  • 最小化

知识库

新增知识库
在这里插入图片描述
高级设置
在这里插入图片描述
导入文件
在这里插入图片描述
等待预处理、嵌入完成。

测试效果:
在这里插入图片描述
模型回答
在这里插入图片描述
再看看原文
在这里插入图片描述

绘画

模型提供商
在这里插入图片描述
不同的模型供应商,通过的模型不同(废话),提供的能力差别很大:
在这里插入图片描述
注意是付费的。

智能体

系统预置很多不同类别智能体:
在这里插入图片描述
包括:精选、职业、商业、工具、语言、办公、通用、写作、编程、情感、教育、创意、学术、设计、艺术、娱乐、生活、医疗、游戏、翻译、音乐、点评、文案、百科、健康、营销、科学、分析、法律、咨询、金融、旅游、管理。

支持从外部导入,有URL和JSON文件两种:
在这里插入图片描述
URL怎么还有JSON URL?

支持创建智能体,感觉没啥用,当然没有深入使用和调研过:
在这里插入图片描述

翻译

操作示意
在这里插入图片描述
设置
在这里插入图片描述

文件

知识库的文件管理,单独弄一个入口:
在这里插入图片描述
分为文档(PDF,Word等)、图片和文本(TXT,Markdown等)三种类型,支持单个文件编辑、删除,批量删除。

代码工具

在这里插入图片描述
点击【安装Bun】,第一次可能失败,重试解决问题。

新版本会支持更多CLI工具:Qwen Code、Claude Code、Gemini CLI、OpenAI Codex、iFlow CLI。
在这里插入图片描述
选择CLI、模型,设置工作目录后,选择终端(支持Command Prompt、PowerShell、WSL),点击启动。遇到的问题,选择WSL时,会启动一个终端,一闪而过。换成PowerShell后,基于Bun自动安装qwen-code,和npm install qwen-code安装一样:
在这里插入图片描述
安装成功后:
在这里插入图片描述
比如输入分析此目录
在这里插入图片描述
分4个步骤:

  • 列举和分析当前目录(包括子目录)下所有文件
  • 分析每个Python文件的作用
  • 分析子目录及其内容
  • 总结

给出的总结很到位,体验也很顺畅:
在这里插入图片描述
虽然但是!!这和我直接在终端执行命令,并没有任何区别啊;安装方式不同罢了,之前是通过npm安装,现在换成bun安装,多占用宝贵的C盘磁盘空间。
在这里插入图片描述

Logo

更多推荐