还在为低效编程头疼?AI 编程工具正改变开发节奏。我用 RAGflow搭建了个人专属知识库,通过MCP实现AI编程工具和个人专属知识库链接,半天就打造出专属 AI 编程助手,轻松告别繁琐检索,效率飙升,这就给大家分享秘诀。
在这里插入图片描述

在本篇文章中,将讨论以下几个问题:

• 如何部署RAGflow服务,并开启MCP服务
• 开发RAGFlow知识库检索MCP服务
• 安装AI编程助手(continue),接入RAGFlow MCP服务
• RAGflow+MCP效果评测

1. 部署RAGflow,开启MCP服务

1.1 前提条件

硬件配置要求
• CPU >= 4 核
• RAM >= 16 GB
• Disk >= 50 GB
软件配置要求


# 安装uvx
pip install uvx  
# 查看uvx版本
uvx --versio
# 输出: uvx 0.7.21 (77c771c7f 2025-07-14)

# 安装docker desktop,参考https://docs.docker.com/desktop/,根据系统差异选择
# 查看docker desktop版本
docker --version
# 输出: Docker version 28.1.1, build 4eba377

1.2 部署RAGFlow

启动服务器


# 克隆仓库
git clone https://github.com/infiniflow/ragflow.git

# 进入 docker 文件夹,利用提前编译好的 Docker 镜像启动服务器
cd ragflow/docker

# Use CPU for embedding and DeepDoc tasks:
docker compose -f docker-compose.yml up -d
# To use GPU to accelerate embedding and DeepDoc tasks:
# docker compose -f docker-compose-gpu.yml up -d

# 服务器启动成功后再次确认服务器状态
docker logs -f ragflow-server

出现以下界面提示说明服务器启动成功:
在这里插入图片描述
添加模型
在这里插入图片描述
这里选择的是硅基流动平台的模型,可从网址https://cloud.siliconflow.cn注册、获取API Key,也可以从魔塔社区、阿里云百炼等平台获取。
在这里插入图片描述
创建知识库
在这里插入图片描述

1.3 获取RAGFlow的BASE-URL和API Key

分别点击下图中的步骤1~步骤3, 获取RAGFlow的BASE-URL(对应步骤3中的API服务器)和API Key,为开启MCP Server作准备
在这里插入图片描述

1.4 开启MCP服务

代码默认MCP server是不生效的,需要进行配置。 要启用它,先找到docker/docker-compose.yml文件,取消注释services.ragflow.command部分。其中的- --mcp-host-api-key=ragflow-xxxxx,即前文获取的API Key
在这里插入图片描述


# 先关闭已启动的服务
docker compose down 

# 重启修改配置后的服务
docker compose -f docker-compose.yml up -d

2. 开发RAGFlow知识库检索MCP服务

2.1 开发RAGFlow知识库检索MCP服务

创建 RAGFlow MCP Server 项目


uvx create-mcp-server --path ragflow-mcp-server-continue --name ragflow-mcp-server-continue --version 0.1.0 --description "RAGFlow MCP Server Continue" --no-claudeapp

cd ragflow-mcp-server-continue
uv sync --dev --all-extras
uv add ragflow-sdk

开发的MCP Server功能

  • list_datasets
    • 列出所有数据集
    • 返回数据集的 ID 和名称
  • create_chat
    • 创建一个新的聊天助手
    • 输入:
      • name: 聊天助手的名称
      • dataset_id: 数据集的 ID
    • 返回创建的聊天助手的 ID、名称和会话 ID
  • chat
    • 与聊天助手进行对话
    • 输入:
      • session_id: 聊天助手的会话 ID
      • question: 提问内容
    • 返回聊天助手的回答
  • retrieve
    • 检索相关信息
    • 输入:
      • dataset_ids: 数据集的 ID
      • question: 提问内容
    • 返回从知识库检索到的内容
      在这里插入图片描述
      源码链接:https://github.com/AITech-Team/ragflow-mcp-server-continue

构建 & 发布
同步依赖并更新锁定文件

uv sync

构建软件包分发文件

uv build

发布软件包到 PyPI

uv publish

发布软件包到PyPI注意事项
• 注册账号 https://pypi.org/
• 添加2FA与身份验证应用程序


import pyotp
key = 'SC5GNDMEV2FPHHLZQW7IZ6UCFXFBNBVI' # 二维下方的一串字符串密钥
totp = pyotp.TOTP(key)
print(totp.now()) # 输出内容输入到下方的验证申请

在这里插入图片描述
• 生成API Token,输入对应的用户名和密码
在这里插入图片描述
• 软件包发布成功
在这里插入图片描述

关于如何上传python包到pypi,推荐阅读
1.pypi 上传python包
2.python项目模块打包本地发布并上传到到PyPI官网(最清楚,最详细)

3. 安装AI编程助手(continue),接入RAGFlow MCP服务

关于AI编程助手的更多介绍,可前往阅读前期文章程序员必备的 14 款 AI 编程助手,有几个你还没用过?

3.1 VS Code安装AI编程助手(continue)

点击VS Code中的Extensions, 在搜索框中输入continue,并点击右侧的install(图中是系统已经安装了,显示为uninstall)。
在这里插入图片描述

3.2 continue配置MCP server yaml文件

按图中显示的步骤顺序添加RAGFlow MCP服务
在这里插入图片描述
配置文件内容如下:


name: RAGFlow MCP Server Continue
version: 0.1.0
schema: v1
mcpServers:
  - name: RAGFlow MCP Server Continue
    command: uvx
    args:
      - ragflow-mcp-server-continue@0.3.3 #@0.3.3对应软件包的版本号
      - --api-key
      - ragflow-UzODQ0YjcwNjY5YjExZjA4YjY5OTYxOW
      - --base-url
      - http://127.0.0.1:9380
    connectionTimeout: 800000 # 避免网路延迟对软件包加载影响

添加完配置后,当看到continue的MCP选项下的MCP服务状态显示为绿色、功能显示与开发的一致,说明MCP Server已经加载成功。

在这里插入图片描述
距离成功配置MCP Server还差最后一步了,点击Tools选项,打开Built-In按钮
在这里插入图片描述
同时,打开提供的MCP服务,根据自身需求选择对应的服务功能
在这里插入图片描述
接下来,可以在continue对话窗口愉快的进行知识问题、代码编写啦!注意哦,这里的模型上下文可以直接从刚刚搭建的知识库获取。

4. RAGflow+MCP效果评测

4.1根据知识库检索内容,生成代码

提示词内容

# 你是一位研发专家,需要根据用户的文字描述用C语言编写代码模块,代码应满足以下要求:
 - 对于行业相关的知识,优先从知识库中获取,并将获取的内容作为模型上下文使用
 - 不需要写main()函数模块
 - 代码尽量采用位运算
 - 编写过程要符合代码编写规范,包括代码编写风格、常用的函数库调用
 - 编写的c代码文件放在test_continue目录下

## 用户需求如下:
 - 功能:通过I2C协议访问芯片温度寄存器地址,读取原始寄存器数据,按照芯片要求的格式解析将数据转换为十进制。
 - 输入:从知识库中获取EMC1413规格书,根据手册中的7.2章节获取三组温度寄存器中读取温度的整数位和小数位,生成温度信息。
 - 输出:EMC1413获取温度接口函数。参考附件中以下函数定义:  int emc1413_get_data(u8 bus, u8 slave

代码生成如下:

在这里插入图片描述

具体的回答效果,建议各位老板在自己的知识库下尝试。

多唠叨一句,continue只有在Agent模式下才能提供MCP服务,还需要模型支持Agent调用,示例中使用的是Google Gemini 2.0 Flash,API Key申请链接 https://aistudio.google.com/app/apikey

以上是通过本地知识库提升AI编程工具continue检索效率的全流程,希望为广大研发人员提供便利。

推荐阅读
程序员必备的 14 款 AI 编程助手,有几个你还没用过?

GPT-5 震撼发布:要点速览

用两天搭出GitHub智能搜索工具:从构思到实现

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐