
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
让 AI 生成数据库操作封装(db_core.py让 AI 生成对话交互脚本(db_chat.py运行脚本,直接用自然语言输入需求,自动执行。关键优势:无需懂 SQL、无需写代码,非技术人员也能操作本地数据库;借助 Cursor 的 MCP 协议,所有操作都在本地完成,数据安全无泄露;AI 自动适配需求,支持从简单增删改查到复杂统计查询。
RAG 是 “临时借知识”:每次回答都要查知识库;RAFT 是 “永久存知识”:把知识装进大模型里,之后不用再查。
步骤大白话解释关键作用拆文本单元把文档切成小片段(TextUnit),比如每 200 字一段细粒度分析,方便后续提引用提知识图谱用 LLM 从片段里抠 “实体”(比如曹操、关羽)和 “关系”(比如曹操 - 结拜 - 关羽),还有 “主张”(比如 “曹操统一了北方”)把文字变成结构化的 “关系网”,是 GraphRAG 的核心社区聚类用 Leiden 算法把相关实体归成 “社区”(比如 “三国曹魏集
基于实现的功能完整的 RAG(检索增强生成)系统,包含文档加载、索引构建、检索、增强生成、对话记忆等核心功能,同时适配本地 / 开源 LLM(如 Llama 3)和云端 LLM(如 OpenAI)。
本质是客户端与服务端完成单次请求 - 响应后,立即关闭 TCP 连接。流程:建立 TCP 连接 → 发送请求 → 接收响应 → 关闭连接。典型场景:HTTP 1.0 协议、简单数据查询(如单次接口请求)。本质是浏览器存储的小型文本数据,由服务端通过 HTTP 响应头下发。核心作用是携带身份标识(如 Session ID)、保存用户偏好(如语言设置)。特点:存储在客户端(浏览器)、容量有限(约 4K
提示词工程(Prompt Engineering)在与大语言模型(LLM)交互时,可能遇到多种问题,这些问题本质上与模型的训练逻辑、输入解析方式及安全边界有关。
核心结论:MCP 是 “万能接口 + 资源调度员”,RAG 是 “AI 专属搜索引擎”,Agent 是 “自主办事员”,三者常搭配解决复杂问题。
RAG 是 Retrieval-Augmented Generation 的缩写,本质是 “检索 + 生成” 的协同架构。核心逻辑:大模型生成答案前,先从外部知识库中检索与问题相关的精准信息,再基于这些信息生成最终回复。核心价值:解决大模型 “知识固定(训练数据截止到某一时间)”“无法访问私有数据”“易产生幻觉” 三大痛点。这套方案从零到一落地 RAG 仅需 3 步,无需复杂部署,适合快速验证场景
先说核心结论:CPU 是 “全能管家” 管统筹,GPU 是 “流水线工人军团” 干重活,AI 大模型训练和快速响应靠 GPU,系统运转和协调靠 CPU,二者配合才能让大模型跑起来。
给 AI 设定「固定规则」,让其在所有项目中遵循统一的编码规范、技术栈偏好、输出格式,避免重复沟通,生成的代码直接符合你的需求。「代码库索引 + 外部文档知识库」解决 “AI 不懂你的项目 / 业务”;「AI 审查重构 + 自定义 Rules」解决 “代码质量低、不规范”;「隐私模式」解决 “敏感代码不敢用 AI”;「模型选择」解决 “不同场景适配不同 AI 能力”;「MCP 服务器」解决 “AI







