长期聚焦飞书开发套件开发、多维表格定制、prompt 定制、智能体设计与自动化工作流构建、ComfyUI 工作流定制,致力于打造真正可用、可复制、可变现的业务系统解决方案。

在这里,持续分享前线实战案例与结构化落地方法,文末还有实用资源推荐,欢迎收藏~

字数 6551 ,52 图,阅读大约需 17 分钟

每一个“转人工”的请求,背后都是一个亟待解决的用户问题,和一份正在流失的客服成本。

与此同时,企业最有价值的知识,却沉睡在海量的飞书文档、产品手册和聊天记录里,难以被传统客服机器人有效利用。

要应对这些挑战,核心在于如何让AI能够理解并运用企业自身的知识。

飞书Aily提供了一套相应的解决方案。它能帮助企业将内外部的动态知识,转化为可靠的智能问答能力,并方便地集成到飞书机器人、服务台或各类客服系统中,有效改善“答非所问”的窘境,提升服务效率。

那么,这套解决方案具体是如何运作,又能解决哪些核心场景的问题呢?下面我们来一探究竟👇

一、方案与场景介绍

简单来说,就是将过去低效、繁琐的人工客服模式,升级为自动化、智能化的AI辅助模式。


✅ Before 传统痛点

❌ 机器人拦截率低: 机器人“傻乎乎”,对用户问题的理解能力弱,用户没有靠机器人解决问题的预期。

❌ 知识维护繁重: 更新服务台的知识库需要多人投入,耗时耗力,且容易出现信息滞后现象。

❌ 操作体验复杂: 繁琐的界面与操作流程拖慢了员工检索知识及响应的速度,操作复杂,影响体验。

❌ 多语言支持瓶颈: 多语言问答仅支持中英,外语人工客服招聘难。


✅ After 优化价值

✔ 机器人拦截率有效提升: 高质量的问答回复效果,降低用户转人工诉求。

✔ 自动化知识维护: 直接连接飞书文档、知识库,即可自动完成问答知识更新,确保信息即时更新。

✔ 可自定义调优,AI 不再“傻乎乎”: 面对不同的问答场景需求,可自定义所需模型并对问题进行针对性调优,为不同场景提供“切实有效”的 AI 智能问答能力。

✔ 多种模型支持多语种: 释放不同模型的多语言能力,一个机器人搞定多种语言交互。


✅ 典型应用场景

  • 服务台/值班号: 利用 AI 的理解能力,快速升级内外部值班号、客服问题,提升满意度,间接支持员工生产力提升。

  • 运营助手: AI 机器人能够 24 小时随时随地为用户解答产品知识,确保用户在任何时间都能获得及时帮助。


一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

二、核心揭秘:RAG 技术详解

aily 智能客服的背后,是先进的 RAG(检索增强生成)技术。


✅ 什么是 RAG?

RAG,即 Retrieval-Augmented Generation(检索增强生成),是一种结合了信息检索系统与生成式模型(LLM)功能的 AI 应用框架。RAG 通过从外部(例如文档、数据库)检索与用户问题有关的信息,并将这些信息作为上下文,与用户查询一起输入到语言模型中,以生成更准确、更符合应用情境的响应或回答。


✅ 为什么需要 RAG?

大语言模型(LLM)因其强大的能力备受青睐,但也面临知识时效性、幻觉问题等挑战。RAG 框架能有效应对这些挑战:

挑战 仅使用 LLM LLM 和 RAG 结合使用
知识时效性 模型推理前已经完成了预训练,无法完成对于最新知识的问答和推理的请求 增加对实时数据的访问,将最新的知识召回并补充到上下文中,从而生成有效的答案
特定知识理解 使用公共领域数据集训练,缺乏对特定场景或组织内知识的理解 通过检索特定领域和组织内的业务知识,使 LLM 能够理解特定的问题,并基于专有知识生成有用的答案
知识可靠性 生成过程中无法显示答案对应的参考来源,用户无法判断生成结果是否存在幻觉问题 使用检索到的知识作答时,可以要求 LLM 在输出答案时同时显示参考来源,增强回答的可靠性
基于大规模知识推理 不同的模型支持的上下文长度和长上下文理解能力有差异,无法将完整参考信息直接放入上下文中供生成使用。 通过对知识和数据切片和高质量的召回,LLM 只需要使用召回的最相关知识作答,避免过长上下文的干扰

✅ RAG 的基本流程

在一个基本的 RAG 框架中,有三个核心步骤:

步骤一:检索 → 以用户的请求查询外部信息源,通过不同的检索和排序技术获取与用户请求最相关的信息。

步骤二:增强 → 将检索到的信息、用户的请求、提示词模板(prompt)等拼装成符合 LLM 格式的完整提示词。

步骤三:生成 → 将完整提示词传递给 LLM,根据用户请求生成响应。


例如,在一个 AI 产品客服场景中,当用户询问“如何修改账号信息”时,由于 LLM 预训练中不包含该产品特有的知识,系统会使用该问题在该产品的帮助手册中进行检索,通过匹配关键词(全文检索)和匹配语义相似度(向量检索)的方式找到最相关的知识片段。这些知识片段与答案生成的指令整合后,发送给 LLM,来生成该问题的答案。

三、快速搭建智能客服应用

搭建应用前,需要明确两个问题:知识的来源、知识的类型,以及客服问答中预期的回答要求。


✅ 第一步:明确知识来源

  • 问答机器人迁移: 如果在过往已经搭建过并且有在运营中的问答机器人,一般都已经收集和整理了大量常见问题的标准问答对(FAQ),可以作为初步的知识来源导入到 Aily 知识问答中。
  • 知识文档导入: 同时,也可以将更多相关的帮助手册、说明文档作为知识导入,RAG 框架以及 LLM 对自然语言的理解和推理能力,能够更好地对长尾问题进行推理和回答,降低知识维护的成本。

✅ 第二步:明确客服问答期望

在搭建过程中,需要明确所期望的问答生成结果有哪些要求,

例如:

› “我需要服务台能够根据用户问题的语言回复,并显示引用了哪些文档,同时标明回答是 AI 生成”

› “智能客服最好能够用较为友好的语气回答,并且输出一些 emoji”

› “每次的输出必须长且详细”


✅ 第三步:知识问答 - 搭建步骤

当明确了知识来源和问答期望后,我们就可以开始在 Aily 上搭建应用了。


  • 创建问答应用 首先进入 Aily 平台首页 aily.feishu.cn,点击「创建应用」,并选择「知识问答」模式创建应用。


  • 添加知识来源 你可以在应用对话设置的首页,或在知识问答模块下管理知识来源。


• 添加飞书云文档: 你可以选择两种模式。直连,它能定期自动与云文档同步更新,但无法展示图片,且权限遵循文档本身;或是 导入,这是一种高级切片模式,支持检索文本、表格、图片等内容,但权限需在 Aily 中重新分配。操作时,在「添加数据」中选择「飞书云文档」,根据需要选择「仅接入当前文档」或「文档及子节点」,再选择模式。


• 添加本地文档: 也可以选择本地文档上传,系统会智能切片解析文档中的文本、图片、表格等内容,供回答生成时使用。


• 配置常用问答对 (FAQ): 你可以将问答对保存在飞书云文档中导入,也可以逐条添加。操作时,在「标准问答库」中添加「相似问题」和标准答案。在管理页面右上角,可开启或关闭 「标准问答对拦截」 开关。开启后,会优先匹配并直接回答 FAQ;关闭或未匹配成功,FAQ 也会作为普通知识被召回。


  • 配置问答规则

• 调整回答预期、长度、语言: 在「全局规则」中,可调整「结果生成指令」(约束语气、格式等),「配置模型」(选择合适的 LLM),以及「语言和长度」(明确输出语言和详略)。


• 添加 AI 生成提示: 如果需要,可以开启此项,并用 Markdown 格式编辑每次 AI 回复时附加的声明文本,如“本答案由AI生成”。


• 配置拒答话术: 当 AI 无法回答时,你可以在「对话」主页的「备用回复设置」中编辑兜底回复内容,此设置支持双语。


  • 配置结构化数据问答 Aily 也支持进行基础的结构化数据问答。

• 导入结构化数据: 在「数据与知识」中导入在线或本地表格。对于 Doubao-32K 模型,使用「普通模式」能更好保证效果。(注:目前已不支持 MySQL、Clickhouse 等外部数据源添加。)


• 对数据表进行配置

– 导入后,为数据表和各字段填写简洁清晰的描述,或使用 AI 智能生成描述,以帮助模型理解。


– 或使用 AI 智能生成描述,以帮助模型理解。


• 补充数据分析规则: 在「规则中心」的「数据分析配置」模块下,可开启数据分析功能、是否生成数据洞察,以及补充 SQL 生成规则等。

好了,到这里我们就完成了一个智能客服应用的初始配置。

四、智能客服应用的调优与运营

应用初步搭建完成后,需要根据业务场景和需求,进行评测和针对性地优化。整个过程可以分为三步:

→ 明确目标: 首先要明确上线的目标,例如拦截正确率达到85%以上。

→ 批量评测: 其次对问答进行批量评测,以分析问题。

→ 持续调优: 最后批量进行调优,达到目标后发布应用。


✅ 第一步:效果评测


  • 评测的重要性

对于一个基于LLM的应用,「单条手动测试-发现问题-优化-进一步测试」的循环难以帮助开发者验证整体效果。考虑到知识的完整性、生成式AI的特性、模型的推理能力、指令遵循能力等多种因素,RAG框架+LLM的应用通常都会制定一个明确的上线目标(如拦截率或正确率),通过小批量数据进行批量评测和打分,从而评估整体效果。Aily的评测模块正是为此而生。


  • 启动评测

→ 收集评测集: 根据目标场景收集问题,这些问题可以从知识库人工设计,也可以从已有的问答机器人等其他系统收集常见问题。


→ 创建评测集: 在「评测」模块中,通过上传一个Excel文件导入问题。文件中只需要一个数据列「Query」。


→ 开启评测: 在评测集详情页点击「开启评测」,选择「知识问答」和「开发环境」。系统会在后台执行任务,执行完成后会发送系统提示,你也可以直接在「评测日志」中查看。


  • 导出分析

评测任务完成后,点击「评测日志」,导出本次评测结果。建议将结果导入到多维表格中,按需进行人工评估和打分,统计问题类型。


✅ 第二步:使用调优台进行优化


  • 调优台的作用

大模型的输出具有不确定性。为此,Aily平台提供了一套运行可视化与多阶段可调优的工具,帮助应用管理者更精准地调整和优化AI的行为。在「结果调优」工具中,用户可以观察到AI的执行步骤,检查各个步骤的结果是否符合预期,并在不符合预期时应用调优手段进行干预。


  • 调优台步骤详解 从评测结果中找到不满意的例子,在对话中输入该问题,然后点击回答下方的「结果调优」即可进入。


→ 意图识别和召回: 此处展示「术语」和「问题改写」的结果。术语是作为额外补充的上下文,供LLM学习如何回答特定概念;问题改写则是在多轮对话中,为AI补充用户问题中省略的名词或指代。


→ 数据检索和处理(非结构化): 此处展示本轮对话的查询方式、知识检索参数(如召回片段数,调高可增加完整性,调低可要求更相关)、以及具体召回的文档和知识片段详情。注:召回阈值目前已不支持配置,由模型自动判断。


→ 数据查询和处理(结构化): 当命中「数据分析」时,此处展示检索到的数据表和生成的SQL语句。注:Doubao 32K目前仅支持单表且一组SQL可完成的查询。


一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

→ 生成结果与保存用例: 查看AI最终输出的完整结果,并可将优化后的案例保存为调优用例。


  • 按需调优实战

→ 问题:知识存在,但未被召回?


• 参数调整: 在「数据检索和处理」中「去调整全局参数」,增加「召回的数量」。例如Aily平台提供的Doubao-32K模型,可以满足配置到最大切片数量20个。

查看当前的召回数量

在调优台进行修改

调高切片数量增加完整性

重新运行后得到结果


• 直连文档召回测试: 该方法仅在用户对云文档有导入权限时可用。将被怀疑未召回的文档用“导入”模式添加,看能否召回,以判断是否为直连或权限问题。

选择应召回但未召回的文档

选择导入模式添加文档

在对应的文档内进行检索

查看是否能够正确召回


• 添加常用问答对: 如果确认知识已添加但仍未出现,则补充为FAQ,同时也可以补充一些相似问题。

在调试界面中选择提取标准答案

补充FAQ和常见问题

重新提问,召回的FAQ作为正确知识片段


→ 问题:知识已召回,但回答错误或拒答?


• 检查知识片段: 查看被召回的错误片段是否包含了错误的知识。


• 补充术语: 为公司黑话、专有名词添加解释,指导AI正确回答。补充「术语」和补充「知识」不同:术语主要用于指导AI如何回答特定名词或实体(如规避或详述),而知识是事实描述本身。

在调优台中选择补充术语

添加术语并开启

查看术语召回和回答的效果


• 调整指令: 根据需要,在结果生成指令中补充更详细的规则,例如:“希望事实类问题能尽量选用一个知识片段,而流程性问题可以综合分析;希望回答时能够保留原有的图片和链接;希望能够对用户的负面情绪进行安抚”等等。


→ 最后,如果答案仍然不对? 此时可以通过「提取标准答案」,并修正标准答案来解决,还可以通过「智能生成相关问题」扩展更多相似问来提升匹配。但理论上,不推荐一开始就用标准问答对解决所有问题,因为它解决问题相对单点,而调整知识或指令可能对更大范围产生影响,且标准问答对的维护有额外成本。推荐只维护一些关键的、高频的问题。


✅ 第三步:持续运营


  • 发布应用上线 完成调优并达成预期效果后,点击「发布应用」,完成渠道配置。注意,要为用户配置相应知识的访问权限(尤其是本地导入的文档)。

点击「发布应用」

选择渠道等配置项

针对飞书机器人的群聊配置


注意,要为用户配置相应知识的访问权限(尤其是本地导入的文档)。


  • 维护评测集 定期评测,并通过运行日志收集更多线上真实的用户问答,补充到评测集中。


  • 维护知识 直连的飞书云文档会自动定时更新。本地或导入的文档知识需定期维护。

  • 自动生成 FAQ 定期使用 Aily 的聚类功能,在「标准问答库」中「智能生成问答对」,将高频问题快速转化为新的标准问答。

在「知识问答」-「标准问答库」中选择「智能生成问答对」

根据系统提供的模板导入想要聚类的问答对

等待生成后,检查生成结果,选择需要导入的问答对

确认添加问答对


四、不止于问答,更是智能服务闭环

总的来说,这篇文章详细拆解了利用Aily搭建、调优及运营一个高质量智能客服的全过程,其核心价值体现在以下几个方面:

✅ 精准回答的核心:RAG架构 其根本是先进的RAG(检索增强生成)架构,它让AI能够真正学习并运用企业的专属知识库(如飞书文档、表格),摆脱了通用模型的知识局限与“幻觉”问题,确保每一个回答都有据可循,精准可靠。

✅ 系统化的调优闭环 文章展示了从“搭建”到“上线”并非一步之遥,关键在于一套科学的优化流程。Aily不仅提供了便捷的应用搭建,更提供了一套从批量评测到精细化“调优台”的完整工具链,让优化过程不再是“玄学”,而是有据可依的工程实践。

✅ 低成本的持续运营 通过自动化知识同步(连接飞书云文档)和智能FAQ生成等功能,极大地降低了知识库的长期维护成本。这使得智能客服能够真正地“活”起来,随着企业知识的更新而持续迭代、不断进化。

最终,它交付的不仅是一个聊天工具,而是一套让企业能自主掌控、效果可衡量、并能持续优化的智能服务能力。

五、如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

为武汉地区的开发者提供学习、交流和合作的平台。社区聚集了众多技术爱好者和专业人士,涵盖了多个领域,包括人工智能、大数据、云计算、区块链等。社区定期举办技术分享、培训和活动,为开发者提供更多的学习和交流机会。

更多推荐