
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
经典RAG工作流程解析 RAG(检索增强生成)系统通过整合语言模型和信息检索技术,实现了更精准的文本生成。其核心包含三个组件:1)预训练语言模型提供基础理解能力;2)向量数据库将文本转化为语义向量,支持高效检索;3)用户查询触发系统响应流程。工作流程分为三个阶段:检索阶段通过语义匹配查找相关文档,增强阶段将检索结果与用户查询结合,生成阶段由语言模型输出最终回答。RAG系统特别适用于需要实时更新和专

写这篇文章的原因是大概在两周前,我看完了卡帕西三个半小时在油管上课程。他用简单的语言,讲明白了大模型从无到有的建立。其中他还罗列了非常多好用的网站工具,例如可视化的动画工具理解Transformer架构。如果从英语为母语的人的角度去看这个课程肯定是非常非常简单,但是作为一个非母语,而且英语又没有那么好的人,看看这个视频还是有点费劲的。我看完这个视频后,又花了几天时间,点开了他课程里所有的链接、看了

LoRA是一种高效微调大模型的技术,通过冻结预训练模型参数并引入低秩矩阵进行增量调整。它只训练两个低秩矩阵(A和B)来代替全参数微调,显著降低计算和存储成本。矩阵秩反映了信息独立性,LoRA利用低秩特性(r远小于原维度)实现参数高效适配。这种方法既保留了大模型的通用能力,又能快速适应新任务,成为当前主流的模型微调方案。
人工智能(AI)技术中的机器学习、深度学习和大模型是相互关联的概念。机器学习是获取模型的一种方法,而深度学习是机器学习的一个子集,专注于使用深度神经网络进行建模。大模型,如语言或图像大模型,通常基于深度学习技术构建。在实际应用中,大模型可以直接解决某些问题,但在其他情况下,可能需要调整模型参数或选择更适合的机器学习方法。重要的是,选择AI技术时应考虑其与业务需求的匹配度,而不是盲目追求大模型技术。
为了让大家把所学变成应用,“他”来了,一个零代码经验也可以搭建一个可用的大模型知识库,他来了,注意了,是零代码+可用,零代码+可用,零代码+可用......(重要的事情说三遍)通过学习能得到什么?可以得到一个简单的应用可以更深入了解大模型知识库的工作流大家有兴趣,可以跳到文末先看效果重要的工具我们先来看下今天这个小项目需要的概念和工具: Dify:Dify是一个开源的大语言模型(LLM)应用开发平

大型语言模型(LLM)是一种能够理解和生成人类语言的人工智能模型,通常包含数百亿参数,通过海量文本数据训练获得深层次语言理解能力。LLM能够执行多种任务,如回答问题、创作文本等。模型命名通常反映其架构、版本、参数规模或功能特性,如DeepSeek-V3、通义千问2.5-VL-32B等。LLM的核心概念包括Token(文本处理的最小单位)、参数(神经网络中的权重和偏置)、蒸馏(将大型模型压缩为小型模

超参数调优是机器学习中提升模型性能的关键步骤,涉及选择最佳的超参数组合。超参数是在模型训练前手动设置的,不同于通过数据学习得到的参数。常见的调优方法包括网格搜索、随机搜索和贝叶斯优化。网格搜索通过遍历所有可能的超参数组合来找到最佳配置,计算开销大但简单易实现。随机搜索则从超参数空间中随机选择组合,计算成本较低但可能错过最优解。贝叶斯优化利用贝叶斯定理和高斯过程,智能选择超参数组合,适合计算资源有限

近期 OpenAI 发布了《A Practical Guide to Building Agents》电子书[1],随后 Langchain 负责人驳斥了电子书中的一些观点,在官方博客发布了《How to think about agent frameworks》[2]。在一次夜聊中,受到同事亦盏的启发:新兴技术领域往往会经历事实标准的争夺,是模型往上,还是编排框架向下,时间才能给出答案,但作为行

文章介绍了智能体(Agent)及其相关技术概念。智能体是能独立行动以实现特定目标的AI实体,如AI面试官,但存在准确性问题和幻觉现象。多智能体系统(Multi-Agent System)通过多个智能体协作提高效率,如智能交通系统。RAG(Retrieval-Augmented Generation)通过检索外部知识库信息生成更准确的回答,适用于智能客服等场景。工作流(WorkFlow)通过固定任务

本文深入解析了RAG(检索增强生成)技术中的五种文档分块策略: 固定大小分块:简单高效但可能破坏语义完整性 语义分块:基于内容相关性划分,保持语义连贯性 递归分块:分层处理文档结构,兼顾灵活性与语义保持 基于文档结构分块:利用文档固有逻辑结构划分 LLM分块:借助大模型智能判断最佳分割点 文章通过LlamaIndex代码演示了各策略的实现方法,并对比分析了RAGFlow/Dify等框架的分块实践。
