logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型 RAG 技术深度解析:原理架构、通俗解读与实战代码(大模型应用开发)

摘要:检索增强生成(RAG)技术通过结合外部知识检索与大模型生成能力,有效解决了原生大模型的三大痛点:知识幻觉、实时性差和领域知识薄弱。本文系统性地介绍了RAG的技术原理与标准架构,包括离线知识库构建(文档加载、文本分块、向量化存储)和在线问答生成(语义检索、提示词拼接、答案生成)两大核心流程。同时提供了基于LangChain+FAISS的工业级Python实现代码,涵盖从文档处理到最终问答的完整

文章图片
#架构#pytorch#人工智能 +3
深度学习Softmax激活函数详解

Softmax激活函数在多分类任务中的应用 摘要:Softmax是深度学习多分类任务的核心激活函数,可将神经网络输出的原始分数转换为概率分布。本文介绍了Softmax的基本原理、数学公式和数值稳定性优化方法,并提供了NumPy、PyTorch和TensorFlow三种实现方式。通过数值示例和代码演示,展示了Softmax如何将模型输出转换为直观的概率值,同时保持类别间的相对顺序。文章还特别强调了实

文章图片
#深度学习#人工智能#神经网络 +2
深度学习ReLU激活函数详解(新手友好,附实战代码)

深度学习中的ReLU激活函数因其简单高效而广受欢迎。本文从新手角度详细解析ReLU的核心原理、数学公式和关键特性,重点介绍其在神经网络中的实际应用。文章包含常见问题解决方案(如死亡ReLU问题),并提供NumPy、PyTorch和TensorFlow/Keras的多框架实现代码,以及一个完整的神经网络实战案例。ReLU通过"留正去负"的简单逻辑,有效解决线性模型的局限性,同时避

文章图片
#深度学习#人工智能#神经网络 +1
基于 LLM 的金融文本分类实战:In-Context Learning 少样本落地(Qwen2.5+Ollama)

本文提出一种基于大语言模型(LLM)的金融文本分类方法,利用In-ContextLearning(ICL)技术实现零微调、少样本的文本分类。通过精心设计的Prompt工程和Qwen2.5-7B本地模型部署,该方法能快速准确地将金融文本分为新闻报道、公司公告、财务报告和分析师报告四类。相比传统需要大量标注数据的分类方案,该方法开发效率提升90%,且支持本地部署保障数据安全。实验结果表明分类准确率达1

文章图片
#人工智能#机器学习#金融 +1
LangChain详解:大模型应用开发框架(通俗理解+专业解析+Python实战)

摘要:LangChain是一个开源的大模型应用开发框架,通过组件化设计解决大模型在记忆、工具调用和任务编排上的痛点。它将大模型与外部资源(如文档、工具、数据库)无缝连接,使开发者能快速构建复杂LLM应用。核心组件包括Models(模型接口)、Prompts(指令模板)、Chains(任务流程)、Memory(对话记忆)、Tools(外部工具)和Agents(自主决策)。本文结合生活化类比和专业解析

文章图片
#python#开发语言#人工智能
LoRA详解:大模型参数高效微调(PEFT)核心方案(原理+数学推导+PyTorch实战)(大模型应用开发)

LoRA技术摘要 LoRA(低秩适配)是大模型参数高效微调(PEFT)的核心方案,通过低秩矩阵分解解决传统微调面临的三大痛点:1)全量微调显存爆炸问题;2)Adapter推理延迟问题;3)Prompt Tuning效果不足问题。其核心原理是利用预训练权重更新的低秩特性,冻结原模型参数,仅注入可训练的低秩矩阵对(AB),实现仅调整0.1%-1%参数就能达到接近全量微调的效果。 关键技术特点包括: 数

#pytorch#人工智能#python +1
到底了