logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LangChain 1.x 入门指南:从智能体到实战案例

LangChain1.x大模型应用开发实战指南 摘要: 本文系统介绍了LangChain1.x框架的核心功能与开发实践。作为当前最流行的大模型应用开发框架,LangChain1.x通过智能体架构、统一API和LangGraph底层支持,显著降低了开发门槛。文章详细解析了智能体的核心组件(大模型、规划能力、工具调用等),对比了主流智能体框架特点,并重点演示了LangChain1.x的四大改进:底层架

文章图片
#RAG#人工智能
多模态RAG实战:从表格到音视频的全链路落地指南

本文针对多模态RAG系统落地难题,提出一套结构化处理方案:数字表格建议转SQL查询,文本表格转为问答对;半结构化文档需实体抽取配合元数据检索;图片根据数量选择OCR或多模态嵌入;音频需分类处理(ASR转文字/元数据检索/分类标签);视频采用多路召回策略(关键帧/ASR/OCR/元数据)。核心观点是:模型效果取决于数据预处理质量,需针对不同模态采取差异化处理策略

#RAG#自然语言处理
从基础RAG到智能体RAG:大模型信息检索的进化之路

RAG技术演进全貌:从基础到智能体的发展路径 摘要: RAG(检索增强生成)技术解决了大模型的时效性、幻觉等问题。其演进经历了五个阶段:基础RAG实现检索-生成流程;高级RAG通过检索前中后优化提升效果;模块化RAG引入编排层增加灵活性;基于知识图谱的RAG实现全局理解;智能体RAG形成"搜索-阅读-推理"闭环。技术选型需考虑场景复杂度:简单问答用基础RAG,专业领域用高级RA

文章图片
#人工智能#算法#RAG +1
从“踩坑”到“可控”:大模型 Prompt 工程实战总结与进阶方法论

《金融领域Prompt精准设计指南》摘要 本文基于真实金融项目实践,总结出提升Prompt稳定性的核心方法论。针对文本分类、实体抽取和语义匹配三大任务,提出四大设计支柱:边界明确、示例驱动、约束完整和可解析性。通过案例展示了从初始错误到稳定输出的五步演进过程,强调Few-shot示例、格式控制和批量处理的重要性。关键技巧包括:用符号包裹输出、禁止多余字符、处理缺失值,以及通过检查清单确保输入输出边

#大数据#人工智能
主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型演进历程:从GPT-1的单向生成到ChatGPT的人类价值对齐。OpenAI通过四年技术迭代,最终在GPT-3基础上引入RLHF(人类反馈强化学习),使ChatGPT具备更符合人类预期的对话能力。核心技术包括:Transformer架构、SparseAttention、Few-shot学习等。主流开源大模型方面,Meta的LLaMA、阿里的Qwen、清华的ChatGLM和深度求索的D

文章图片
从“计数”到“对话”:一文读懂语言模型与大语言模型 (LLM)

本文系统梳理了语言模型的发展历程与评估方法。语言模型从早期的N-gram统计模型,到神经网络模型,再到基于Transformer的预训练模型(BERT、GPT、T5),最终发展为千亿参数的大语言模型(LLM)。评估指标包括困惑度(PPL)、BLEU、ROUGE等。当前主流LLM多采用Decoder-Only架构(如GPT),因其训练高效、推理优化且表达能力突出。三大架构中,BERT擅长理解,GPT

文章图片
#语言模型#人工智能#自然语言处理 +1
一篇文章搞懂模型压缩、量化、蒸馏、剪枝

模型压缩技术综述:让大模型"瘦身"运行 本文系统介绍了三种主流模型压缩技术:量化、知识蒸馏和剪枝。量化通过降低数值精度(如FP32转INT8),在BERT模型上实现了62.8%的体积缩减和82.4%的速度提升;知识蒸馏采用"教师-学生"模式,将BERT的知识迁移到BiLSTM,使学生模型体积缩减至26.7%而精度仅下降2.39%;剪枝则通过删除冗余权重,以约

文章图片
#剪枝#人工智能#算法
一篇文章搞懂模型压缩、量化、蒸馏、剪枝

模型压缩技术综述:让大模型"瘦身"运行 本文系统介绍了三种主流模型压缩技术:量化、知识蒸馏和剪枝。量化通过降低数值精度(如FP32转INT8),在BERT模型上实现了62.8%的体积缩减和82.4%的速度提升;知识蒸馏采用"教师-学生"模式,将BERT的知识迁移到BiLSTM,使学生模型体积缩减至26.7%而精度仅下降2.39%;剪枝则通过删除冗余权重,以约

文章图片
#剪枝#人工智能#算法
基于TF_IDF和Bagging的文本分类全过程

1.基于随机森林的基线模型,该模型以其可解释性强、性能稳定的特点为项目落地奠定基础2.从数据处理到模型构建、训练、评估、部署、前端测试等完成了整个落地流程

文章图片
#随机森林#算法#机器学习
NLP之迁移学习

本文系统介绍了基于 HuggingFace Transformers 库的预训练模型应用方法,涵盖迁移学习、预训练模型和微调三大核心概念,并通过六大典型 NLP 任务(文本分类、特征抽取、完形填空、阅读理解、文本摘要、命名实体识别)展示 Pipeline 和 AutoModel 两种应用方式。核心发现:Pipeline 方式代码极简,适合快速验证;AutoModel 方式灵活可控,适合生产环境定制

文章图片
#迁移学习#自然语言处理#深度学习 +2
    共 21 条
  • 1
  • 2
  • 3
  • 请选择