
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
【AI大模型学习指南】 零基础入门建议: 从应用层入手:先体验现成大模型(如ChatGPT),理解其功能边界 掌握基础概念:重点学习Transformer架构、预训练/微调范式、Prompt工程 实践路径: Stage1:使用API开发简单应用 Stage2:基于开源模型(如LLaMA)做微调 Stage3:学习分布式训练等进阶技术 学习资源包内容: 精选开源项目清单(含医疗/金融等垂直领域模型)

本文探讨了大模型后训练技术,包括微调(SFT)和对齐(Alignment)方法,重点分析了强化学习(RLHF)在模型对齐中的应用。文章比较了全量微调与参数高效微调(PEFT)的区别,详细介绍了LoRA等优化技术,并对PPO、DPO等强化学习算法进行了对比。通过DeepSeek R1案例展示了后训练实践,强调SFT与RL结合的重要性。研究表明,随着模型规模增大,后训练阶段可能成为提升性能的关键突破口

2025年必学:RAG技术从入门到精通,GraphRAG到多模态智能体全解析(建议收藏)

微调是指在大规模预训练模型的基础上,使用特定领域或任务的数据对模型参数进行进一步调整,使其适应新的任务需求。例如,用医疗数据微调通用语言模型,使其擅长回答医学问题。

SFT(Supervised Fine-Tuning)是监督微调的缩写,主要用于计算机科学领域,特指在预训练模型(如大语言模型)基础上,通过少量标注数据调整模型参数,使其适应特定任务的技术。

本文解析了AI领域中智能体(Agent)与工作流(Workflow)的核心区别与联系。智能体是具有自主决策能力的AI系统(LLM+Prompt+Tools),能独立感知、决策和执行任务;工作流则是标准化、模块化的固定流程,适合重复性任务。两者本质区别在于决策能力,但可优势互补:工作流能提升智能体稳定性,而智能体可使工作流更智能。未来可能走向融合,但工作流在成本方面仍具优势。文章还提供了大模型学习路

本文介绍了六种文本分块策略及其特点。固定大小切分简单易实现但破坏语义结构;语义切分保持语义连贯性但计算成本高;基于文档结构的切分适合层次化文档;递归切分在效率与完整性间取得平衡;句子窗口检索提高检索精度;自动合并检索增强上下文关联。选择策略需综合考虑任务需求、数据类型和资源限制,不同方法可组合使用以达到最佳效果。文末还提供了大模型相关的CSDN独家资料包供读者参考。

非技术背景如何做 AI 开发?金融人转型智能体开发的实战经验,帮你少走弯路

程序员必看!DeepSeek 被热议?零成本 + 快速部署本地大模型,3 分钟搞定!

程序员必看!DeepSeek 被热议?零成本 + 快速部署本地大模型,3 分钟搞定!
