logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude Skills揭秘:大模型应用架构的核心设计思路,程序员必学!

Claude的Skills机制是一种按需加载的专业知识模块,具有"用完即回收"特点,与传统工具调用和Multi-Agent架构有本质区别。Skills通过临时增强System Prompt实现Token效率的量级提升,同时保持单体架构的简单性。文章探讨了Skills与Sub-Agent的区别,提出了根据任务复杂度选择架构的原则,强调模块化是应对复杂性的根本策略,建议从简单开始渐进演进。

文章图片
#架构#开发语言#人工智能 +3
AI Agent:2026年AI生态核心与开发实践指南

AI Agent是具备自主决策、规划和执行能力的数字实体,是2026年AI生态核心。主流架构包括感知、规划/推理、行动、记忆和反思/评估等组件。A2A协议促进Agent间协作,MCP标准化工具调用,Agent Skills实现能力模块化,使开发者能像搭乐高一样构建专业AI助手。

文章图片
#人工智能#大数据#python +1
Agent Skills标准:让AI Agent按需挂载能力,国内skill0平台已上线

Anthropic推出的Agent Skills是一套可复用指令集,让AI Agent按需挂载能力,解决提示词痛点。Skills具有可组合、可移植、高效特点,已被OpenAI等主流工具兼容。国内特赞团队的skill0平台已聚合423个Skills,支持多款工具直接装配。Skills让AI从"能做事"走向"能按标准稳定做事",2026年或将成为规模化落地元年,国内团队在这场技术变革中并未缺席。

文章图片
#人工智能#AI
大型语言模型微调Fine-Tuning技术——14种主流方法的原理、适用场景及实践指南

LLM 训练时间和的成本太过庞大,况且个人卷训练经验极为困难,不妨从微调开始搞起。本文对正经的微调方法进行了总结,继续打怪,继续升级~提示:本文对当前常见的微调技术都进行了罗列,由于结合了论文和网络资料导致文章很长,可以先看总结部分先对概念有些印象,如果需要用到对应的微调技术再进行原理探究。

文章图片
#人工智能#自然语言处理#深度学习
一文搞清微调技术的发展与演进

现在的大语言模型发展得非常快,从几亿参数到千亿参数,不仅模型越来越大,能力也越来越强。但是在实际工作中,我们很少会从零开始训练一个这样的巨无霸模型,因为那样的成本和资源需求实在太高了。更多的时候,我们会先用一个现成的强大模型,然后根据自己的需求对它做一些“微调”,让它更懂我们的领域、更符合我们的业务和价值观。

文章图片
#人工智能#算法#AI
AI大模型开发中高质量需求文档编写技巧

本文讨论为AI大模型编写高质量需求的关键要素,强调可测试性(小粒度、可观察性、可控性)、可追溯性和可行性。与人类不同,AI需要更明确、详细和结构化的需求文档,因为缺乏常识和经验。良好需求能减少AI生成代码的"幻觉"现象,提高代码质量。精心编写的需求不仅有助于AI生成好代码,也能让人更好地理解系统,是一举两得的实践。

文章图片
#人工智能#RAG
大型语言模型微调Fine-Tuning技术——14种主流方法的原理、适用场景及实践指南

LLM 训练时间和的成本太过庞大,况且个人卷训练经验极为困难,不妨从微调开始搞起。本文对正经的微调方法进行了总结,继续打怪,继续升级~提示:本文对当前常见的微调技术都进行了罗列,由于结合了论文和网络资料导致文章很长,可以先看总结部分先对概念有些印象,如果需要用到对应的微调技术再进行原理探究。

文章图片
#人工智能#自然语言处理#深度学习
一文彻底搞懂大模型参数高效微调(PEFT)

PEFT(Parameter-Efficient Fine-Tuning)是一种在保持预训练模型大部分参数不变的情况下,通过仅调整少量额外参数来适应新任务的技术。这些额外参数可以是新添加的嵌入层、低秩矩阵或其他类型的参数,它们被用来“引导”或“调整”预训练模型的输出,以使其更适合新任务。

文章图片
#人工智能#AI
大模型本地化部署与微调实战指南:从入门到精通

文章探讨了大模型在垂直领域的应用挑战,包括幻觉和时效性问题,提出了检索增强生成(RAG)和微调(Fine-tuning)两种解决方案。详细介绍了微调的种类、工具框架及费用估算方法,以及实际操作流程。通过这些技术手段,可以增强大模型在特定领域的专业知识掌握能力,减少幻觉现象,提供更准确且最新的内容。

文章图片
#人工智能#算法#自然语言处理 +1
    共 198 条
  • 1
  • 2
  • 3
  • 20
  • 请选择