
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
,特指部分参数的微调方法,这种方法算力功耗比更高,也是目前最为常见的微调方法;除此之外,Fine-Tuning也可以代指全部微调方法,同时OpenAI中模型微调API的名称也是需要注意的是,OpenAI提供的在线微调方法也是一种高效微调方法,并不Fine-Tuning,是全量微调;微调, Fine-Tuning,一般指全参数的微调 (全量微调) ,指是一类较早诞生的微调方法,全参数微调需要消耗大量

看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的大模型,部署在个人电脑上,还要忍受极端缓慢的计算速度以及与chatGPT相差甚远的模型效果。前排提示,文末有大模型AGI-CSDN独家资料包哦!有什么办法能够部署属于我们自己的大模型呢?有编程

本文详细介绍了MCP(模型上下文协议)是Anthropic公司推出的开放标准协议,旨在解决大模型与外部工具、数据源的交互问题。MCP采用client-host-server架构,通过标准化通信实现AI应用与多样化外部资源的连接。文章解释了MCP的工作原理、架构组件、与LLM的交互流程,并提供了创建MCP服务器的示例。MCP servers提供工具、资源和提示三种功能,可大幅简化AI应用开发,增强A

Claude 现已引入 Skills 功能,显著提升了其执行特定任务的能力。Skills 本质上是一个包含指令、脚本和资源的结构化文件夹,Claude 能够根据任务需求动态加载这些资源。这一机制的核心优势在于按需加载:Claude 仅在检测到当前任务与特定技能相关时才会调用该技能。这种设计不仅确保了 Claude 的运行效率,还能使其快速获取特定领域的专业知识,从而更高效地完成任务。

本文全面介绍了AI智能体(Agent)的原理与实现,包括智能体的定义、特征与传统LLM应用的区别,以及构建智能体的三要素(模型、工具、指令)。文章详细讲解了智能体的编排模式(单智能体/多智能体系统)和护栏体系,并通过LangGraph框架提供了最小可运行智能体的代码示例。智能体的本质是执行任务而非简单对话,适合处理模糊性和上下文判断的场景。

早在2024年,我就预测了2025 年将会成为Agent 元年。2024年的“算力墙”问题已经出现了,模型效果边际收益递减,训练和运营成本高昂。在这样的时间节点和背景下,资本的眼光不可避免的会投入下一个AI 产品 —— 智能体(AI Agent)。这也是为什么会在开源中国的行业白皮书里写这样一篇文章。

早在2024年,我就预测了2025 年将会成为Agent 元年。2024年的“算力墙”问题已经出现了,模型效果边际收益递减,训练和运营成本高昂。在这样的时间节点和背景下,资本的眼光不可避免的会投入下一个AI 产品 —— 智能体(AI Agent)。这也是为什么会在开源中国的行业白皮书里写这样一篇文章。

过去两年,“AI智能体(AI Agent)”这个词频频出现在各种会议和论文中。有人说它是“下一个操作系统”,有人说它将“重塑所有应用”。但在喧嚣背后,真正懂智能体逻辑的人却不多。今天这篇文章,我们不讲空洞概念,而是带你从底层原理到落地实践,彻底弄清楚:* 智能体到底是什么?* 为什么现在是构建它的最好时机?* 如何一步步设计、编排和安全运行一个Agent?* 最后,我们还将用 **LangGrap

过去两年,“AI智能体(AI Agent)”这个词频频出现在各种会议和论文中。有人说它是“下一个操作系统”,有人说它将“重塑所有应用”。但在喧嚣背后,真正懂智能体逻辑的人却不多。今天这篇文章,我们不讲空洞概念,而是带你从底层原理到落地实践,彻底弄清楚:* 智能体到底是什么?* 为什么现在是构建它的最好时机?* 如何一步步设计、编排和安全运行一个Agent?* 最后,我们还将用 **LangGrap

LoRA是一种参数高效微调(PEFT)技术,通过低秩矩阵分解解决大模型微调的计算和存储成本问题。它冻结预训练模型参数,只训练低秩矩阵增量,显著降低训练开销。LoRA适用于GPT、LLaMA等大语言模型和视觉Transformer,支持多任务切换和高效推理,特别适合算力受限环境。








