
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的大模型,部署在个人电脑上,还要忍受极端缓慢的计算速度以及与chatGPT相差甚远的模型效果。前排提示,文末有大模型AGI-CSDN独家资料包哦!有什么办法能够部署属于我们自己的大模型呢?有编程

,特指部分参数的微调方法,这种方法算力功耗比更高,也是目前最为常见的微调方法;除此之外,Fine-Tuning也可以代指全部微调方法,同时OpenAI中模型微调API的名称也是需要注意的是,OpenAI提供的在线微调方法也是一种高效微调方法,并不Fine-Tuning,是全量微调;微调, Fine-Tuning,一般指全参数的微调 (全量微调) ,指是一类较早诞生的微调方法,全参数微调需要消耗大量

事实上,技术进步能够给我们带来的好处是,变量X的提高使得我们训练模型所需要的时间正在逐步减少,因此对于搭建自有的大模型来说,训练多大的规模参数就需要有多大规模的算力。初代大模型的推出是具有跨时代的意义,这不仅仅是让人们充分利用到大语言模型的便利性,也为更多大语言的推出铺平了道路,例如:ChatGPT训练了几乎所有能在公开渠道找到的数据,包括全部的推特数据(事实上,今年马斯克已经限制了推特API的采

文章探讨了AI应用从"顾问"到"执行者"的范式转变,介绍了AI Workflow和AI Agent两种设计模式,并使用LangChain框架进行实践。通过实际案例展示了如何构建稳定的工作流和自主智能体,并讨论了混合架构和MCP协议在企业级应用中的价值。文章强调AI不应仅停留在问答阶段,而应落地为实际业务工具,解决工作中的实际问题。

早在2024年,我就预测了2025 年将会成为Agent 元年。2024年的“算力墙”问题已经出现了,模型效果边际收益递减,训练和运营成本高昂。在这样的时间节点和背景下,资本的眼光不可避免的会投入下一个AI 产品 —— 智能体(AI Agent)。这也是为什么会在开源中国的行业白皮书里写这样一篇文章。

本文详细介绍了MemOS智能体记忆开源框架的Graph记忆图谱能力与LangChain集成实践。展示了如何基于MemOS构建带记忆能力的ChatBot,体验记忆图谱的自动重组功能,并通过Middleware机制将MemOS无缝集成到LangChain智能体中,实现长期记忆与知识积累。这种架构使AI Agent具备超越会话上下文的持久记忆能力,为个性化服务和复杂任务处理提供了强大支持。

本文详细介绍了AI Agent记忆系统的概念、分类及实现架构,包括短期记忆的上下文工程策略(压缩、卸载、摘要)和长期记忆的技术架构(记录与检索流程)。文章对比了Google ADK、LangChain和AgentScope等主流框架的记忆系统实现,分析了行业发展趋势,并提供了Mem0等长期记忆组件的集成方案,为构建高效、个性化的AI Agent提供了技术指导。

过去两年,“AI智能体(AI Agent)”这个词频频出现在各种会议和论文中。有人说它是“下一个操作系统”,有人说它将“重塑所有应用”。但在喧嚣背后,真正懂智能体逻辑的人却不多。今天这篇文章,我们不讲空洞概念,而是带你从底层原理到落地实践,彻底弄清楚:* 智能体到底是什么?* 为什么现在是构建它的最好时机?* 如何一步步设计、编排和安全运行一个Agent?* 最后,我们还将用 **LangGrap

本文介绍了新晋RAG平台OpenRAG,它集成了Langflow、OpenSearch和Docling,主打“开箱即用”与可视化编排。文章深度对比了OpenRAG与LangChain、LlamaIndex、Haystack等主流框架,分析了其在Agentic RAG和混合搜索上的优势及局限。最后针对不同应用场景提供了具体的RAG框架选型建议,助你快速上手。

本文针对传统RAG检索质量差、无法纠错等痛点,阐述了Agentic RAG的Think-Act-Observe循环。通过LangGraph手把手构建具备自我反思、查询改写能力的智能检索系统,帮助开发者实现从被动执行到主动决策的跨越,打造高质量大模型应用。








