登录社区云,与社区用户共同成长
邀请您加入社区
本文通过披萨店的案例详细介绍了抽象工厂模式的设计与实现。首先分析了依赖性强的问题代码,引出依赖倒置原则(DIP),强调高层组件和低层组件都应依赖于抽象。然后展示了如何通过抽象工厂模式重构披萨店系统:定义PizzaIngredientFactory接口创建原料家族,实现NYPizzaIngredientFactory和ChicagoPizzaIngredientFactory两个具体工厂。在披萨类中
AI Agent记忆系统是解决大模型上下文限制与高昂Token成本的关键技术,分为短期记忆(会话级)和长期记忆(跨会话)。短期记忆通过上下文工程策略控制规模,长期记忆通过向量化存储实现跨会话个性化服务。主流框架如Google ADK、LangChain和AgentScope提供了不同实现方式,Mem0等开源方案成为行业基准。未来记忆系统将向类脑计算、多模态融合和MaaS模式发展,提升AI Agen
智能体工程是将非确定性大语言模型系统优化为可靠生产级应用的迭代过程,遵循"构建-测试-部署-观察-优化"的循环。它融合产品思维(定义行为与范围)、工程技术(搭建基础设施)和数据科学(衡量性能),解决智能体行为不确定性带来的挑战。与传统软件开发不同,智能体工程将生产环境视为主要学习载体,通过快速迭代打造真正可信的AI系统。
本文通过实战对比单智能体与多智能体系统的差异,展示如何使用LangGraph构建高效Agentic AI。单智能体灵活但易出错,多智能体分工协作质量更高但成本更大。最佳实践是混合方案:单Agent预判主题,多Agent系统细化处理。好的Agent系统是人脑逻辑与机器执行的结合体,让大模型负责理解人话、拆解目标,程序执行确定性任务,实现"用自然语言编程"的新范式。
本文分享了AI Agent开发的6大关键设计模式,包括Prompt Chaining、Reflection、Tool Use等,强调打造稳定、高效、自主、可用的AI Agent需掌握这些模式。它们能让Agent从简单聊天机器人进化为能自我规划、执行、反思和协作的智能系统,是AI开发者避免"翻车"的"武功心法",帮助提升项目质量和效率。
AgentVNE结合大语言模型与图神经网络,解决边缘计算中多智能体部署难题。其双层架构中,LLM层识别语义约束生成资源偏置,GNN层捕捉虚拟-物理网络高阶相似度。实验表明,该方法降低50-60%通信延迟,高负载提升5-10%服务接纳率,为边缘智能体"语义+拓扑"双漂移问题提供高效解决方案。
ChatWiki是一款开源免费的企业知识库AI问答系统,支持20+主流大模型接入和多格式文档解析,提供零代码AI机器人创建功能。支持全渠道部署和精细化权限管理,适用于企业、高校和政务部门。通过私有化部署保障数据安全,帮助企业实现知识管理与智能服务升级,提升内部协作效率和客户服务质量。
本文深入解析了智能体与大模型的五大核心区别:目标导向(被动响应vs主动闭环)、组成形态(单一组件vs系统集成)、能力边界(模态处理vs任务解决)、交互方式(单次问答vs持续协作)和价值逻辑(能力输出vs效率提升)。大模型作为智能体的核心引擎,提供基础能力;智能体通过整合多模块实现全流程自动化,成为商业落地的关键载体。企业应根据需求选择合适的AI技术路径,实现从能力输出到价值创造的转变。
每增加新产品,只需增加该产品以及对应的具体实现工厂类,由具体工厂类决定要实例化的产品是哪个,将对象的创建与实例化延迟到子类,这样工厂的设计就符合“开闭原则”了,扩展时不必去修改原来的代码。中介者模式通过中介者对象来封装一系列的对象交互,将对象间复杂的关系网状结构变成结构简单的以中介者为核心的星形结构,对象间一对多的关联转变为一对一的关联,简化对象间的关系,便于理解;而L3 L4更多的是通过项目实战
摘要: 本文深入剖析10个主流API网关的核心设计模式,聚焦负载均衡、熔断降级和可观测性三大机制。针对AI应用场景,重点解析PoloAPI Gateway的智能韧性设计,包括成本感知路由、多级熔断和立体监控体系。对比Kong的插件化架构、Envoy的动态云原生适配等方案差异,提出选型建议:快速上线选SaaS方案(如PoloAPI),深度定制选开源方案(Kong/APISIX),云原生选Envoy,
在不少人认知里,使用大模型很简单——打开文心一言、通义千问或ChatGPT,打字聊天就行。但这只是“会用”的最低标准,距离“用好”还有巨大差距。真正的“用好”,是让大模型成为你的“专属私人助手”,精准解决各类实际工作难题。比如撰写文章时,让大模型帮你梳理逻辑框架、优化语言措辞;制作PPT时,让它生成内容大纲和视觉设计建议;编写代码时,让它快速生成基础框架、排查潜在bug、优化代码逻辑。虽然大模型无
本篇重点分享了网络架构及其典型实现Swarm架构的特点,并结合代码示例展示了如何利用langgraph-swarm库构建具备动态移交能力的智能体协作网络。
AI大模型(Large AI Models / Large-scale AI Models) 是指拥有亿级以上参数的深度学习模型。AI大模型利用深度学习算法和人工神经网络技术等AI技术,通过学习大量的数据提升预测能力,其性能与模型的参数规模、数据集大小和训练用的计算量之间存在幂律关系。从应用领域角度分类,AI大模型分为通用大模型、垂直大模型;按输入数据类型,AI大模型分为单模态大模型、多模态大模型
在深入探讨具体的设计模式之前,我们首先需要明确AI Agent(智能体)的本质。严格来说,当前我们讨论的AI Agent主要是指LLM AgentLLM AGENT = LLM + 记忆 + 规划 + 工具使用LLM(大语言模型):作为系统的“大脑”,负责理解、推理与内容生成,是所有智能行为的核心驱动力。记忆(Memory):赋予Agent状态持续性,包括短期记忆(如当前的对话上下文)和长期记忆(
8、第8层:智能体编排层使智能体能够执行工作流、与其他智能体交互,并在工具和环境中进行协调。包括 AgentScope Java、Spring AI Alibaba、LangGraph、Autogen、LlamaIndex、Swarm、Eino 等。9、第九层:智能体认证层处理智能体在可信生态系统内的安全身份、访问控制和基于角色的权限。包括 AWS AgentCore Identity、Azure
本文将围绕如何在 ReactAgent 中引入并实践 HITL(Human In The Loop,人机回路)机制展开,重点介绍实现方案及代码设计。并结合在做Agent基础平台期间,经历的一些agent的能力升级,对于Agent与工程设计之间存在的一些关联关系,分享一些个人观点。为什么需要HITL如果没有通用的人机协同,我们是如何解决人类在Agent问答中的参与过程:多轮对话式的追问,在系统提示词
摘要: 上下文工程是优化大语言模型(LLM)性能的关键技术,通过精准控制输入信息的时间、形式和内容来提升AI表现。其核心包含六种上下文类型(指令、示例、知识等),并通过四个阶段实现:编写(存储于记忆或状态)、读取(从工具/数据库获取)、压缩(去除冗余)和隔离(分割上下文以专注任务)。该技术类比CPU与RAM的关系,强调高效“编程”上下文窗口。学习大模型AI分为四个阶段:初阶应用(理解基础)、高阶应
人机协同(HITL)模式将人工智能与人类输入相结合,以增强智能体的能力。这种方法认为,最佳的 AI 性能往往需要自动化处理与人类洞察力的结合,尤其是在具有高度复杂性或伦理考量的场景中。人机协同模式并非取代人类输入,而是通过确保关键判断和决策基于人类理解,从而增强人类的能力。人机协同模式包含几个关键方面:人类监督(Human Oversight),涉及监控 AI 智能体的性能和输出(例如,通过日志审
异常处理与恢复」模式解决了 AI 智能体管理运行故障的需求。该模式涉及预测潜在问题(如工具错误或服务不可用)并制定缓解策略。这些策略可能包括错误日志记录、重试、回退、优雅降级和通知。此外,该模式还强调了恢复机制(如状态回滚、诊断、自我纠正和上报升级),以使智能体恢复到稳定运行状态。实施此模式可增强 AI 智能体的可靠性和鲁棒性,使其能够在不可预测的环境中运行。实际应用示例包括:聊天机器人管理数据库
2026年Agent框架选型指南:三大类型解析与实战案例 本文系统梳理了当前主流Agent框架,将其划分为流程控制型、团队协作型和轻量级/API型三大类。通过制造业工单分派系统的实际案例,展示了LangGraph在复杂业务流程中的应用,并提供了核心代码示例。文章强调框架选择应遵循三条黄金法则:业务驱动优先、重视成本效益、保持技术灵活性。最后指出AI产品经理应关注业务价值而非技术热度,建议建立API
想想计划一次旅行。你不会凭空就出现在目的地。你需要决定想去哪里(目标状态),弄清楚从哪里出发(初始状态),考虑可用的选项(交通、路线、预算),然后规划出一系列步骤:订票、打包行李、前往机场/车站、登上交通工具、到达、找到住宿地等。这个逐步进行的过程,通常考虑依赖关系和约束条件,基本上就是我们在智能体系统中所说的规划。在 AI 智能体的背景下,规划通常涉及智能体接受一个高层目标,自主或半自主地生成一
本文系统介绍了系统设计的核心内容与方法论,涵盖结构化设计、面向对象设计、流程设计等关键技术。重点阐述了系统设计的七大原则:高内聚低耦合的模块设计、输入输出设计规范、人机交互五层模型(战略层到表现层)、安全可靠性设计等。详细解析了流程设计工具(流程图、IPO图等)、三种系统结构图类型(变换型、事务型、混合型)以及面向对象设计的三大类(实体类、控制类、边界类)。文章还特别强调了用户体验设计的黄金法则,
模型上下文协议(MCP)是一个开放标准,它为大语言模型和外部系统之间的通信提供了一套通用规范。这个协议采用「客户端 - 服务器」架构,使 LLM 能够通过标准化工具访问资源、利用提示词并执行操作。MCP 允许 LLM 与数据库交互、管理生成式媒体工作流、控制物联网设备以及自动化金融服务。实际示例演示了设置智能体与 MCP 服务器通信,包括文件系统服务器和使用 FastMCP 构建的服务器,说明了其
📖这本书阅读价值拉满书里一口气系统梳理了21种关键设计模式,像提示链、动态路由、并行执行、反思优化、工具调用、任务规划、多智能体协同、记忆管理这些核心议题,全都被安排得明明白白🤩 每种模式都配有能直接执行的代码示例,还有超详细的图解说明,就算你是小白,也能快速把设计理论变成实际应用!而且把当前主流的智能体设计模式全整合在一起,理论框架和实践方法两手抓,知识体系超稳固。每章都有能直接运行的代码,
本文提出了一种为管理控制平台(MCP)集成RAG(检索增强生成)的轻量化解决方案。该方案采用"基础流水线+增强检索"混合架构,在不侵入MCP核心逻辑的前提下,嵌入运维知识检索与故障案例匹配能力,解决运维问答、故障排查等场景痛点。文章详细阐述了适配MCP的架构设计、核心组件选型(如Elasticsearch+FAISS混合检索、轻量化生成模型)、低延迟数据流转机制以及分阶段实施步
迭代有界:必须设置maxDepth(如同Web分页的maxPage)上下文隔离:按会话ID分区存储(Redis key前缀隔离)技能自治:每个Skill保持无状态(如同RESTful原则)
本文系统介绍了Python中常用的设计模式,分为创建型、结构型和行为型三大类。重点讲解了单例模式、工厂方法、抽象工厂、观察者模式和策略模式的实现原理、Python代码示例及适用场景。文章强调设计模式是解决软件设计问题的经验总结,而非具体代码,建议开发者根据实际需求合理运用,避免过度设计。同时指出Python的动态特性(如装饰器、元类)能使设计模式实现更加优雅。最后提醒读者要理解模式本质而非机械套用
《动手构建大模型》是一部面向生产环境的LLM工程实践指南,聚焦从Demo到生产级系统的完整落地路径。全书分为基础理论、核心技术(Prompt/RAG/框架)和高阶应用(智能体/微调/部署优化)三部分,强调"可用、可控、可评估、可持续演进"的系统设计理念。该书被一线工程师视为可"反复翻、随手查"的实践手册,是帮助开发者真正将大模型能力转化为稳定工程系统的完整路线图。
这个开源项目挺有意思,你把 B 站或者小红书的视频链接丢进去,它就能变身成一个带打点功能的播放器。看到哪个画面有感觉,按个快捷键就能把那一帧截下来,不用你自己再去截图工具里折腾。但这玩意儿最核心的其实是 AI 脑补能力。它接了 Google Gemini 的大模型,能把你截下来的那些视频画面瞬间变成手绘风格的分镜草图,甚至还能根据画面内容自动帮你写好发小红书的文案。
文章介绍了Cursor代码Agent中的"动态上下文发现"技术,这是一种比静态上下文更高效的上下文管理方式。通过将长响应转为文件、引用聊天历史、支持Agent Skills标准、按需加载MCP工具、将终端会话视为文件等方法,动态上下文发现显著减少了token使用,提高了Agent回复质量,同时避免了上下文窗口中的信息混淆。这种基于文件的简单抽象,为代码Agent提供了一种强大而灵活的交互方式。
本文系统梳理了主流大模型推理部署框架,包括vLLM、SGLang、TensorRT-LLM、Ollama、XInference等。从核心技术、系统架构、性能指标及适用场景等多维度进行深度剖析,帮助读者了解各框架特点。vLLM适合高并发场景,SGLang擅长多轮交互,TensorRT-LLM优化NVIDIA GPU性能,Ollama便于本地部署,XInference支持分布式扩展,国产框架则适配特定
本文梳理了四种多线程设计模式的实现方法:1)单例模式(饿汉/懒汉/双重检查),保证全局唯一实例;2)阻塞队列(生产者-消费者模型),实现线程安全与自动阻塞;3)定时器,支持到点执行任务;4)线程池(未展示代码)。重点分析了wait/sleep区别、单例模式的线程安全实现、阻塞队列的手写实现(循环数组+同步机制),并提供了各模式的典型应用场景和代码示例。这些模式通过同步控制、条件等待等机制,有效解决
本文解析AI智能体应用构建方法,强调架构设计比大模型选择更重要。详细介绍单智能体和多智能体两大架构,以及9种设计模式,包括工具使用、规划和反思等单智能体模式,及监督者、层级等多智能体模式。通过实际案例和决策框架,帮助开发者根据应用场景选择合适的架构和模式,构建高效智能体应用。
在Web开发中,我们早已熟悉「多步骤表单」的设计模式:用户注册向导、电商结算流程、项目初始化配置…这些场景的核心是渐进式信息收集与状态保持。当Web开发者转型AI应用时,向导式Agent工作流正是这一模式的智能升级版——它将复杂任务拆解为可管理的步骤,通过自然语言交互引导用户完成目标,就像把传统表单的"下一步/上一步"按钮,进化为智能对话的上下文感知导航。
《21种智能体设计模式详解》系统阐述了AI智能体的核心设计模式,包括提示链、路由、并行化等21种模块化方法。文章首先介绍了智能体的概念、特性及五步执行循环,详细分析了各模式的价值与关键技术,并总结出智能体的四大核心能力:任务分解、环境交互、状态学习与协作沟通。重点强调智能体设计的真正力量在于多种模式的灵活组合,而非单一模式的孤立应用。这些设计模式为构建复杂智能体系统提供了体系化的工具箱,将推动AI
鼎捷PLM以强大的数据管理能力、灵活的流程控制和卓越的用户体验,帮助企业实现产品设计、制造、服务的全生命周期管理,助力500强企业及行业龙头企业实现国产化替代与研发数字化转型。中科方德建立了覆盖全国的产品研发、应用推广适配服务与技术支持协同网络,与上下游软硬件产品厂商紧密合作,提供基础软硬件国产化、正版化解决方案,支持IT系统创新升级和应用迁移。在成功与华为鲲鹏、云和恩墨、人大金仓等业界龙头企业完
本文介绍了Multi-Agent系统(MAS)的8种基本设计模式,包括顺序流水线、协调器/调度器、并行分发/收集、层次分解、生成器与评论家、迭代优化、人机协同和复合模式。这些模式帮助构建专业化、模块化和可靠的AI系统,解决单一Agent"样样通,样样松"的问题。文章通过Google Agent开发工具包(ADK)提供了实用模式和伪代码,帮助开发者构建生产级Agent团队。
本文详解智能体应用的两大核心架构(单智能体与多智能体)及九种设计模式,强调架构设计比选择强大大模型更重要。文章通过实际案例与决策框架,帮助开发者根据应用场景选择合适的架构类型和设计模式,构建高效可用的智能体应用。
文章详细对比了两大大模型知识整合技术:检索增强生成(RAG)和缓存增强生成(CAG)。RAG通过实时检索获取最新信息,适合动态知识场景;CAG预加载信息到缓存,追求高效响应,适用于稳定知识领域。文章解析了两者工作原理、优劣势、适用场景及行业应用案例,指出混合方案可能成为未来趋势,帮助开发者在性能与准确性间找到平衡。
短短两年间,AI范式发生了巨大转变,从简单自动化迈向复杂自主系统。最初,工作流依赖基础提示和触发器,利用LLM处理数据。随后,检索增强生成(RAG)技术出现,通过事实信息提升模型可靠性。接着,单体智能体诞生,能够调用多种工具。如今,我们正步入智能体AI时代,多个专业智能体协作完成复杂目标,AI的协同能力实现了质的飞跃。图2:AI范式变化,从LLM到RAG,到智能体RAG,最终迈向智能体AI。
本章深入探讨了智能体系统中记忆管理这一关键任务,阐明了临时上下文信息与长期持久化知识之间的本质区别。我们剖析了各类记忆机制的架构原理及其在构建智能体系统中的实际应用,并详细介绍了 Google ADK 框架如何通过SessionState和等组件来实现记忆管理。在掌握了智能体短期与长期记忆技术的基础上,我们将继续探索智能体如何实现学习和自适应。下一个核心模式「学习与适应」将探讨智能体如何基于新的经
设计模式
——设计模式
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net