登录社区云,与社区用户共同成长
邀请您加入社区
DecEx-RAG 最值得肯定的地方在于把推理过程结构化了。决策和执行的分离、分层剪枝的引入,把搜索复杂度从指数级压到近乎线性,对效率和扩展性都是实质性的改进。不过也有一些可以改进的地方,比如当前系统依赖硬编码的启发式规则:“超过半数 rollout 投票停止就停”、“内部答案超过固定阈值就跳过检索”。这类规则在噪音或不确定性较大时容易出问题,可能会遇到过于激进提前终止或者过于保守浪费计算的情况。
田渊栋分享参与Llama 4项目后被裁经历,及在大模型推理和AI可解释性领域的研究成果。他提出"费米能级"概念,指出AI时代人类价值将分层,只有能显著提升AI能力的人才具有价值。面对"遍地神灯"时代,他强调保持独立思考,建议人们从"员工"向"老板"角色转变,以宏大目标激发主动思考,避免被AI同化。
通过上面初步学习,我们了解到react代码层面工程层面框架机制层面通过这三个层面的优化结合,能够使基于react项目的性能更上一层楼。
mounted。
在对话app、商城app、旅游app等等多种app中肯定少不了数据的支持。当数据只有几百条的时候、前端界面勉强可以展示、可以如果出现成千上万条的数据时候前端在获取到数据的时候,界面肯定会卡爆、甚至宕机等问题。当我们使用循环遍历列表的时候我们需要获取到通过ref获取到最后一个元素的。这里我们就会渲染出list中的item其中index为索引,style为我们给FixedSizeList传入的每一项的
v-memo 用于缓存组件的渲染结果。它通过指定依赖项来决定何时重新渲染组件,只有当依赖项的值发生变化时,组件才会重新渲染,从而提高性能。
本文深入解析 React 中 useRef 与 useState 的核心区别,对比受控组件与非受控组件的使用场景,助你掌握表单处理的最佳实践,写出更高效、可控的 React 代码!
Kotaemon是一个开源RAG平台,让AI基于用户文档回答而非仅依赖训练数据。它支持多格式文档、本地部署、PDF高亮预览和多模态QA,提供简洁UI。通过Docker可5分钟快速部署,解决传统RAG工具痛点,保护数据主权。文章强调其作为"可控AI"的价值——延伸人类认知带宽,将机械信息查找交给AI,专注深度决策。
OpenAI发布GPT-5.2,国内豆包手机助手和DeepSeek-V3.2等大模型应用加速落地,大模型已进入深耕细作阶段。《大模型面试宝典》(2026版)更新至60万字,新增最新公司面经、多模态面试题、FC和MCP等前沿技术及公司级实践案例,适合在校学生、职场人士及AI学习者获取最新大模型面试知识和实践经验。
本文为Java开发者提供大模型技术应用指南,强调发挥Java工程化优势,通过Spring Boot等框架封装大模型API,构建企业级AI系统。建议采用Java生态工具链(Spring AI、LangChain4j)实现模型集成,从API调用逐步过渡到全栈开发。重点包括:多模型路由策略、性能优化方案(线程池调优、批量处理)、结果校验机制等实用技巧。同时给出金融、制造等领域的典型应用场景,推荐阿里云认
文章揭示AI本质是概率预测而非真正理解世界,指出AI的六大能力边界:幻觉问题、无意识情感、记忆有限、无法感知最新信息、不擅长数学计算、隐私安全隐患。提出高效使用AI的四大方法:构建结构化提示词、控制上下文长度、利用工具获取最新信息和处理数学计算、保护隐私数据。掌握这些底层认知,才能让AI真正成为职场进阶的超级助理。
文章介绍了ReAct Agent智能体的运行原理,即通过thought(思考)、action(行动)、observer(观察)的流程处理问题。智能体以大模型为大脑,工具为手脚,使模型具备与外部环境交互的能力。然而,由于模型存在幻觉、意图识别不明确等问题,ReAct Agent执行过程可能不稳定,会出现工具不全、执行错误等问题。因此,我们需要通过提示词明确告诉模型如何处理复杂任务,弥补模型自身能力的
随着AIGC(如ChatGPT、Midjourney、Claude等)大语言模型的接连涌现,AI辅助编程工具正逐渐改变程序员的工作方式。一方面,这些工具通过代码生成、调试和优化,大大提高了编程效率,缩短了开发周期;另一方面,随着AI能力的增强,许多人开始担忧部分编程工作将被AI取代。那么,在这场技术变革的浪潮中,程序员应该如何应对,才能保持并提升自身的核心竞争力?
2026年AI人才校招趋势显示,大模型算法岗位薪资高达5.2w/月,企业对高技术人才普遍薪资翻倍。高科技企业(60%)比金融行业(40.1%)更重视AI人才,近六成企业计划扩招。企业更看重数学与算法基础(60.3%)和实际项目经历(52.5%),名校学历重要性下降。未来具备扎实算法基础和项目经验的AI应届生将更吃香。
DeepAgents是LangChain推出的开源Agent框架,基于LangGraph构建,专为处理复杂多步骤任务设计。它提供内置任务规划、灵活文件系统、子Agent委托、长期记忆和人机协同等核心功能。采用三层架构设计,通过中间件机制实现高度可扩展性。适合需要自主长期运行的复杂Agent场景,支持自定义系统提示和中间件,让开发者能构建类似Claude Code的强大AI应用。
本文系统对比了强化学习(RL)与监督学习(SL)的核心差异,并深入解析了RL的框架要素与主流方法。监督学习通过拟合固定分布的数据实现"一步预测",而强化学习通过动态环境中的序列决策优化长期累积奖励。文章详细阐述了马尔可夫决策过程(MDP)的六要素(状态、动作、转移概率、奖励、折扣因子和轨迹),并以迷宫游戏为例说明RL的三大方法:基于值函数(如Q-learning)、基于策略梯度以及两者结合的Act
文章通过奶茶市场竞争类比AI工具市场,指出算法只是基本要求,非核心竞争力。真正的决胜点在于场景深耕与生态壁垒构建。AI应用应专注垂直领域,建立差异化优势,通过数据闭环和效率优化形成不可复制的护城河。只有占领用户心智,构建生态壁垒,才能在竞争中脱颖而出,实现持续盈利。
文章探讨了大模型从Chatbot到Agent的范式转移,强调Agent通过工具调用和多轮自主循环将彻底改变人机交互。2026年预训练进入"存量精耕"阶段,后训练全面转向强化学习(RL)。成功构建Agent需要顶级算法设计、强悍基础设施、云服务工程能力和开源协作。未来Agent将实现并行化思考和工作流组织,带来极致体验。AI时代需长期投入,构建"探索-验证-再探索"的良性循环,才能在技术变革中取得突
本文介绍了ReAct架构,一种解决复杂推理问题的动态交互范式。与传统的静态规划不同,ReAct通过"思考-行动-观察"的循环机制,使智能体能够基于环境反馈实时调整策略。文章详细解析了ReAct的工作流程,包括高层图示和代码实现,展示了其如何通过提示词工程、输出解析和工具执行等关键环节实现动态推理。ReAct特别适用于多跳问答、交互式环境导航和需要验证的研究任务,具有环境适应性强
本文介绍了基于 Plasmo 框架开发 Chrome 插件的经验,包括插件嵌入方法、技术栈选择、样式隔离技术(如 Shadow Root)、Ant Design 组件静态引入的难点以及整体功能和目录结构。
在AI代码生成加速的时代,我们的竞争优势不是写更多的代码,而是编写理解其目的代码。当建议更改按钮颜色并非基于“现代设计趋势”,而是基于为期两周的A/B测试显示特定对比度能带来3.2%更高的转化率时,对话就从主观意见转向了数据驱动的决策。构建过的最复杂的组件,并非技术最复杂的那个,而是每个属性都可以追溯到业务关键绩效指标,每次状态更新都讲述着用户行为故事的那个。钩子管理三种数据状态:静态回退、缓存的
文章介绍了搜索引擎从关键词匹配到多智能体协作的架构演进,指出当前RAG系统在复杂推理任务上的局限性。提出了一种由Master、Planner、Executor和Writer四个智能体组成的新型AI搜索引擎架构,通过动态任务分配、DAG任务规划、强化学习优化等技术,实现了对复杂问题的有效处理,并在测试中表现出显著优势。未来发展方向包括增强鲁棒性、优化效率和提升可解释性。
文章探讨了大模型在商业应用中存在的"幻觉"问题,介绍了知识图谱作为解决方案。通过将知识图谱的结构化知识融入大模型的检索和生成过程(GraphRAG技术),能有效减少大模型的错误回答,提高可解释性和可靠性。知识图谱提供准确知识,大模型提升构建效率,二者互补让AI更聪明、更可靠,为商业场景提供了可行路径。
当AI答非所问时,问题往往出在提示表达不够精准。本文介绍了Google提示工程课程的精华方法: TCREI黄金框架:包含任务(Task)、情境(Context)、参考(Reference)、评估(Evaluate)、迭代(Iterate)五个要素,帮助AI准确理解需求。 四大急救法:当AI表现不佳时,可重访框架、拆分长句、使用类比或增加约束条件来优化结果。 多模态提示:利用AI的图片、音乐等多模态
本文详细解析了大语言模型核心组件——注意力机制的工作原理与实现方法。文章从简化版自注意力机制入手,逐步讲解注意力得分计算、softmax归一化和上下文向量生成过程,并通过代码示例展示了完整的实现流程。注意力机制解决了长序列建模中信息丢失的问题,使模型能够关注输入序列中不同位置的重要性差异,是理解LLM的关键所在。
本文系统解析了AI智能体架构的9大核心技术:AI智能体基础架构、Agentic AI协作模式、WorkFlow任务拆解、RAG知识检索、微调技术、函数调用、MCP标准化协议、A2A智能体通信及AG-UI用户交互。这些技术构成了从底层设计到用户交互的完整体系,为构建高效、灵活的AI智能体系统提供全面技术支撑,是开发者理解AI智能体架构的重要指南。
ReAct(推理和行动)是AI智能体的核心架构设计模式,通过思考→行动→观察的循环工作,让AI智能体逐步解决问题而非直接生成答案。这种架构通过链式推理和工具使用,使AI能够核实事实、减少幻觉、提高决策透明度,并将被动的大模型转变为主动的问题解决者。ReAct几乎被所有AI智能体框架采用,是理解和构建可靠AI智能体的关键技术。
本文详细解析了AI Agent的概念、构建难点及框架选型,重点介绍了6种架构设计模式:路由分发、代理、缓存微调、目标导向、智能体组合和双重安全架构。文章强调AI Agent系统通常是工作流和AI Agent的组合,构建难点在于确保LLM有合适的上下文,并指出应根据实际业务场景灵活选择和组合不同模式,以构建可靠的企业级AI应用。
银行智能体开始爆发!12家银行智能体来袭,作为银行员工你选择坐以待毙被AI取代,还是让AI成为自己的得力助手?在金融科技的浪潮中,银行智能化转型正以前所未有的速度推进,智能体成为破局关键。从国有大行到股份制银行,从城商行到民营银行,纷纷布局智能体,构建起各具特色的AI 生态,重塑金融服务模式,一场激烈的“AI 军备竞赛”已然拉开帷幕。
多智能体系统(Muti-Agents)是能够自己思考、计划、找出相关信息来源并从中提取信息、采取行动,甚至在出错时还能自我纠正的自动系统。
文章全面介绍了AI知识库的优势、使用场景及国内主流工具,包括ima、Get笔记、飞书知识库等,并提供了本地化部署方案。同时详细阐述了学习大模型AI的四阶段路径:从初阶应用到商业闭环,帮助读者掌握提示词工程、RAG系统、智能体开发等核心技能,成为AI时代的竞争优势者。
LangChain与LangGraph作为大模型开发框架各有侧重:LangChain提供丰富组件库和LCEL编排能力,适合简单一次性任务;LangGraph采用图结构架构,支持复杂状态管理和多智能体协作,适合构建Agent系统。选择应基于项目需求:简单任务选LangChain,复杂Agent系统选LangGraph,两者可组合使用。文章从技术架构、应用场景等维度深入分析,为开发者提供框架选型决策参
本文系统介绍大模型驱动的智能体(Agent)工作原理与架构。从PEAS模型和Agent Loop循环机制入手,对比智能体与传统工作流的本质区别,详解温度参数、Top-k与Top-p采样等性能调优技术,重点解析ReAct、Plan-and-Solve和Reflection三种核心架构,展示LLM如何通过"感知-思考-行动-观察"循环进化为能解决问题的智能伙伴。
([github.langchain.ac.cn][4])([Reddit][6])📌 可以结合一些课程和项目来学习(如 Coursera/Pluralsight 等 LangGraph 路径)([Coursera][5])📌 LangChain 是一个帮助你构建与 LLM(大型语言模型)交互的一整套开发库,用在 prompt 管理、链式结构、工具调用等场景。([github.langchai
2025年,很多人都说这是“Agent元年”。意思是AI不再只是回答问题,而是能自己干活,像一群超级聪明的助手。但事情真的这么简单吗?但我想告诉你一件不那么酷的事:真实世界,和宣传里的样子,差得有点远。首先,我们来看看现实里的Agent为什么其实很“胆小”。公司不敢让AI自由发挥,怕它把系统搞炸。成功的Agent更像一个不累的实习生,必须严格照流程干活。那如果多找几个AI帮忙呢?实验结果很扎心:A
今天分享旗下的学术期刊Artificial Intelligence Review最新刊登的文章:《这是一本认识、应用AI Agent的实战指南,系统梳理了智能体的基础知识、构建工具、配置流程与场景实践,面向希望用AI技术提高工作生产力的读者。一方面,内容涵盖基础的技术理论及主流框架的实战方法,详解本地与云端部署、安全合规、持续升级与维护机制等。另一方面,精选多个行业实用案例,覆盖常见业务场景,帮
本文介绍了一个专为AI协作设计的游戏开发框架,由三个核心库组成:应用层(异步框架和模块通信)与战斗层(ECS架构)。框架采用严格的分层设计,应用层处理UI流程和资源加载,战斗层专注于游戏逻辑和性能优化。其核心优势包括:1)职责清晰的模块化设计,2)统一的异步树和ECS编程模式,3)声明式配置提高可读性,4)强类型约束确保安全性。该架构显著提升了AI协作效率,使AI能快速理解代码结构、准确生成符合规
文章系统梳理了AI应用形态与工程范式的五个演进阶段:提示词工程、RAG、Tool Calling、AI Workflow和Agent,分析了各阶段特点及Agent出现的必然性。Agent设计模式通过将"任务编排"的控制权交还给AI,使系统能够拆解复杂目标、调整行动策略、修正失败行为并维护上下文状态,解决了多步推理跑偏、缺乏统一修正策略等问题,是构建可控、可维护AI系统的关键架构。
2025年前端技术将迎来三大趋势:工程化深化、AI融合与跨端能力重塑。框架层趋于稳定,Vue/React进入成熟期,工程能力成为核心竞争力;工程化从工具使用转向规范设计,TS和Vite成为标配;跨端开发聚焦性能优化与平台适配;AI深度融入开发流程,辅助代码生成与问题诊断。前端角色向"应用工程师"演进,需重点提升TS深度应用、工程架构设计、跨端适配及性能优化能力。建议开发者夯实基
AI Agent是让AI拥有"手脚"和"感官"的系统,由LLM大脑、规划能力、记忆系统和工具组成,通过思考-行动-观察的ReAct流程执行任务。初学者可从提示词工程入手,尝试Coze等轻量级框架,再学习Python和LangChain等进阶技术,逐步构建能思考、记忆、执行任务的智能助手。
截止到2025年“大模型”一般泛指“超大参数模型”,参数是指深度神经网络里面“神经元数量、层数、神经元权重、神经元偏移量、超参数”等数据的集合,截止到本年度全球应用最广泛的是以OpenAI的ChatGPT为代表的“语言类模型”。在Transformer架构之前,一般使用“循环神经网络RNN”及其衍生“长短记忆循环神经网络LSTM”来进行语言类模型的推理,而transformer架构的精髓在于通过针
一、AI 前端开发 ≠ 会用 ChatGPT。
RAG与智能体技术有交集但功能不同。RAG本质是通过检索获取外部数据输入大模型,只能单向交互;而智能体不仅能获取数据,还能通过工具与外部环境双向交互,自主选择调用工具,甚至影响外部环境。智能体比RAG更强大灵活,应用范围更广,被称为"Agentic RAG"。从成本角度看,RAG技术更简单,但智能体代表了更先进的发展方向。
作者通过大模型应用开发实践,发现应将大模型视为"人"而非"神"。大模型有其能力边界,应用开发时应思考"人在场景中扮演什么角色",就让大模型扮演该角色。以数据分析为例,大模型可扮演DBA角色,理解需求并生成代码而非直接分析数据。这种"人设"思维能帮助开发者轻松发现大模型多样化应用场景,如AIGC和Agent智能体等。
文章指出大模型在数据分析中存在理解边界、工具调用限制、合规安全风险和上下文碎片化等局限。因此,最优解是人机协同:让智能体负责规则化、可结构化的任务(如SQL生成、报表制作),而人力负责复杂判断、责任兜底和模糊需求处理。通过分工模式、工作流设计和技术落地建议,形成"混合智能流水线",实现大模型与人类优势互补,提升数据分析效率与准确性。
智能体技术与复杂业务场景的结合是大模型应用的一个难点,怎么才能在技术和业务之间找到一个合适的连接点,是我们现在亟待解决的问题。最近在优化一个RAG系统,并且这两天又接到一个新需求,一个大场景下有三个子场景;而基于传统的RAG技术需要分三个场景来做,因此选择使用智能体来解决这个问题。而且还一个要优化的点就是,目前的RAG召回效果不太好,因此需要用智能体的方式做几个从不同维度召回数据的工具;所以需要把
本文介绍了LangGraph,作为LangChain的高级扩展库,专为构建AI智能体设计。它支持有状态、多角色、可循环计算的应用,使智能体能执行复杂多步任务并动态适应新信息。文章通过太阳能板节能计算实例,详细展示了LangGraph的核心概念(节点、状态、边)和构建流程,展示了如何创建智能、适应性强且贴近真实场景的AI系统,为开发者提供了实用的智能体开发指南。
前端框架
——前端框架
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net