登录社区云,与社区用户共同成长
邀请您加入社区
MHA:极致效果,为预训练而生;MQA:极致效率,为边缘部署而生;GQA:平衡之道,成为工业界的最优解。
梯度累加的核心是「以时间换显存」,用小batch的显存占用模拟大batch训练,无精度损失;和直接缩小batch_size的核心区别:梯度累加模拟大batch(梯度稳定),而缩小batch是真·小batch(梯度抖动);梯度累加的关键操作:损失必须除以累加次数,梯度只在更新后清空。梯度累加是大模型训练中“零成本、高收益”的基础策略。
摘要:AgentRun Browser Sandbox 为智能体提供云原生无头浏览器沙箱服务,支持通过 Chrome DevTools Protocol 远程控制浏览器实例。该服务具有无头浏览器能力、实时可视化、安全隔离和 Serverless 架构等核心特性,适用于AI Agent赋能、自动化测试、数据采集等场景。通过AgentRun SDK可快速集成到LangChain等框架,实现浏览器自动化
本文详细介绍了RAG(检索增强生成)技术的架构与实现流程,包括数据准备阶段(提取、分割、向量化、入库)和应用阶段(检索、提示词工程、生成)。重点讲解了文本分割策略、向量化模型选择、数据检索方法和提示词工程等关键技术点,并强调了RAG的核心目标是"检索要准、上下文要真、模型要被约束"。RAG不是简单的"给大模型接数据库",而是一套完整的信息检索与生成协同系统。
工业现场最怕“低频故障”:一年才出两三回,回回都是新症状。用 ChatGPT 直接问?它只会给你“通用答案”。用传统 RAG?先请老师傅把 10 年维修记录“标注”一遍,成本直接劝退。中南大学+哈工大团队最新发表在《Advanced Engineering Informatics》的研究,把“强化学习”塞进 RAG:不标数据、不调 LLM,只靠一个“游走”智能体,在维修日志里自己找答案。实测结果:
文章系统介绍了大模型技术体系,包括AIGC(单/多模态)、RAG技术、Function Calling、智能体Agent及MCP协议。AIGC解决内容生成,RAG增强实时信息获取,Function Calling赋予工具调用能力,Agent实现任务闭环,MCP提供统一工具集成标准。同时规划了从初阶应用到商业闭环的学习路径,帮助读者全面掌握AI技术。
AI产品经理是未来5年最具"钱"景的岗位。想进入AI领域的人常处于观望、迷茫或跑偏状态。AI产品经理分为工具型、应用型和专业型,对大多数人而言,应用型是最佳选择。成为应用型AI产品经理需三步:夯实产品基本功、掌握AI项目落地能力、补充AI知识技能。起点课堂提供系统化学习路径,帮助学员从零开始成为AI产品经理,实现职业转型。
大模型推理工程师的工作核心是推动大模型从实验室走向产业应用,既要扎根技术理论,又要深耕工程实践,是一个兼具专业深度与技术广度的复合型岗位。
本文以零基础视角详细解析了Transformer架构的核心组件,包括位置编码解决顺序信息问题、多头注意力机制捕捉上下文关系、残差连接与层归一化优化深度网络训练,以及逐位置前馈神经网络增强非线性表达能力。作者通过Excel表格可视化计算过程,帮助读者理解Transformer如何通过并行处理提升效率,成为大模型的基础架构。文章适合AI初学者收藏学习,为理解现代大模型技术奠定基础。
VGGT 的核心贡献在于打破了 “3D 重建依赖几何优化” 的传统范式,通过大模型 + 多任务联合训练,实现了 “快速、通用、高精度” 的 3D 属性推断。效率突破:秒级处理数百张图像,为实时 3D 重建(如自动驾驶、AR/VR)提供可能;易用性提升:无需手动设计多阶段流水线(如 SfM 的特征匹配→三角化→BA),直接端到端输出所有 3D 属性;生态赋能:预训练骨干可迁移至多种下游任务,为 3D
大模型从爆发到现在,刚开始遥遥领先,现如今国内的大模型发展的速度相当快,在不少的领域快要追上最强的模型,甚至已经超越了其他模型成为行业领头羊。你看上的排行榜,前面已经有逐渐开始出现国内的大模型了。对于大模型来说,我最喜欢的两个概念或者说原理,一个是涌现,另一个就是规模效应scaling rule。前一个的最初定义是一旦模型的规模大到一定程度,就会出现一些意想不到的能力;后一个指的是如果一个模型的参
多模态Transformer面临的核心挑战是不同模态(图像、文本、语音)序列长度差异巨大。主流解决方案有三种:1)统一长度:通过下采样或补齐使序列一致,但会丢失信息或浪费算力;2)跨模态对齐:各模态独立编码后通过cross-attention对齐,计算效率高,如CLIP、BLIP等;3)动态建模:根据内容相关性自适应选择代表性token,平衡算力和精度。Transformer作为通用模态接口,将一
本文用通俗语言解释了大语言模型的工作原理,将其比作"下一个词预测器"。重点解析了Transformer架构的核心组件:输入嵌入、位置编码、多头注意力和前馈网络。相比RNN,Transformer能并行处理整句话,捕捉长程依赖关系,并通过预训练-微调范式提升性能。文章强调大模型通过向量表示和注意力机制建立完整上下文,虽然模型越大性能越好,但也面临巨大的算力和能源消耗问题。
在深入探讨大模型技术时,我们曾解析过AGI(通用人工智能)、RAG(检索增强生成)和LLM(大语言模型)等专业概念,同时也客观分析了当前大模型技术面临的若干挑战。这些挑战包括:对海量高质量训练数据的依赖、高昂的算力与电力成本,以及最关键的信息幻觉(Hallucination)问题。
维度传统RAG检索方式单次、静态多轮、动态优化推理能力单跳,依赖人工设计多跳,自主分解任务上下文管理固定拼接动态筛选与精炼错误处理无自检机制结果验证与修正适用场景简单问答、文档摘要复杂推理、实时交互、工具调用演进本质:Agentic RAG将RAG从“管道流程”升级为“自主决策系统”,更贴近人类问题解决模式。策略核心逻辑优势局限性Fixed-size固定长度切割高效、通用语义断裂风险Semanti
LangChain 1.x版本实现了从面向对象到函数式响应编程的范式转变,通过LCEL和LangGraph重构架构。新版本采用原子化组件设计,支持显式数据流和状态管理,解决了旧版的黑盒问题。LangGraph将Agent建模为状态机,实现确定性执行、持久化和人机协同。升级后系统具备细粒度流式控制、异步并发等生产级特性,显著提升了可观测性、可控性和用户体验。这一架构革新使开发者能够构建高可用的LLM
【摘要】Agent工程正在成为AI领域的新兴学科,它专注于将非确定性大模型系统优化为可靠的生产级应用。与传统软件开发不同,Agent工程强调"构建-测试-发布-观察-优化"的快速迭代循环,通过持续观察生产环境中的实际表现来改进系统。这一方法被Clay、LinkedIn等成功应用Agent的企业采用,需要产品、工程和数据科学团队的协同合作。随着大模型能力的提升,Agent已能处理
Deep Thinking RAG突破传统RAG瓶颈,通过LangGraph编排的循环推理机制,将RAG与Agent技术深度融合,实现从"工具"向"智能体"的范式跃迁。该架构具备自主规划、自适应检索、多源信息融合和自我纠错能力,解决了多跳推理、静态知识边界等问题,显著提升AI系统的认知能力和问题解决效率。
本文介绍了AI工作流框架的概念、类型及优势,重点讲解了字节跳动扣子(Coze)平台。该平台通过可视化节点式工作流,让用户无需编写代码即可快速构建大模型应用,提供丰富组件和插件生态。文章对比了Dify、N8n等同类产品,展望了AI工作流框架在提升研发效率、实现"工作流即服务"方面的潜力,为开发者提供了从创意到应用的全链路解决方案。
本文深入剖析了四种主流智能体框架AutoGen、AgentScope、CAMEL和LangGraph的设计理念与实战应用。从对话驱动协作到工程化多智能体平台,从角色扮演自主协作到图结构工作流,文章揭示了"涌现式协作"与"显式控制"的设计权衡,强调了工程化在智能体系统中的重要性。通过对比分析各框架的优势与局限性,为开发者提供了针对性的技术选型建议,助力构建可靠、可扩展的智能体应用。
DragMesh是北大团队推出的轻量级3D交互框架,通过"语义-几何解耦"范式与双四元数VAE技术,实现静态3D模型实时物理交互。相比传统方法,算力消耗仅为SOTA模型的1/10,运动轴预测误差降低10倍,无需标注即可让任意Mesh实现符合物理规律的实时交互,为元宇宙、机器人仿真等场景提供技术基础。
MiniMax Agent展示了强大智能体能力,能在创意内容、PPT制作、音频处理、UI设计和资料调研等多场景中出色完成任务。它具备类人思考、规划和反思能力,依托自研全模态模型优势,实现"左手模型,右手Agent"战略布局,有效降低运营成本并提升性能,展现了AI作为复合智能体的未来发展潜力。
《大模型幻觉问题的破解之道》摘要:本文系统探讨了大模型生成内容中存在的幻觉问题及其解决方案。首先将幻觉分为事实性、逻辑性和指令跟随偏差三类,分析其本质原因。随后提出三大核心解决方案:知识检索增强(RAG)、模型生成约束和后处理验证,结合金融、医疗等领域的实际案例说明实施要点与权衡考量。文章强调量化评估的重要性,并展望多模态检测、强化学习等前沿方向。最后建议求职者准备具体案例、展现系统思维,指出解决
随着LLM学界和工业界日新月异的发展,不仅预训练所用的算力和数据正在疯狂内卷,后训练(post-training)的对齐和微调等方法也在不断更新。下面笔者根据资料整理一些关于大模型训练常见概念解释。预训练是指在模型的初始阶段,使用大量数据对模型进行训练,以便让模型学习到通用的特征和知识。这些特征和知识可以是语言模型中的词嵌入,或者是图像识别模型中的视觉模式。通常发生在模型开发的早期阶段。目的是在大
麦肯锡的方法论强调深入分析和全面理解一个行业。在大型语言模型(LLM)和人工智能生成内容(AIGC)的领域,列出100个最重要的概念是一个庞大的任务,但我可以提供一份精简的关键概念列表,这些概念是理解这些领域的基础。
2026年的后端开发赛道,“AI Agent”已成为企业筛选人才的核心标尺——某招聘平台Q1数据显示,超85%的中高端Java岗位明确要求“具备AI Agent开发经验或相关认知”,而缺乏AI能力的开发者,即便有5年以上经验,薪资议价权也下降40%。更现实的是,企业正在疯狂争抢能“用Java落地Agent项目”的复合型人才,某电商企业开出6万/月薪资招聘Agent系统开发工程师,岗位发布3天收到2
【AI课程领学】第六课 · Transformer(课时2) Transformer 经典结构:Encoder、Decoder、BERT、GPT、ViT(含代码)
文章详细解析了企业AI智能体落地的14层生态系统架构,强调其中90%工作是软件工程,只有10%涉及AI大模型。从底层硬件到前端交互,每层都有相应的技术栈支持,包括CPU/GPU、基础设施、数据库、ETL、基础模型、模型路由、智能体协议、编排、认证、可观测性、工具、认证、记忆和前端等。企业可根据业务需求灵活选择各层技术构建智能体应用。
KV Cache = 大模型的“历史信息缓存池”,核心作用是复用已计算结果,降低推理阶段的计算成本,提升生成速度。对用户:生成速度更快,对话更流畅(不用等半天);对开发者:降低推理成本(减少GPU计算时间),提升部署效率;对大模型:是自回归模型实现“实时交互”的关键技术(没有KV Cache,大模型无法快速响应)。
从“规模至上”到“效率优先”:Densing Law、ParScale等新定律将主导未来1-2年的AI发展从“三维扩展”到“多维协同”:上下文、模态、推理等新维度加入,形成更复杂的缩放网络从“经验规律”到“理论科学”:Scaling Law将与信息论、神经科学深度融合,建立坚实理论基础从“单一模型”到“系统工程”:Scaling Law将扩展到模型训练的全流程,包括数据治理、硬件优化、分布式系统设
文章整理了2024-2025年国内外AI大模型活跃排行榜,显示国内市场豆包领先、Deepseek崛起,全球市场ChatGPT和Gemini占主导但中国模型逐渐获得全球认可。分析指出:入口比模型更重要,技术和口碑能打破平台垄断,全球AI模型分化为中英文两个世界,AI总日活量持续增长,全民AI时代已经到来。
LlamaIndex是拥有46.1k星标的开源框架,通过160+数据连接器解决大模型无法理解私有数据的痛点。只需5行代码即可构建完整的RAG应用,支持PDF、Word、数据库等多种数据源。文章详解了其技术原理、应用场景、安装指南及与LangChain的对比,为小白开发者提供保姆级教程,是提升AI应用开发效率的利器。
本文系统介绍了强化学习与监督学习的差异,详细解析了RL的核心要素和三大主流方法,并聚焦大模型RL的特殊性。重点阐述了RLHF和DPO两大主流对齐方法,以及最新的GRPO和GSPO等优化算法。通过数学推导和实例说明,帮助读者理解从传统RL到大模型RL的演进过程,为开发者提供了完整的理论框架和实践指导。
介绍使用 Agent-lightning 来完成 demo-APO 的训练。
文章分享了基于大模型开发代码Wiki应用的实践经验,介绍了LLM、Token、RAG和向量数据库等关键技术概念。通过RAG架构解决了大模型幻觉、知识过时和私有数据安全问题,并对比了RAG与私有数据训练的区别。作者强调大模型应用开发的核心在于精心设计提示词,并分享了未来优化方向。对初学者理解大模型应用开发流程和关键技术具有重要参考价值。
文章介绍了AI Agent技术与Workflow的区别,分析了5款主流Agent框架的特点和适用场景。指出当问题复杂、不可完全穷举、需跨系统查证且需对话决策时,应使用Agent框架而非纯Workflow。通过客服场景案例,展示了Agent如何解决"分支爆炸"问题,实现动态规划与工具调用。强调Agent是从"执行命令"到"理解目标"的全新思维方式。
在AI时代,人类面临思考能力退化风险,深度思考能力成为核心竞争力。真正的深度思考应具备穿透力、连接力和抽象力,从"是什么"到"为什么",从"单一"到"系统",从"经验"到"本质"。程序员需建立信息壁垒,坚持手写逻辑框架,培养发呆思考习惯,避免沦为信息搬运工。未来世界将分为指挥AI的人和被AI取代的人,深度思考力是区分两者的关键。
智能体工程是将非确定性大语言模型优化为可靠生产级应用的迭代过程,包含构建、测试、部署、观察、优化的循环。它融合产品思维、工程技术与数据科学三大技能。与传统软件不同,智能体行为高度不确定,每个输入都是边缘案例。成功团队将生产环境作为主要学习载体,通过快速迭代提高系统可靠性,是发挥大语言模型潜力的必由之路。
文章指出大模型部署看似简单(下载工具、执行命令),实则运维复杂,存在多重难点:选择适配推理引擎困难;模型与引擎需架构转换;参数兼容性问题;需处理上下文长度限制和并发限制。建议添加中间层封装模型接口,而非直接暴露,以确保稳定运行。
文章探讨了大模型智能体从聊天工具向业务执行层的演变,强调决定智能体上限的是结构设计而非模型大小。系统介绍了基础工作流模式、高级推理与自治模式、工具与知识模式及安全运维模式,指出未来智能体竞争将回归工程与架构能力,强调将不确定性控制在合理边界内。智能体不是模型问题,而是系统工程,应从"能聊"向"能跑、能控、能规模化"发展。
transformer
——transformer
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net