登录社区云,与社区用户共同成长
邀请您加入社区
在大语言模型(LLM)应用的初期阶段,提示工程(Prompt Engineering)是衔接用户需求与模型输出的关键桥梁。但在处理多步推理任务、调用外部工具以及与动态环境交互等复杂场景时,纯提示驱动的方案往往显得力不从心。正是在这样的背景下,ReAct框架(Reasoning+Acting)应运而生。它创新性地将链式推理(Reasoning)与环境行动(Acting)深度融合,成功构建出能够主动思
维度传统RAG检索方式单次、静态多轮、动态优化推理能力单跳,依赖人工设计多跳,自主分解任务上下文管理固定拼接动态筛选与精炼错误处理无自检机制结果验证与修正适用场景简单问答、文档摘要复杂推理、实时交互、工具调用演进本质:Agentic RAG将RAG从“管道流程”升级为“自主决策系统”,更贴近人类问题解决模式。策略核心逻辑优势局限性Fixed-size固定长度切割高效、通用语义断裂风险Semanti
相较于病毒肆虐造成的人身健康威胁,今年网络世界的安全威胁则显得更加突出和难以察觉。伴随着国家战略信息化建设进入高速发展期,未来信息和数据安全风险的对抗,将从现阶段的"攻坚战"转为一场"持久战"。“新基建”是指以5G、人工智能、工业互联网、物联网为代表的新型基础设施,本质上是信息数字化的基础设施。与传统基建相比,新基建内涵更加丰富,涵盖范围更广,更能体现数字经济特征。并且,“新基建”不仅深度融合新兴
在开始动手实验前,理解“AI”与“机器人”结合的价值至关重要。这不仅是技术的融合,更是开启智能体(Agent)未来的钥匙。从自动化到智能化:传统机器人依赖于精确的预编程,只能在结构化环境中工作。AI的引入(如计算机视觉、自然语言处理),赋予机器人感知、理解和决策的能力,使其能适应开放、动态的真实世界。解决复杂任务的核心:本课程的终极目标——“按颜色自动分类积木”——单一技术无法完成。它需要视觉(识
在强化学习中,智能体通过与环境的持续交互学习最优策略(policy),核心目标是最大化长期累积奖励。其中,策略评估是核心任务之一:给定策略 π\piπ,准确计算每个状态 sss 的状态价值函数 Vπ(s)V^\pi(s)Vπ(s),或状态-动作对的价值函数 Qπ(s,a)Q^\pi(s,a)Qπ(s,a)。蒙特卡洛方法作为强化学习中的关键无模型方法,具备以下核心特点:蒙特卡洛方法的研究与应用均基于
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了
又是一年校招季,对于计算机相关专业的应届生、想入行技术领域的小白来说,今年的求职市场藏着前所未有的机遇与挑战。回顾过去几年,互联网行业增长放缓、竞争加剧,招聘名额收紧成为常态,不少应届生都经历过“一岗难求”的焦虑。但今年,市场风向悄然逆转——7月、8月以来,阿里巴巴(BABA.NYSE;09988.HK)、字节跳动、腾讯(00700.HK)、美团(03690.HK)、京东(JD.NASDAQ;
2026年职场与个人成长领域内容变现指南:1. 变现方式:知识付费(专栏/课程)、流量分成、商单合作、社群服务;2. 平台选择:知乎(专业长文)、头条(干货热点)、公众号(深度连接)、小红书(视觉化分享);3. 运营策略:建立核心素材库,用AI工具适配多平台风格,通过"融媒宝"实现一键分发;4. 内容规划:将深度文章拆解为系列短篇,控制单篇字数(知乎2000+、头条800-15
摘要:UVM事件池(uvm_event_pool)实现跨组件通信 UVM事件池作为全局事件管理中心,通过字符串名称实现组件间解耦通信。核心特点: 中央公告板机制:通过名称注册/查找事件,避免直接句柄传递 关键方法: get_global()自动创建新事件(需配合exists()检查) add()注册命名事件 典型应用: 复位信号监控(agent触发/env响应) 测试状态广播(开始/结束事件) 使
全新网址二维码与Ai文字转语音技术结合,让电子画册的生成变得更加轻松高效。用户可以通过简单的步骤生成富有创意的二维码,将网址、文档、音视频内容整合在一起。同时,Ai文字转语音功能无缝衔接,使观看者能以更直观的方式获取信息,提升用户体验和互动效果。
本文系统介绍大模型量化技术,包括基本概念、量化对象(权重、激活值、KV Cache)、量化带来的空间/时间/成本优势,以及PTQ与QAT、静态与动态等策略选择。重点分析LLM量化面临的最大挑战——异常值问题,包括其分类、双面性及在Transformer中的形成机制。掌握量化技术可有效解决大模型显存不足、推理效率低下的部署难题,实现模型"瘦身提速"。
RAG(检索增强生成)技术解决大模型记忆过时和幻觉问题,通过检索-筛选-生成三步流程实现知识更新和减少幻觉。文章详细介绍了RAG的工作流程、优势挑战及实操技巧,并探讨了从排名到集合选择、多模态RAG等最新进展。RAG虽非万能,但能有效解决大模型在真实业务中的核心痛点,让模型从死记硬背变为灵活开卷。
本文介绍了LangGraph框架,一个用于构建复杂AI工作流的开源工具。文章详述了LangGraph的图结构、状态管理、循环分支等核心特性,并与Dify、Coze、n8n等工具进行了对比分析。通过实战案例,展示了如何使用LangGraph创建大模型应用开发书籍的工作流,从环境配置到代码实现,帮助开发者掌握构建AI工作流的方法。
本文以零基础视角详细解析了Transformer架构的核心组件,包括位置编码解决顺序信息问题、多头注意力机制捕捉上下文关系、残差连接与层归一化优化深度网络训练,以及逐位置前馈神经网络增强非线性表达能力。作者通过Excel表格可视化计算过程,帮助读者理解Transformer如何通过并行处理提升效率,成为大模型的基础架构。文章适合AI初学者收藏学习,为理解现代大模型技术奠定基础。
本文系统讲解AI应用开发中Prompt与Context的协同技巧。Prompt作为AI的"行动指南",包含任务目标、约束规则;Context作为"决策依据",提供多源信息。二者协同需遵循Context为Prompt服务、Prompt调用Context的原则。通过Dify平台实操,展示Context分层管理、Prompt模块化设计和工作流编排方法,助力开发者打造高精准AI应用,避免常见开发误区,实现
文章探讨了大模型训练的两大扩展定律:预训练"更大"和后训练"思考更久"。尽管过去一年强化学习备受关注,但预训练并未消亡,反而将在2026年迎来复兴。作者强调,评估AI不应仅看推理步骤数量,更应关注单次前向传播质量(潜在推理能力)。预训练仍是进步核心驱动力,这将影响数据中心扩建和AI硬件发展方向,对投资者和开发者都有重要启示。
价值对齐漂变的本质是智能体的价值体系与人类价值体系之间的偏离程度不断增大的过程,要精准刻画这一过程,首先需要构建价值空间的度量衡,实现价值体系的量化表征与偏离程度的精准计算。价值空间是一个抽象的高维空间,其中每个点代表一种具体的价值状态,人类价值体系与智能体价值体系分别对应价值空间中的两个点集(或分布)。价值对齐漂变的程度,即两个点集(或分布)之间的距离变化。
在很多场合,C语言是唯一的选择现代编程语言在语法上差异很小,基本都和C接近语言的能力、适用领域主要是由库和传统决定的。找零钱问题:100 - (用户输入)物品的价格 = 找你的钱有办法输入数字;有地方放输入的数字;输入的数字参与计算。int main()//定义了整形变量price,类型是int,初始值=0printf("请输入金额(元):");printf("找您%d元。return 0;变量是
在本科阶段的学术探索中,论文写作既是检验学习成果的试金石,也是通往科研殿堂的第一步。然而,面对浩如烟海的文献、错综复杂的逻辑构建以及精益求精的语言表达,许多学子常常感到力不从心。幸运的是,随着人工智能技术的飞速发展,一款名为书匠策AI的科研工具应运而生,它以其独特的功能和强大的能力,为本科论文写作提供了前所未有的支持。本文将深入剖析书匠策AI在本科论文写作中的四大隐藏技能,带你领略学术写作的新纪元
华为大模型通过算力支持、行业应用、开发赋能和技术创新四个方面重塑生产力:1) 提供高性能昇腾AI算力平台;2) 在气象、铁路、金融等行业实现智能升级;3) 通过ModelArts Studio降低开发者门槛;4) 创新RLFusion和StaleSync技术提升训练效率。同时构建大模型生态体系,推进产学研用结合,为各行业提供高效解决方案。
当英伟达在2018年发布Tesla V100时,深度学习界迎来了一场寂静的革命:混合精度训练技术(FP16)。这项技术如同打开了一道魔法门,让原本需要数周的训练任务在几天内完成,将GPU利用率推向前所未有的高度。
文章摘要: BERT和GPT是两类主流预训练模型,BERT擅长文本理解任务(如分类、问答),采用双向Transformer编码器,通过掩码语言模型(MLM)和下一句预测(NSP)预训练;GPT专精文本生成,基于单向Transformer解码器,通过自回归语言建模预训练。实践对比显示:BERT在中文分词(WordPiece)和句间关系判断表现优异,微调后分类准确率达100%;GPT在英文续写任务中生
多模态Transformer面临的核心挑战是不同模态(图像、文本、语音)序列长度差异巨大。主流解决方案有三种:1)统一长度:通过下采样或补齐使序列一致,但会丢失信息或浪费算力;2)跨模态对齐:各模态独立编码后通过cross-attention对齐,计算效率高,如CLIP、BLIP等;3)动态建模:根据内容相关性自适应选择代表性token,平衡算力和精度。Transformer作为通用模态接口,将一
文章系统梳理了AI、ML、DL、LLM的递进关系,通过产品经理视角解释了三者的核心原理区别:ML依赖特征工程的手工作坊,DL是端到端学习的自动化流水线,LLM是基于预训练的通用能力底座。文章介绍了各自应用场景及演进脉络,指出大模型标志着AI从专用智能向通用智能的过渡,其发展得益于算法创新、数据爆炸和算力飞跃三大驱动力。
参与 谁是下一个“AI”跃人 -AI体验推介活动,赢取千元算力券!(https://www.scnet.cn/home/subject/modular/index270.html)活动名称主题:国家超算互联网「AI跃升季」:谁是下一个“AI”跃人 - AI算力体验活动。这次活动让我们离大模型更近了一点,强烈推荐大家去参加,社区群也很活跃。位置3修改从8Bit修改为4Bit(这里不清楚为什么)邀请方
摘要: 分布式系统通过多台计算机协同工作,突破单机性能、存储和可用性限制,对外提供统一服务。其核心特征包括多节点协同、资源共享、无全局时钟和故障独立性,常见架构有客户端-服务器、微服务、分布式存储/计算等。主要挑战源于网络不可靠(延迟、分区)与节点故障,需解决数据一致性、容错和负载均衡问题,采用Raft、副本机制等技术实现高可用。典型技术栈涵盖gRPC、Kafka、Kubernetes等,适用于高
ASAP (Aligning Simulation and Real-World Physics) 是一个创新的机器人学习框架,专门针对人形机器人的全身敏捷技能训练。该项目通过精确对齐仿真环境与真实世界的物理特性,实现了从基础运动跟踪到复杂全身动作的高效学习。框架支持IsaacGym、IsaacSim和Genesis等多种仿真环境,提供完整的训练管道和评估工具。
【能源与人工智能交叉】基于多任务学习的风电功率预测系统:MATLAB实现基于多任务学习(MTL)进行风电功率预测的详细项目实例(含完整的程序,GUI设计和代码详解)_多变量时间序列预测MATLAB代码资源-CSDN下载https://download.csdn.net/download/xiaoxingkongyuxi/90206545【能源与人工智能交叉】基于多任务学习的风电功率预测系统:MAT
最近的研究表明,大型预训练视觉-语言模型(VLMs)如 CLIP,在从不同数据集中检测工业缺陷时具有强大的泛化能力,但它们的方法过于依赖于手工制作的缺陷文本提示,这使得它们难以在其他应用中泛化,例如医疗影像异常或自然图像中的语义异常。在本研究中,我们提出了通过少量正常图像作为样本提示,快速训练一个 GAD 模型,以便在多样化的数据集上进行异常检测。为此,我们引入了一种新方法,学习一种上下文残差学习
原文:towardsdatascience.com/learn-shiny-for-python-with-a-puppy-traits-dashboard-cc65f05e88c4。
2026年Agentic AI十大趋势:重塑13万亿美元劳动力市场 摘要:2026年AI智能体将迎来关键发展拐点,十大趋势包括:记忆机制突破实现数周级任务连贯性;计算机操作能力成为标配;多模态交互显著提升感知能力;多Agent协作架构成为主流;系统架构向层级化演进;人机协同进入深度整合阶段;企业应用渗透率突破30%;行业专用Agent加速涌现;商业模式面临重构;治理与安全问题凸显。这些趋势将推动A
RAG(检索增强生成)技术通过"检索-整合-生成"三步骤,让AI在回答前先查询外部知识库,有效解决大模型"幻觉"和知识过时问题。该技术无需重新训练模型,只需更新知识库即可获取最新信息,已广泛应用于智能客服、医疗诊断等领域,是兼顾准确性与成本效益的实用方案。
中国AI初创公司Manus被Meta以40-50亿美元高价收购,9个月估值突破50亿美元,8个月后ARR达1亿美元,创历史记录。文章指出AI是当前全球科技资本最火爆风口,Meta在AI Agent工程方面有优势但护城河较弱。作者认为从芯片到大模型的竞争本质是海外华人与大陆华人的竞争,我们不会输。AI应用在2026年可能承接芯片热潮,通信ETF今年以来涨幅128%,光模块等产业链受益于全球资本开支激
专业领域应用大模型应优先选择微调而非从零训练。微调能以更低成本、更高效率将专业知识和经验注入已有通用模型,重塑其决策边界和专业角色意识。从零训练不仅成本高昂,还会导致模型缺乏专业判断能力,且重复人类认知学习过程。专业大模型的竞争核心在于经验可复制性,微调通过固化专家经验、形成组织知识资产,是实现这一目标的有效路径。产业分工也决定了基础模型与专业微调应分层发展,企业资源应重点投入高质量微调样本体系、
2025年AI领域五大核心突破:1) 顶尖模型训练成本降至500万美元,门槛大幅降低;2) 基准测试"跑分至上"现象凸显,实际应用能力比排行榜更重要;3) 模型进步转向"更聪明"的推理策略和工具调用,而非单纯扩大规模;4) AI成为人类工作的"国际象棋搭档",赋能而非替代;5) 私有数据成为核心竞争力,垂直领域专业化模型将崛起。这些趋势表
学习
——学习
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net