登录社区云,与社区用户共同成长
邀请您加入社区
文章介绍了大模型的定义、特点、发展历程、分类及微调技术。大模型具有大规模参数和涌现能力,可分为语言、视觉和多模态模型,以及通用、行业和垂直三个层级。微调技术能提高模型在特定任务上的性能,是应用大模型的重要方法。大模型作为AI核心技术,将在未来展现巨大潜力。
文章详细介绍了从零开始构建大语言模型的四个阶段:首先进行随机初始化,然后通过预训练让模型掌握语言基本规律,接着通过指令微调使其具备对话能力,最后利用偏好微调和推理微调进一步优化模型性能。这一完整流程使模型从初始的"胡言乱语"状态逐步进化为能够理解指令、生成高质量回答的智能系统,适用于各种实际应用场景。
BASE 是 Basically Available(基本可用)、Soft state(软状态)、Eventual consistency(最终一致性)三个短语的缩写。BASE 理论是对 CAP 理论中 AP(可用性和分区容错性)方案的延伸,强调在分布式系统中,通过牺牲强一致性来换取高可用性和分区容错性,从而实现系统的可扩展性和高性能。
2026年软件测试领域AI应用深度分析 摘要:AI已成为软件测试的核心驱动力,市场年增长30%,自动化覆盖率达70%。本文探讨四大焦点:1)AI工具效率与局限性,虽提升测试速度与覆盖率,但复杂场景处理不足;2)人类测试员角色演变,从执行者转向策略家;3)伦理问题,包括偏见与责任归属;4)实际应用案例与未来挑战。结论指出需构建人机共生模式,AI处理重复任务,人类专注创新与风险管理,共同推动测试生态发
摘要:Xiaothink-T7-ART是一款轻量级古诗生成AI模型,仅需消费级CPU即可运行。该模型采用创新的多专家协同架构,通过7000万参数和400MB训练数据实现接近SOTA的创作水平,支持风格仿写、诗句续写等多种创作模式。其特点包括:硬件要求低(Intel Core i7即可)、生成可控性强、文学性突出,适用于文学创作辅助、教育应用等场景。模型已开源,无需GPU支持,让古诗创作AI技术真正
本文精选软件测试领域社区问答精华,针对2026年行业趋势提供实用指南。内容涵盖测试基础概念(黑盒/白盒测试)、自动化实战(框架选型与维护)、手动测试技巧(探索性测试方法)及职业发展路径。重点推荐Cypress、AI测试工具等新兴技术,强调测试金字塔模型和Shift-Left协作模式。为测试从业者提供从基础到进阶的系统化解决方案,包含工具推荐、学习资源和成功案例,帮助提升测试效率与职业竞争力。
2026年自动化测试将迎来五大变革趋势:无代码平台崛起,降低测试门槛;AI深度集成实现智能测试生成与预测;持续测试融入DevOps流程;测试数据管理智能化;云测试成为主流。这些转变推动测试从"编码密集型"向"业务导向型"转型,测试工程师需掌握新工具和业务分析能力。未来测试将更智能高效,成为质量保障和创新催化剂。
摘要: 本文深入剖析10个主流API网关的核心设计模式,聚焦负载均衡、熔断降级和可观测性三大机制。针对AI应用场景,重点解析PoloAPI Gateway的智能韧性设计,包括成本感知路由、多级熔断和立体监控体系。对比Kong的插件化架构、Envoy的动态云原生适配等方案差异,提出选型建议:快速上线选SaaS方案(如PoloAPI),深度定制选开源方案(Kong/APISIX),云原生选Envoy,
有段话特别戳中人心:国家担心的不是“AI让你失业”,而是“你的转型速度,跟不上AI的发展速度”。深以为然。对于普通人乃至程序员而言,想抓住AI时代的机遇,找准前行方向,读懂官方释放的趋势信号固然重要,但更关键的是——别只停留在“看懂”,更要落地到“行动”。如果你已经意识到AI的重要性,现在就是做好准备的最佳时机。这三点认知,想先和大家分享,希望能帮你少走弯路:第一,别心存侥幸,觉得“AI离自己的行
未来三年,不懂LLM的程序员将面临降维打击。”腾讯混元实验室负责人的这句预判,在技术圈引发了持续至今的热议。而2026年的职场现实,正不断为这句论断提供新的注脚:传统CRUD岗位因AI代码生成工具的普及持续萎缩,不少基础开发岗面临优化风险;反观一批30+资深程序员,却凭借大模型相关技能实现薪资暴涨70%,成功跃升为团队核心技术骨干,成为技术迭代浪潮中的“弄潮儿”。如今,全球大模型产业规模持续扩大,
文章系统介绍了语言嵌入模型(包括度量学习、BERT NSP和Sentence-BERT)、向量数据库技术(如KD-Tree、LSH、IVF和HNSW算法)以及检索增强生成(RAG)的基本概念和实现流程。通过详细讲解从文本嵌入到向量检索,再到大模型生成增强的全过程,帮助读者理解如何构建高效的RAG系统,提升大模型的知识准确性和回答可靠性。
RAG AI 智能体不仅仅关乎检索——它关乎决策。无论是路由查询、验证法律文件,还是实时调整医疗工作流程,这些 AI 智能体正在重塑 AI 在商业以及更广泛领域的运作方式。
这不是你的问题,这是整个行业的问题。当前的AI学习路径出现了严重的断层——市面上95%的教程都在教你怎么调用API、怎么用Ollama部署模型、怎么用LangChain快速上线应用。给它一句话"猫坐在____上",模型猜"垫子",然后对照原文发现答案是"垫子",于是它知道自己猜对了。人类阅读时,会自然地给不同信息分配不同的"注意力权重"——重要的记住,不重要的忽略。当你在这个空间里做"king -
本文深度剖析Kubernetes与微服务的融合架构,通过真实案例揭示关键问题与解决方案。某电商因JVM与K8s内存模型不匹配导致雪崩事故,损失惨重。文章从四大维度展开:1)调度协同,强调Pod作为原子单元及资源配置陷阱;2)三层弹性体系(HPA/VPA/Cluster Autoscaler)及自定义指标实践;3)三类健康探针的精准分工与配置模板;4)应用感知与平台感知的协同方案。特别指出JVM在容
本文全景分析了AI大模型的发展现状与趋势,涵盖定义、分类、发展历程及完整产业链。大模型产业分为基础层、模型层、应用层和支撑服务四大板块,市场前景广阔,预计2028年国内规模达211亿元。全球呈现多极化竞争格局,中美欧等地区通过技术突破与政策扶持争夺主导权。大模型正从参数规模竞争转向场景渗透率与推理成本控制的新阶段。
ARCore商业级应用开发核心技术 ARCore作为谷歌AR开发平台,通过运动追踪、环境理解和光线估计三大核心技术实现虚拟与现实的无缝融合。运动追踪利用IMU数据和图像特征点计算设备位姿,环境理解检测水平面用于虚拟物体放置,光线估计则提升视觉真实感。商业项目开发需在Unity中配置ARCore XR Plugin和AR Foundation包,并通过会话管理器进行设备兼容性检查、AR会话初始化和状
本文系统介绍大模型概念与分类,强调开源模型对普通人的商业价值。详细解释多模态大模型以大语言模型(LLM)为基座构建的特点:LLM作为"大脑"负责思考推理,多模态组件作为"眼睛耳朵"处理图像声音等数据。大模型发展迅速,以"周"为单位更新,值得关注。
本篇重点分享了网络架构及其典型实现Swarm架构的特点,并结合代码示例展示了如何利用langgraph-swarm库构建具备动态移交能力的智能体协作网络。
本文介绍了Unity3D游戏开发中场景资源动态加载的数学优化方法。通过建立场景转移概率矩阵,采用马尔可夫链模型预测玩家行为,实现智能预加载策略。代码示例展示了如何构建转移概率矩阵,记录场景访问数据,并基于概率动态调整加载优先级。智能场景加载器根据当前场景预测可能进入的下一个场景,异步预加载部分资源(如30%),同时定期清理不必要的预加载资源,从而优化加载效率,减少玩家等待时间。这种数学驱动的资源管
Unity资源管理系统优化实践 本文系统阐述了Unity资源管理系统的核心机制与工程化实践。主要内容包括: 编辑环境资源处理:深入分析Unity底层资源加载原理,采用图论模型(DAG)管理资源依赖关系,时间复杂度O(V+E)。内存管理基于引用计数(RC=Σ引用i)和标记清除算法(DFS,O(n))。 商业级资源加载器实现:提供完整的AdvancedResourceLoader实现方案,支持: 多种
商业级音频系统实现摘要 本章深入解析Unity多媒体系统,重点探讨音频处理与视频渲染的商业级实现方案。在音频系统部分,详细分析了数字信号处理核心技术,包括采样定理(奈奎斯特频率≥2倍信号最高频率)和比特率计算公式(采样率×位深×通道数)。商业级音频分析器实现包含: 多格式支持(WAV/PCM无损、MP3/OGG有损) 专业音频参数分析: 基础参数:时长/采样率/位深/声道数 质量指标:比特率/压缩
如今大模型时代,深刻重塑了很多行业的业务形态与技术架构。从智能客服到内容生成,从代码辅助到推荐系统,大模型正以前所未有的速度渗透到互联网技术的各个领域,成为驱动创新的核心引擎。其强大的泛化能力和上下文理解水平,使得许多过去需要复杂工程与规则设计的任务,如今只需一次“提示”即可完成。然而,尽管大模型展现出惊人的通用能力,对大多数开发者和业务方而言,它仍是一个“黑盒”——我们只能调用其预训练时所掌握的
大模型指参数量超10亿、具备跨任务泛化能力的深度学习模型(如NLP、CV、多模态),通过海量数据训练实现复杂任务处理。
如果你是一位深度参与AI应用开发的工程师,你一定经历过这样的场景:项目需要集成多种AI能力——需要调用OpenAI完成对话、需要Exa实现搜索、需要专门的服务进行代码安全检查。一个统一、标准、高效的AI集成新时代,正等待着那些有远见的开发者和团队去探索和创造。"code": {"type": "string", "description": "要扫描的代码"},作为这一趋势的先行者,不仅提供了技术
2026年CES展会标志着AI技术进入"物理执行阶段",从数字世界迈向现实应用。PhysicalAI概念兴起,AI系统开始具备感知、决策和执行闭环能力。技术发展呈现三大趋势:算力架构转向系统级效率优化,机器人技术面临工程化挑战,云计算成为关键底层支撑。开发者需转型为具备AI、工程和系统整合能力的复合型人才。当前技术发展正回归解决实际问题的本质,标志着行业进入成熟期,对技术人能力
本文系统梳理了大模型部署技术的演进历程:从早期静态批处理到Flash Attention解决注意力机制效率问题,再到Continuous Batching与PagedAttention优化调度与内存管理,Chunked Prefill解决流水线阻塞,PD分离架构成为主流,直至最新的AF分离趋势。整个技术演进通过软硬件协同设计,持续优化分布式系统在大模型推理中的综合表现,体现了大模型部署从简单到复杂
为了应对大学院考试,我们来学习相关人工智能相关知识,并且是基于相关课程。使用课程为MIT的公开课。通过学习,也算是做笔记,让自己更理解些。知识一点点记录吧,最后应对考试,打下基础。
在 Java 快速开发领域,若依(RuoYi) 毫无疑问是很多企业的首选脚手架。它就像一把瑞士军刀,开箱即用。但很多开发者在使用时,往往陷入了“舒适区陷阱”:❌ 只会点“下一步”生成单表 CRUD,遇到**“主子表(一对多)”**这种稍微复杂的业务就卡壳;❌ 需求一变,不知道改 Controller 还是 Service,甚至搞不清 ruoyi-common 和 ruoyi-system 的区别;
从事计算机视觉落地开发多年,安防领域的摄像头故障检测是高频刚需场景。传统的人工巡检不仅效率低下、漏检率高,还无法做到7×24小时不间断监测,一旦摄像头出现遮挡、移位、模糊等故障,很容易形成安防死角。近期完成了一套基于YOLOv5的完整监控摄像头异常检测项目,从数据集制作、模型训练调优、可视化UI开发到打包部署全流程闭环落地,同时也深度研究了YOLOv8的核心架构革新,发现其设计思路对实际项目优化极
摘要:本文探讨了从微服务架构向智能体(Agent)架构的转型趋势。传统微服务强调"高内聚、低耦合"的确定性调用,而Agent架构则转向基于意图的动态协作。架构颗粒度呈现两极分化:底层微服务更细更稳,作为Agent的执行工具;上层业务Agent更粗更智,实现端到端业务能力。这种转变要求架构师从"机械师"变为"数字牧羊人",通过Prompt和
摘要 .NET Aspire框架提供了完善的健康检查机制,确保分布式应用稳定性。核心功能包括: 内置HTTP健康检查,通过WithHttpHealthCheck方法实现服务可用性监控 自动依赖管理,使用WaitFor确保服务按正确顺序启动 自定义健康检查实现,通过IHealthCheck接口验证数据库等外部依赖 预制健康检查支持,针对常见服务提供优化实现 健康检查分为Liveness、Readin
本文围绕利用AI架构缩小城乡教育差距,详细阐述了乡村学校智能化的四个关键设计:个性化学习支持系统、智能教学资源整合平台、远程协作教学架构以及智能教师辅助工具。从问题背景与动机出发,介绍了相关核心概念与理论基础,给出了环境准备、分步实现、关键代码解析等内容,并对结果验证、性能优化、常见问题及未来展望进行了探讨。通过这些设计与实践,有望为乡村学校带来更优质、个性化的教育资源,逐步缩小城乡教育差距。希望
2026 年的钟声已经敲响。对于管理者而言,检验 AI 战略是否成功的标准,已经变了。你的销售额,有多少是 AI 直接谈下来的?你的客户服务,有多少是 AI 独立闭环解决的?AI Agent 已经不再满足于在企业的边缘打打下手。它已经拿起了手术刀,切入了企业的**核心业务流.
📖 简介Cloud NativeAssistant Agent 是一个基于 Spring AI Alibaba 构建的企业级智能助手框架,采用代码即行动(Code-as-Action)范式,通过生成和执行代码来编排工具、完成任务。它是一个能理解、能行动、能学习的智能助手解决方案,可帮助企业快速构建智能答疑客服、系统诊断、运维助手、业务助理、AIOps 等智能体。仓库地址:spring-ai-al
Agent并不需要复杂的黑盒魔法,只需要清晰的指令和合理的流程编排。对于想要深入理解Agent原理,或者觉得现有框架过于臃肿的开发者来说,这个库绝对是首选的学习和开发模板。学术圈的一只沙狐,致力于为你筛选最硬核的技术干货。赶紧去Github Clone下来跑跑看吧!
AI Agent与Task Bot的技术断层与未来方向 当前AI Agent体验不佳的根本原因在于我们正处于技术断层期。相比10年前基于规则的任务型机器人(Task Bot)在单一任务上的高效稳定,现代AI Agent基于概率推理系统,执行速度慢且规划质量差。然而,AI Agent的核心创新在于处理未知任务和模糊指令的能力,实现了控制流的动态生成。 未来的发展方向在于Agentic Workflo
港股即将迎来国产大模型双雄上市。智谱华章将于1月8日以每股116.20港元发行3741.95万股H股;次日,Minimax将以每股165港元发行2538.922万股。两大AI巨头接连登陆港股,标志着国产大模型产业进入新阶段,或将引发AI技术新一轮创新浪潮。
在深入探讨具体的设计模式之前,我们首先需要明确AI Agent(智能体)的本质。严格来说,当前我们讨论的AI Agent主要是指LLM AgentLLM AGENT = LLM + 记忆 + 规划 + 工具使用LLM(大语言模型):作为系统的“大脑”,负责理解、推理与内容生成,是所有智能行为的核心驱动力。记忆(Memory):赋予Agent状态持续性,包括短期记忆(如当前的对话上下文)和长期记忆(
过去一年里,智能体强化学习(Agentic RL)进展很快:会浏览网页、会写代码并执行、能调用复杂工具链的系统不断涌现。但随着能力提升,一个更隐蔽、也更致命的限制开始显现——不是算力,也不是数据,而是。与静态预训练语料不同,强化学习所需的“经验”必须靠交互采集。而真实环境天然。当智能体对经验的需求增长速度超过现实世界能提供的速度时,就会出现所谓的:智能体需要的经验越来越多,但世界能给的越来越少。要
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大
ReAct 这个词,是Reasoning(推理)和Acting(行动)的缩写。如果说CoT(思维链)是让 AI 学会“三思而后行”,那么ReAct就是让 AI 学会一边思考,一边干活。这听起来很抽象?我们用一个生活中的例子来打比方。想象一下,你就是福尔摩斯。当你接到一个案子(用户问题)时,你不会坐在椅子上干想(纯 LLM 生成),你也不会像无头苍蝇一样到处乱撞(纯脚本执行)。你的工作流是这样的:1
MIT、Samsung 以及 Prime Intellect 等先锋团队,正从不同维度共同逼近同一个终局。
Agent训练不一定需要完美复现真实环境,而是需要足够多样、信息丰富且因果可信的交互数据。为此,它构建了一个“合成健身房”,通过三大组件协同工作:如图所示,DreamGym 以种子任务为起点,通过经验模型与Agent的交互生成轨迹,并结合课程任务生成器动态调整任务难度,形成一个闭环训练系统。
AReaL 是一个面向算法设计,以开发效率和灵活性为核心的强化学习框架。它通过极简的 API 和可扩展的插件机制降低用户的学习曲线和使用心智负担,让开发者聚焦于算法本身而非系统细节,具备大规模扩展、无侵入 Agentic RL、故障感知与自恢复等能力。在蚂蚁内部,作为 ASystem 的关键用户层技术,我们使用 AReaL 支持了 Ring-1T 万亿参数 MoE 模型的 Reinforcemen
8、第8层:智能体编排层使智能体能够执行工作流、与其他智能体交互,并在工具和环境中进行协调。包括 AgentScope Java、Spring AI Alibaba、LangGraph、Autogen、LlamaIndex、Swarm、Eino 等。9、第九层:智能体认证层处理智能体在可信生态系统内的安全身份、访问控制和基于角色的权限。包括 AWS AgentCore Identity、Azure
RAG 全称是 Retriеval-Augmented Generation(检索增强生成),它是一种结合了信息检索与文本生成的技术架构。简单来说,就是让大模型在回答问题前,先去“查阅资料”,然后基于查到的内容进行回答。工作流程:用户提问 → 向量检索 → 拼接提示 → 生成回答。这种模式有效缓解了大模型“胡说八道”(幻觉)的问题。
摘要: 上下文工程是优化大语言模型(LLM)性能的关键技术,通过精准控制输入信息的时间、形式和内容来提升AI表现。其核心包含六种上下文类型(指令、示例、知识等),并通过四个阶段实现:编写(存储于记忆或状态)、读取(从工具/数据库获取)、压缩(去除冗余)和隔离(分割上下文以专注任务)。该技术类比CPU与RAM的关系,强调高效“编程”上下文窗口。学习大模型AI分为四个阶段:初阶应用(理解基础)、高阶应
架构
——架构
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net