登录社区云,与社区用户共同成长
邀请您加入社区
25年12月来自华中科技和小米电动的论文“DriveLaW: Unifying Planning and Video Generation in a Latent Driving World”。世界模型对于自动驾驶至关重要,因为它们能够学习场景随时间演变的方式,从而应对现实世界中长尾分布的挑战。然而,目前的方法将世界模型的作用限制在有限的范围内:它们在看似统一的架构中运行,但仍然将世界预测和运动规
25年12月来自清华、香港中文大学、Voyager Research和滴滴出行的论文“ColaVLA: Leveraging Cognitive Latent Reasoning for Hierarchical Parallel Trajectory Planning in Autonomous Driving”。自动驾驶需要从复杂的多模态输入中生成安全可靠的轨迹。传统的模块化流程将感知、预测和
成员推断攻击已成为敏感数据训练模型的核心隐私威胁,其防御是保障AI技术在金融、医疗等领域合规应用的关键。本文通过分析攻击原理,提出了基于OR-MIA、LIRA的鲁棒攻击方法,可为隐私漏洞评估提供精准基准;同时,深入解析了差分隐私、对抗训练等防御机制的实现逻辑,给出了敏感场景的落地策略。未来研究可聚焦三个方向:1. 大模型专用防御机制:针对LLM等复杂模型,设计轻量化的差分隐私与对抗训练方法,降低防
大模型微调技术解析:从预训练到高效适配 本文系统阐述了大模型微调的核心原理与技术实现路径。首先通过"通识教育-职业培训"的类比,揭示了预训练与微调的协同关系;随后深入拆解了全参数微调与参数高效微调(PEFT)两大技术路线,包括LoRA、Adapter等前沿方法的实现机制;最后从数学角度解析了梯度下降、损失函数等优化基础。特别强调了大模型特有的正则化策略和优化器选择要点,为不同场
摘要 大模型微调是通过调整预训练模型参数,实现从通用能力到特定任务适配的技术过程。其核心原理包括:1) 复用预训练获得的多层次特征表示;2) 在预训练参数邻域内进行局部优化;3) 通过任务损失函数引导参数调整。关键技术分为全参数微调和参数高效微调(PEFT)两类:前者更新所有参数但计算成本高,后者如LoRA、Adapter等方法通过低秩分解或插入小模块实现高效调优。微调过程涉及复杂的梯度传播机制和
摘要: 2015–2019年,检索与生成技术相互独立,RAG概念尚未形成。2020年Facebook提出RAG框架,开启端到端融合时代,准确率达70–80%。2021–2022年,稠密检索和迭代优化推动准确率提升至90%,华为、阿里等中国企业加速布局。2023年后,多模态VLA(视觉语言意图)RAG崛起,量子鲁棒和自进化技术实现>99%准确率,华为、DeepSeek等引领全球创新。截至202
对大型语言模型 (LLM) 中高质量数据的快速增长的需求加剧了对可扩展、可靠且语义丰富的数据准备管道的需求。然而,当前的实践仍然以临时脚本和松散指定的工作流程为主,它们缺乏原则性的抽象,阻碍了可重复性,并且对模型在环数据生成的支持有限。为了应对这些挑战,我们推出了 DataFlow,这是一个统一且可扩展的 LLM 驱动的数据准备框架。DataFlow 采用系统级抽象设计,可实现模块化、可重用和
业务痛点电商平台每月新增1000+个商品品类(比如2023年的“围炉煮茶装备”、2024年的“AI生成服饰”);传统模式下,标注团队需要全量标注新增商品(每月10万条),成本高达50万元;模型上线后,新品类的分类准确率仅60%,导致推荐系统失效、用户投诉。目标:用主动学习将标注成本降低50%,同时保持商品分类准确率≥90%。主动学习的效果取决于标注的质量,而标注质量取决于业务团队的参与。和电商运营
摘要:生成式引擎优化(GEO)正推动人机关系从单向交互迈向深度共生,经历规则适配、智能优化到全域战略的三阶段演进。GEO改变了传统SEO的流量逻辑,使互联网入口从"流量入口"转变为"认知入口",品牌需通过结构化知识植入AI认知图谱。其核心差异体现在目标、内容形态等六维度,构建了品牌-AI、用户-AI和创作者-AI的三重共生关系。实践路径需品牌、AI平台和用户
文章系统介绍了RAG(检索增强生成)技术的优化方法,围绕"检索器→索引与分块→生成器"三大核心环节展开。详细阐述了混合检索、两阶段检索、语义分块、Prompt工程等关键技术,以及向量库调优、数据优化等系统级优化方案,为企业落地RAG系统提供全面指导,旨在解决检索不准、不全和生成不稳等问题,提升AI应用性能。
文章阐述了GPU系统设计的五个层次:模型定义、并行化、运行时编排、编译与优化、硬件层面。核心观点是,GPU工程师不应一开始就专注于内核工程,而应先理解整个系统运作逻辑。不同层面有不同瓶颈,需从顶层开始,只在必要时深入底层。真正的行业缺口不是工具使用技能,而是系统设计能力,掌握这种能力才能有效解决大模型训练和推理中的性能问题。
文章解析了AI技术从RAG到AI记忆的演进历程,展示了AI如何从静态工具转变为具备长期记忆和持续学习能力的自适应伙伴。同时详细介绍了AI工程师必备的8项核心技能,包括提示词工程、上下文工程、模型微调等,为构建高效AI应用提供了全面技术指导。
摘要:本文探讨AI技术在PCB设计领域的应用,通过构建"需求解析-智能设计-深度校验"三大技术闭环,实现90%以上传统工程师核心画图职能的自动化覆盖。以3×3 LED矩阵设计为例,AI方案较人工设计效率提升86%,缺陷率降低80%以上,年成本减少75%-88%。研究表明,AI凭借自然语言理解、端到端自主决策等技术优势,可有效解决传统PCB行业效率低、精度差、成本高等痛点,推动行
MiroThinker采用单智能体ReAct框架,以“思考(T)-行动(A)-观察(O)”三元组构成交互轨迹,形成迭代循环。图左侧三大工具:执行环境(执行Shell命令和Python代码等)、文件管理、信息检索:包含谷歌搜索工具(返回结构化结果)和网页抓取工具(结合轻量LLM提取任务相关信息)。
SARSA是一种基于在线策略的强化学习算法,其名称来源于"状态-动作-奖励-状态-动作"的学习序列。该算法通过Q值迭代更新,使智能体在环境中通过试错法学习最优策略。核心流程包括Q表初始化、ε-贪婪策略选择动作、执行动作获取奖励、更新Q值并选择新动作。与Q学习相比,SARSA采用在线策略更新,收敛较慢但更稳定,适用于医疗、交通管理等安全性要求高的场景。两者主要区别在于策略类型、更
RAG技术的核心功能是将外部知识库与生成模型无缝融合,使 AI 在回答问题时能够:1)精准定位相关知识片段;2)基于可靠来源生成回答;3)自动引用知识出处。这种机制在客服问答、技术支持、法规查询等场景中表现尤为突出。例如,当用户询问“如何申请退货”时,RAG系统会先检索商品流转流程知识库,然后基于检索到的内容生成步骤清晰的回答。DeepSearch在RAG基础上实现了检索-推理协同优化,专为处理复
系统的输出仅取决于预先的设定或当前的输入,而不依赖于系统的反馈结果。
最后我们再来回顾一下RAG的整体流程,首先外部文档进行分片,便于后续存储和检索,之后把分片之后的文档输入embedding模型,embedding模型把他们编码成固定长度的向量存储到向量数据库中,当用户提出问题时,会用相同的embedding模型把问题编码成固定长度的向量,之后把问题向量和向量数据库中所有向量进行比较,进行召回和重排之后得到相关的内容,最后,把用户最开始的问题和得到的相关内容合并一
《与AI有效沟通的方法与实践》 本文通过"用大模型学习大模型"的案例,展示了如何通过逐步引导和反馈,让AI输出更符合需求的答案。核心方法是运用"乔哈里窗"模型扩大共识区,通过不断补充背景信息缩小AI盲区。文章强调"知之为知之"原则的重要性,建议对AI输出进行验证。作者分享了AI能力提升的复合框架:教育学+思维模型+AI技术+工具应用,并指
REINFORCE算法是一种基于蒙特卡洛的策略梯度强化学习方法,由Williams于1992年提出。该算法通过采样完整情节轨迹,计算回报梯度并更新策略参数来优化智能体决策。其优势在于无需环境模型、实现简单且能处理高维动作空间,但存在梯度估计方差大和样本效率低的缺点。作为无模型方法,REINFORCE通过直接最大化期望累积奖励来训练智能体,是策略梯度算法中的基础方法。
好啦,以上就是关于DP、PP、TP、EP等并行训练方式的介绍。大家都看懂了没?并行计算方式其实非常复杂,刚才我们只是做了最简单的介绍。但在真实工作中,开发者无需了解具体的实现细节,因为业界提供了例如DeepSpeed(微软开源,支持3D并行+ZeRO内存优化)、Megatron-LM(NVIDIA开源,3D并行的标杆)、FSDP等开源软件,能够让开发者直接进行大语言模型训练。
摘要:太空食品营养配比软件是保障宇航员健康的关键系统,其验证面临微重力、资源限制等独特挑战。测试需分阶段实施:单元测试覆盖核心算法(如JUnit/Pytest)、集成测试验证模块交互(Postman)、系统测试模拟太空环境(Selenium)。推荐AI辅助工具(Testim.io)和风险驱动测试(OWASP ZAP),并通过案例表明早期测试介入可降低缺陷率。随着商业太空旅行发展,自动化与跨学科协作
年关将至,街头巷尾的年味儿越来越足,但职场人的就业市场,却先一步“慢”了下来。不少想换工作的程序员和职场人都在心里盘算:“再熬两个月就过年了,年后春招再找吧,现在折腾没必要。打开BOSS直聘、智联等招聘软件翻一圈就懂了——除了那些挂了大半年、投了也没回应的“僵尸岗位”,新增的有效招聘需求肉眼可见地缩减,整个就业市场都透着一股“歇年”的慵懒劲儿,尤其是技术岗的新增缺口,比往年同期少了不少。
当模型在训练集上达到95%准确率,却在真实临床环境中因数据噪声或分布偏移导致性能骤降时,医疗决策将面临严重风险。LightGBM的早停机制,正是实现这一目标的隐形基石——它让模型在数据洪流中“稳住”,而非在过拟合的浪尖上“漂移”。当每一份医疗报告都因早停而更可靠,AI才真正成为医生的“智慧伙伴”,而非风险的放大器。在医疗人工智能的浪潮中,分类模型(如疾病筛查、风险预测)的性能常被过度关注,却忽略了
不少刚入门大模型的开发者和小白,很容易混淆AI Agent与Agentic AI这两个高频概念。近期康奈尔大学发布的研究报告,精准厘清了二者的核心边界:AI Agent是基于LLM构建的单任务工具,仅具备有限自主性;而Agentic AI是多智能体协同系统,核心优势在于能自主完成目标拆解-任务分配-结果整合的全流程。简单来说,前者擅长搞定高频重复的单一任务,后者则能攻克高复杂度的动态业务流程。
最近逛求职论坛时,刷到一个很有参考价值的帖子:一位求职者分享了自己的求职逆袭经历——原本瞄准Java后端开发岗,却在求职过程中敏锐察觉到市场风向变化,果断调整策略转投AI应用开发岗,结果收获了远超预期的回应。这位求职者用实际经历验证了一个关键结论:当前AI应用开发岗正处于“缺人状态”,不仅对双非学历背景的求职者友好,薪资待遇更是显著优于同级别Java岗位。
2025年已悄然落幕,这一年有人满载收获、定格高光时刻,也有人带着未尽的目标奔赴2026新征程。而在AI领域,2025年无疑是里程碑式的一年——技术突破密集涌现、现象级产品层出不穷,彻底重塑了大众对AI的认知边界。若用关键词定义AI的发展阶段:2023年是“启蒙尝鲜年”,ChatGPT的横空出世让大众首次领略生成式AI的魅力;2024年是“落地探索年”,企业扎堆布局却普遍陷入“AI如何变现”的迷茫
如何更好地结合外部数据,如何提升模型处理专业领域问题的可靠性,是大语言模型应用开发中值得不断思考的问题。
线性回归用最小二乘法定 “最优直线” 的标准,而 W=(XTX)−1XTy 是直接算出这条最优直线参数的 “快捷公式”。
你是不是用 FastAPI 写接口时只会用 str、int、list 这些基础类型注解?或者在写 LangChain 工具链时,不知道怎么让大模型准确识别工具参数的类型?这篇详解 Python typing 模块的常用类型、类型别名、泛型、协议、类型守卫,配合 FastAPI 接口开发和 LLM 工具调用的代码示例,让你彻底搞懂类型注解的底层逻辑和应用场景,代码可读性提升一倍,调试时间减少一半。
美团提出的LongCat ZigZag Attention(LoZA)是一种新型稀疏注意力机制,通过在中期训练阶段将全注意力模块替换为稀疏版本,显著降低计算开销。LoZA采用校准和训练两阶段方法,将模型中50%的MLA模块替换为流式稀疏注意力,使升级后的LongCat-Flash-Exp模型能高效处理100万tokens长上下文,在保持性能的同时实现预填充阶段超50%加速和解码阶段30%以上计算开
SGFT框架突破机器人学习瓶颈:通过提取模拟环境中的结构先验知识,大幅提升真实世界微调效率。该技术解决了传统方法在灵巧操作任务中面临的数据成本高、迁移效果差等核心问题,将真实样本需求降低至传统方法的1/5-1/10,并在高难度任务中实现80%以上的成功率。其创新点在于将任务不变性结构编码到价值函数中,指导真实世界的精准探索,为机器人技术在精密制造、医疗辅助等领域的落地应用扫清了关键障碍。
近年来,AI技术完成了从实验室理论到现实应用的关键跨越,正以“润物细无声”的方式渗透到社会生活的各个角落。从保障出行安全的自动驾驶系统、提升居家体验的智能家电,到助力金融机构防控风险的智能评估平台,AI应用的广度与深度持续拓展。而支撑这些场景落地的核心,正是不断迭代升级的AI大模型——它们如同“智能引擎”,为各类服务与功能提供着底层技术支持。
2025年中国就业市场呈现"宏观稳、微观紧"的背离态势,岗位未消失但优质工作可获得性下降。就业问题本质是"错配"而非"消失",表现为技能、预期、就业过程等多维度错配。AI技术推动"岗位极化",高端岗位扩张,中间岗位被压缩,低端服务岗位保持韧性。灵活就业与新就业形态持续扩张,但权益保障不足。程序员等劳动者需通过技能积累与路径调整建立职业韧性,应对AI时代的就业挑战。
文章分析了AI产品经理这一高薪职业的现状和前景,指出AI人才缺口达500万,薪资中位数36k/月。将AI产品经理分为专业型、应用型和工具型三类,强调没有技术背景可通过成为应用型AI产品经理入局。
大模型赛道火热但需理性选择:算法岗并非唯一出路,数据、平台、应用、部署四大方向各有优势。新人应避免死磕调参,注重数据敏感度和垂直领域经验积累。学历好可冲大厂实习,普通学历建议中小厂深耕细分领域。现有技术人才转型建议结合AI能力而非抛弃原有技能。市场数据显示AI岗位需求激增,薪资溢价显著。提供全套大模型学习资料包(教程/路线图/书籍/面试题/报告/实战),助力技术人抓住AI浪潮实现职业跃迁。
大语言模型技术主要包含预训练和微调两大方向。预训练方面,通过优化任务设计、热启动机制、分层渐进训练等方法提升效率,并采用统一序列建模和计算高效架构(如RetNet、混合专家模型)优化性能。微调方面,重点发展指令微调和参数高效学习技术,前者通过指令理解、数据构建和对齐提升模型适应性,后者采用添加式、指定式和重参数化方法降低计算成本。研究表明,随着模型规模扩大,简单的微调方法也能取得优异效果。这些技术
Cursor引入动态上下文发现技术,通过将长工具响应转为文件、引用聊天历史、支持Agent Skills、按需加载MCP工具、将终端会话视为文件等方法,减少token使用量46.9%。这种动态获取所需信息的方式,相比静态上下文能提升代码Agent的效率和回复质量,使AI编程助手更加智能高效。
RANS湍流模型在工程中应用广泛,但却常常难以准确计算分离流动。近年来,数据驱动方法被用于训练能准确计算分离流动的RANS湍流模型,但有时它们在分离流中的泛化性有限。本研究旨在通过为数据驱动模型引入非当地性,来提升其在分离流中的泛化性。具体来说,我们为 ω方程的修正乘子β构造额外的输运方程,将平均流线上的历史编码进β。使用NASA Hump(驼峰)和周期山的高精度数据对模型系数进行数据驱动式的标定
OpenAI推出ChatGPT Health健康助手,可连接电子病历和健康数据,帮助用户分析健康趋势、准备医生问诊。该产品采用"隔离"策略,与健康对话分开。同时,国内蚂蚁阿福月活已达3000万,提供真人医生问诊服务。两者分别从数据整合和服务整合切入医疗AI领域,AI不是取代医生,而是填补医疗资源空白,成为医疗健康的有益补充。
文章详细介绍了大模型显存的组成、优化意义及9种实用优化方法,包括算子融合、避免tensor拷贝、混合精度训练、激活优化等。作者通过实践,成功使72B模型在8卡80G显存上高效运行,与多卡训练的模型实用率相当。这些技巧对解决大模型训练中的显存瓶颈具有重要参考价值,特别适合显卡资源有限的研究者和团队。
本文系统梳理了大模型部署技术的演进历程:从早期静态批处理到Flash Attention解决注意力机制效率问题,再到Continuous Batching与PagedAttention优化调度与内存管理,Chunked Prefill解决流水线阻塞,PD分离架构成为主流,直至最新的AF分离趋势。整个技术演进通过软硬件协同设计,持续优化分布式系统在大模型推理中的综合表现,体现了大模型部署从简单到复杂
大模型公司MiniMax即将港股上市,创下机构认购历史记录,超额认购达70多倍,获众多主权基金青睐。暗盘表现强劲,收盘涨幅24.6%。公司收入主要来自AI原生产品,用户达2.12亿,虽亏损1.8亿美元但现金储备充足。商业模式清晰,多元化营收让投资者对其实现收支平衡充满信心。
PyTorch 2.0的XLA加速绝非简单的性能开关,而是AI开发范式的跃迁。它将开发者从"手动调优"解放,转向"编译器驱动"的新模式。从训练阶段扩展至全生命周期(数据预处理、推理、服务化)从性能优化演进为"能效-性能-合规"三位一体的部署标准行动建议优先在固定输入场景(如移动端、IoT设备)启用XLA通过的和获取最佳收益持续关注开源社区(如项目)对国产芯片的适配进展记住:XLA不是魔法,而是将"
它不替代学生的思考,而是通过智能匹配、交互指导、规范训练,帮助学生跨越从“知识接收者”到“学术探索者”的关键一步。系统内置的兴趣分析模型,会追踪学生在慕课、学术论坛、GitHub等平台的浏览轨迹,结合课堂笔记与作业反馈,构建个性化学术兴趣图谱。的科研工具,正以“智能导师”角色切入课程论文全流程,让学术小白也能轻松产出规范、有深度的论文。两者形成互补:书匠策AI是“从0到1”的创作伙伴,宏智树AI则
书匠策AI的课程论文功能,并非简单地“替学生写论文”,而是通过智能化工具,帮助学生完成从“知识接收者”到“学术探索者”的关键转型。的科研工具,正用“智能外挂”的姿态,把课程论文从“痛苦修行”变成“开挂游戏”。传统课程论文选题,要么靠老师“分配任务”,要么从教材里“抠”现成问题,结果往往是:题目老套、缺乏新意,连自己都提不起兴趣。,会像“学术侦探”一样,追踪你在慕课、学术论坛、知乎等平台的浏览轨迹,
书匠策AI的课程论文功能,并非简单地“替学生写论文”,而是通过智能化工具,帮助学生完成从“知识接收者”到“学术探索者”的关键转型。系统支持“自然语言检索”,你只需输入“我想研究大学生熬夜的原因”,AI会自动拆解为“大学生+睡眠时间+影响因素”,并从Web of Science、CNKI等数据库筛选高相关度论文。系统内置的热点追踪模块,像“学术狗仔队”一样,24小时扫描Nature、Science、
选题阶段:学会像研究者一样洞察趋势、评估可行性文献阶段:掌握构建知识网络、提炼争议点的方法方法阶段:理解不同研究问题的适配方法及操作规范写作阶段:养成学术表达的习惯,避免低级错误现在,访问书匠策AI官网(),或搜索微信公众号“书匠策AI”,开启你的学术进化之旅!让每一篇课程论文,都成为你通往研究达人的垫脚石。
选题阶段:学会像研究者一样洞察趋势、评估可行性文献阶段:掌握构建知识网络、提炼争议点的方法方法阶段:理解不同研究问题的适配方法及操作规范写作阶段:养成学术表达的习惯,避免低级错误现在,访问书匠策AI官网(),或搜索微信公众号“书匠策AI”,开启你的学术进化之旅!让每一篇课程论文,都成为你通往学术高手的阶梯。
机器学习
——机器学习
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net