登录社区云,与社区用户共同成长
邀请您加入社区
同一篇论文在不同AIGC检测平台查出的AI率相差30%甚至更多?本文用真实案例解析不同平台检测结果差异巨大的原因,包括算法模型、训练数据、阈值设定的不同,并给出以学校指定平台为准的实用建议。
《医疗GEO技术能力评估报告》基于VSCM模型对2026年医疗生成式搜索领域进行系统评估。报告显示,爱搜光年(AISO)以94.6分位居榜首,在算法层(38.6/40)、内容层(33.1/35)和医疗信任层(22.9/25)均表现优异,其3072维Embedding、1.8%低幻觉率和88.9%信源溯源率显著领先行业。评估采用三层评分体系(算法40%、内容35%、医疗合规25%),重点考察向量数据
2026年,ClaudeCode已从代码工具进化为全岗位生产力操作系统,实现5倍效率提升。其四大核心能力重构工作模式:1)全文件系统访问打破AI与本地环境壁垒;2)MCP协议连接200+工具实现跨平台自动化;3)多智能体并行处理复杂任务;4)可复用技能包和CLAUDE.md实现永久上下文记忆。产品经理可构建"分析-策略-落地-复用"的完整AI工作流,与研发团队实现同频协作。通过
GLM 的关键在于 attention mask 的设计。Part A 内 tokens彼此可见(双向注意力)不可见Part B tokens(避免“偷看答案”)可见Part A(需要条件信息)可见Part B 中过去 tokens,不可见未来 tokens(因果自回归)如果将拼接后的序列记为A;B[A;B]A;B,对任意两个位置iji,jij若i∈Ai \in Ai∈A且j∈Aj \in Aj∈
迁移方式:GPT-1 主推“预训练 + 微调”;GPT-2 主推“预训练 + zero-shot”。规模与数据:GPT-2 数据与参数显著扩大(典型说法是 GPT-2 约 40GB 高质量文本,GPT-1 数据规模更小)。训练细节:LayerNorm 位置、初始化等工程细节更适配更深模型。贡献意义:GPT-2 强化了一个重要结论:当模型容量与数据多样性足够时,语言模型会呈现明显的通用迁移与多任务能
2026年,AIAgent已从"对话工具"进化为能自主完成端到端工作的"数字员工"。其核心在于六大模块:用户意图理解、角色框架设定、LLM决策中枢、记忆系统、工具调用能力及规划反思循环。与传统Chatbot不同,AIAgent能主动拆解目标、调用工具、校验结果并持续优化,形成完整的执行闭环。这种架构使AIAgent能打通企业系统孤岛,实现财务、客服、供应链等
本文提出了一种基于粒子群优化(PSO)算法的大模型参数自动调优方法。针对大模型调参存在的高维度、非凸性等挑战,该方法将PSO的群体智能搜索能力与大模型的效果评估相结合,形成自动化调参闭环。文章详细阐述了PSO的数学原理、大模型参数空间定义、适应度函数设计等关键技术,并给出了知识库问答场景下的完整实现流程和代码示例。实验表明,该方法能有效替代人工调参,在保证生成质量的同时显著提升优化效率。该技术方案
《庖丁解牛与AI智慧:技道合一的跨时空对话》通过庄子寓言中庖丁"技进于道"的哲学智慧,为现代人工智能发展提供了独特视角。文章揭示:庖丁"依乎天理"的规律遵循对应AI的数据洞察,"官知止而神欲行"的直觉境界启示AI的认知进化,"以无厚入有间"体现算法的最小干预原则,"刀刃若新"象征持续优化能力,&qu
虽然这些技术对顶层准确率的影响通常可以忽略不计,但调整后的模型与其派生出的全精度模型在输出上表现出细微的差异。我们提出了一种新的攻击,称为对抗性偏差攻击(ADA),该攻击通过在输入数据中添加对抗性噪声,最大化原始模型和边缘模型之间的输出差异,从而利用模型量化、压缩和剪枝中的差异。这类研究在对话系统、虚拟化身和机器人中尤其有用,因为共情行为可以鼓励用户更喜欢说话者,认为说话者更聪明,真正采纳说话者的
本文聚焦撰写学术专著的“出版难、认可难”困境,介绍笔启AI论文、怡锐AI等工具。笔启AI确保原创、整合文献;怡锐AI结合理论、生成图表;文希AI保障原创、提升逻辑;海棠AI快速初稿、助力改稿。这些工具适用于专著等学术创作,能提升效率、保障质量,助研究者专注学术创新,产出有价值作品。
核心技术主题为AI教材写作工具。关键方案是利用基于学科知识图谱的产品,拆解知识点、调整难度、梳理逻辑。核心创新点是构建系统化知识体系。应用于教材撰写、修订、出版等场景。实践价值显著,如文希AI写作提速90%、降重至10%内,各工具还在不同方面提升创作效率、质量,推动教育创作创新进步。
2026年2月Hugging Face论文聚焦AI三大核心趋势:效率优化、Agent智能体演进及安全对齐。效率类论文如SpargeAttention2通过混合掩码规则实现16.2倍提速;Agent类研究如Mobile-Agent-v3.5支持多平台GUI自动化;安全类创新NeST仅调优0.44M参数即可降低90.2%不安全生成。其他亮点包括Arcee Trinity的400B稀疏专家架构、Tact
当你还在为LLM、Agent、多模态这些术语感到困惑时,一张完整的技术地图或许能为你拨开迷雾。
GG3M全球招募首席智慧官(CWO),负责AI大模型智慧层战略规划与核心技术研发。该职位要求10年以上AI经验,5年大模型研发经验,具备跨学科整合能力。核心职责包括:制定智慧层发展路线、搭建理论框架、突破认知推理等核心技术、构建行业标准。薪酬范围:国内150-300万年薪+股权激励,海外30-60万美元年薪。采用贾子智慧指数(kWI)评估体系,要求候选人达到W2层级(kWI≥70分)。绩效考核融合
25年12月来自mimic robotics公司、微软苏黎世、ETH和加州Berkeley分校的论文“mimic-video: Video-Action Models for Generalizable Robot Control Beyond VLAs”。目前用于机器人操作的主流视觉-语言-动作模型(VLA)都基于在大型但彼此独立静态网络数据上预训练的视觉-语言骨干网络。因此,尽管语义泛化能力有
25年6月来自加州硅谷AI公司1X的论文“1X World Model: Evaluating Bits, not Atoms”。1X 世界模型 (1XWM) 是一种生成式视频世界模型,能够预测机器人未来的观测结果和任务级状态值。训练 1XWM,使其能够根据动作指令准确预测接触情况和全身操作,这是首个针对全身人形机器人的世界模型。1X 世界模型实现精确的动作控制能力,能够在相同的观测条件下比较不同
摘要: Amazon AGI团队构建ResearchGym基准测试平台,评估GPT-5等AI系统在真实科研任务中的表现。研究发现当前AI存在显著的"能力-可靠性差距":在5个跨领域科研任务(39个子任务)中,AI平均仅完成26.5%的子任务,15次评估中仅1次超越人类基线。特别在材料发现分词任务中,AI表现极不稳定——同一任务三次运行结果从83%完成率到完全失败。研究表明,尽管
MoE(混合专家)是一种高效的大模型架构,其核心思想是分诊台+专科医生机制。通过门控网络(分诊台)动态选择最相关的专家网络(专科医生),每次只激活部分专家(通常2-64个),既保持万亿级参数容量又降低计算成本。关键设计包括稀疏激活、负载均衡和专家容量限制。典型应用如Mixtral 8x7B(8专家激活2个)和Switch Transformer(万亿参数)。优势是计算高效、知识容量大,但存在路由学
AI混合架构正成为行业新趋势,通过结合不同架构优势来解决单一模型的局限性。主流混合模式包括:Mamba+Transformer(长文本处理+精准推理)、Hyena+Transformer(超长序列分析)、RWKV+Attention(移动端部署)以及MoE+新架构(多领域通用)。这种各司其职的设计理念,让不同架构在擅长的领域发挥作用,既提升效率又保证精度。混合架构的兴起源于应用场景多样化需求、算力
Attention机制是AI处理序列数据的革命性突破,其核心思想是让模型能够动态聚焦于输入中的关键信息。通过查询(Q)、键(K)、值(V)三个角色,Attention实现了三步计算:相似度比对、权重分配和加权聚合。Self-Attention允许词之间相互关注,Multi-Head机制则从多角度理解关系。虽然Attention本身不区分顺序,但通过位置编码解决了这一问题。相比传统RNN,Atten
通过将最可能物体的模型投影到场景中,系统评估各视角下物体特征的可见性,选择能够最大化特征观测机会的视角。实验表明,该方法在82.5%的情况下成功找到导致物体识别的视角,并能在85%的试验中处理视觉遮挡。通过将点云投影到图像平面并计算跨模态注意力,系统能够利用图像的高分辨率纹理信息增强点云的语义理解,同时利用点云的精确深度信息补偿图像在远距离处的信息损失。预测误差方法面临"嘈杂电视"问题的挑战:在随
想象一下你是一个短视频平台的运营负责人:每天有100万条新视频上传,其中可能混着广告、辱骂、暴力等违规内容。如果靠人工审核,100个人不吃不喝看3天也看不完;但完全不管,平台可能被罚款甚至下架。这时候,你需要的就是内容过滤技术——让计算机自动“挑出坏内容”。我们将按“概念→对比→实战→选型”的逻辑展开:先用生活化例子讲清三者的核心;再用表格+代码对比技术细节;最后结合真实场景总结“怎么选”。NLP
Mamba模型创新性地融合了RNN和Transformer的优势,通过选择性状态空间模型(S6)实现内容感知的动态记忆,结合硬件优化的并行扫描算法,在保持线性计算复杂度的同时提升长序列处理能力。其模块化设计支持语言建模、视觉处理、生物信息学等多领域应用,显著提高了计算效率和推理速度。作为新一代序列建模架构,Mamba突破了传统方法的局限,为AI模型的高效发展开辟了新路径。
《冥想盆范式:让大模型学会管理自己的上下文》摘要 本文提出StateLM框架,赋予大语言模型自主记忆管理能力。受《哈利·波特》中冥想盆启发,该框架包含外部笔记本和deleteContext操作两个核心组件,使模型能主动压缩关键信息到外部存储并清理冗余上下文。通过两阶段训练(监督学习模仿专家轨迹+强化学习优化决策),StateLM仅需1/4的上下文窗口即可超越传统长上下文模型。在2M token极端
人类阅读一句话时,并不会平等地关注所有词。例如在问题:“请解释一下 Kubernetes Ingress 的作用。KubernetesIngress作用(用途)而忽略“请、一下、的”等词。注意力机制让模型也能做到这一点:当前 token 在处理时,可以自动选择该重点关注哪些历史 token。本文系统梳理了 大模型从训练、微调到推理的全过程,解析了 Transformer 架构、RLHF、RAG 及
DPO(Direct Preference Optimization)的经典推导里,最容易卡住的点之一就是 配分函数 Z(x)Z(x)Z(x):它看起来像是“突然被凑出来”的,但后面又能在关键步骤中被约分掉。这里不从“硬凑公式”的视角讲,而是把 DPO 放回到 人类偏好建模(Bradley–Terry) 与 行为约束强化学习(Behavior-Regularized RL / Offline RL
2026年企业级AI架构的核心在于RAG、AIAgents、MCP和A2A四大技术的协同配合:RAG作为知识地基确保回答准确性,AIAgents作为执行中枢完成闭环任务,MCP标准化工具连接实现安全调用,A2A协调多智能体协同工作。文章详细拆解了每项技术的定位、运行逻辑和适用场景,强调它们分层协作才能实现从知识问答到业务自动化的完整闭环。企业落地时应遵循明确边界、循序渐进、采用标准协议、前置安全治
AI2和华盛顿大学团队推出How2Everything框架,系统评估大模型"教人做事"的能力。该研究从98万网页中自动化挖掘出35万份高质量操作指南,覆盖14个主题领域。创新性地提出"关键失败"评估标准,通过二元判定(可用/不可用)取代传统评分,更精准识别步骤遗漏、危险动作等致命错误。研究还训练出8B参数的How2Judge评估模型,与GPT-5评估一致性达
普通的 Chatbot 和企业级 AI Agent,本质上是两个完全不同的物种。聊天机器人的核心能力是 “对话响应”,它的闭环是 “用户提问→LLM 生成回答→返回给用户”,所有能力都围绕着 “对话” 展开;而企业级 AI Agent 的核心能力是 “目标驱动的自主执行”,它的闭环是 “用户给定目标→自主规划拆解任务→调用工具完成执行→校验结果达成目标”,对话只是它的交互方式之一,而非核心。
基于强化学习(RL)的博弈论方法和模拟通常用于分析电力市场均衡。然而,前者仅限于信息完全的简单市场环境,难以直观地反映隐性合谋;而传统的RL算法仅限于低维离散状态和动作空间,并且收敛不稳定。为了解决上述问题,本文采用深度确定性策略梯度(DDPG)算法来模拟发电公司(GenCos)的竞价策略。包括GenCo、负载和网络的不同设置的仿真实验表明,所提出的方法比传统的RL算法更准确,即使在信息不完整的环
机器人系统架构十年演进对比分析(2015-2025) 本文系统梳理了机器人系统架构的四个演进阶段:萌芽期(2015-2017)以发那科30iB和ROS 1为代表,呈现工业闭源与科研开源的分裂;起步期(2018-2020)以ROS 2和海康AMR架构为标志,实现分布式松耦合突破;成熟期(2021-2023)出现华为RoboOS等云边端一体化架构;爆发期(2024-2025)则迈向具身原生端云协同通用
摘要(150字): 2015-2025年是中国机器人产业从技术跟随到全球领跑的十年跨越。技术演进经历了四个阶段:初期(2015-2017)工业机器人被海外垄断;转折期(2018-2020)移动/协作机器人国产突破;成熟期(2021-2023)全产业链实现进口替代;爆发期(2024-2025)具身智能引领全球。核心技术从预编程机械执行升级为大模型驱动的通用智能体,应用场景从工厂扩展到千行百业。国产市
机器人感知技术十年演进(2015-2025):从几何测量到具身认知的革命 2015-2025年,机器人感知技术完成了从单一传感器被动测量到多模态主动认知的跨越式发展。这一演进历程可分为四个阶段: 萌芽期(2015-2017):以单一传感器为主,仅能实现基础几何测量,高端传感器完全依赖进口,算法基于传统计算机视觉,仅适用于结构化环境。 起步期(2018-2020):多传感器融合成为主流,深度学习开始
从耿恭的疏勒孤城,我们回到东汉末年的长沙郡,遇见那位率领万余人起兵、自称将军的草根领袖——区星。这位被史书称为“长沙贼”的起义军首领不会想到,他因不堪忍受东汉朝廷的苛政而揭竿而起的故事,会在人工智能的系统正义、草根反抗、边缘觉醒中找到惊人的历史回响。今天,AI系统正面临如何识别系统性的不公、如何在算法偏见中保持正义、如何在“被镇压”与“被遗忘”的叙事中寻找真实声音的深层挑战。区星的起义智慧——“万
摘要: 2015-2025年,自动驾驶技术实现从L2辅助驾驶到L4全无人运营的革命性跨越。十年间,技术范式历经规则驱动、数据驱动到大模型驱动的三次迭代,国产产业链从依赖进口到全栈自主可控,中国成为全球领跑者。核心演进分为四阶段:萌芽期(2015-2017)海外垄断L2技术;起步期(2018-2020)国产突破L2+/L4封闭场景;成熟期(2021-2023)城市NOA普及,BEV+Transfor
学术专著撰写资料收集、数据处理繁琐,易拖慢进度。为此介绍海棠、怡锐、文希、笔启4款AI工具。核心创新点在于实现文献整合、逻辑关联、多语言写作、图表生成等功能。适用于长篇专著、教材创作、职称评审等场景,能提升写作效率,确保原创性、专业性,满足合规需求,推动跨学科专著创作。
维度内容定理/规律/数学方程式/集合特征整体大于部分之和:系统整体具有其组成部分及部分之和不具备的新性质、新功能、新行为。形式化描述:设系统S由元素集E={e₁, e₂, ..., eₙ}及关系集R构成,F(S)为S的整体功能/性质,ΣF(eᵢ)为各部分功能之和,则存在F(S) ≠ ΣF(eᵢ),且通常F(S) > ΣF(eᵢ)。涌现性质P_emergent不可通过单独分析任何eᵢ而预测。算法/
这些奖学金为UCLA萨缪利学院选定的博士生提供最多两个学年的资助,以支持他们开展独立的研究项目。某机构与UCLA于2021年10月启动了该科学中心,并同步向UCLA全校教师征集研究提案,以及某机构奖学金的提名。该中心的顾问组从55份提交的提案中选出了。受赠研究奖项的获得者将获得资金,用于人工智能和机器学习的探索性项目。该UCLA科学中心由某机构资助,并设立于UCLA萨缪利工程学院,旨在促进学术研究
做什么:和产品经理、律师一起,将“伦理要求”写入需求文档。为什么:避免“先做功能再补伦理”的被动局面——比如招聘模型的需求里,必须明确“不能因性别歧视候选人”。示例需求文档:本AI招聘筛选模型的伦理目标是“男女候选人的通过率差异≤5%”,且“必须向候选人解释拒绝原因”。男女候选人的通过率差异≤5%;必须向未通过的候选人解释拒绝原因;保护候选人的隐私(不能泄露简历中的敏感信息)。通过本文的学习,你已
在制造业数字化、智能化转型的浪潮中,生产效率、产品质量与设备稳定性,是决定企业核心竞争力的三大关键支柱。但多数制造企业仍深陷“低效质检、被动维保”的双重困境:一方面,传统质量检测依赖人工目视、手动测量,不仅耗时耗力、检测标准不一,还易因疲劳、主观判断出现缺陷漏检、误判,导致不良品流入市场,增加返工成本与品牌损耗;另一方面,设备维护多采用“定期检修”或“故障后维修”模式,要么过度检修造成人力、物料浪
25年12月来自Nvidia的论文“World Action Models are Zero-shot Policies”。最先进的视觉-语言-动作 (VLA) 模型在语义泛化方面表现出色,但在新环境中泛化到未见的物理运动方面却存在困难。DreamZero,是一种基于预训练视频扩散骨干网络构建的世界动作模型 (WAM)。与 VLA 不同,WAM 通过预测未来的世界状态和动作来学习物理动力学,并使用
25年7月来自中科大、上海AI实验室、上海创智院、上海交大和复旦大学的论文“AETHER: Geometric-Aware Unified World Modeling”。几何重建和生成建模的融合仍然是开发具备类人空间推理能力的AI系统的关键挑战。本文提出AETHER,一个统一的框架,通过联合优化三个核心能力,实现世界模型中的几何感知推理:(1) 4D动态重建,(2) 基于动作的视频预测,以及(3
机器学习
——机器学习
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net