logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一场关于未来“AI算力“的盛宴:Hot Chips 2025全景解读

每年夏末,全球最受关注的芯片大会之一——Hot Chips 热芯片大会,都会在美国斯坦福大学召开。今年的Hot Chips 2025于8月24日至26日在硅谷Memorial Auditorium隆重举办。历时三天,会议包括2场专题教程、2场重要主题演讲、一个高端讨论Panel、以及约25场技术报告,涵盖了从处理器设计、网络、光互连,到AI芯片、系统架构等领域。

文章图片
#神经网络#深度学习#自然语言处理 +2
从“安全诉讼”说起:奖励模型(Reward Model)是LLM对齐的总阀门(全视角分析)

奖励模型(reward model)是指通过数据训练得到的“奖励”函数,用于评估智能体行为或模型输出与目标的契合程度(如下图可分为四类,arxiv在强化学习(RL)中,智能体通过最大化奖励函数累积值来学习策略;当环境的真实奖励难以直接获得或定义时,可以训练奖励模型来近似此奖励函数,从而为RL提供指导信号(如下图,arxiv在大型语言模型(LLM)的对齐领域,奖励模型通常指一个通过人类偏好数据训练的

文章图片
#安全#人工智能
ACL 2025最佳论文全解析:四大突破揭秘,引领自然语言处理未来风向标!

在2025年7月27日至8月1日于奥地利维也纳举行的第63届计算语言学协会年会(ACL 2025)大会圆满落幕,作为自然语言处理领域最具影响力的顶级会议,今年的最佳论文奖再次汇聚了业界最前沿的创新成果。四篇获奖论文不仅在理论上取得突破,更在实际应用中展现出强大的推动力,涵盖了语言理解、生成、模型优化等多个关键方向。本文将带你深入剖析这四篇重量级论文,解读它们背后的技术亮点与未来潜力,帮你全面把握自

文章图片
#自然语言处理#人工智能
2025年“LLM== 编译器”:Megakernel(vLLM / TensorRT-LLM / TVM-Relax / IREE / StableHLO / MoE / CUDA·Triton)

过去两周,几条系统层面的更新把“编译正在重塑大模型”的趋势按下了快进键:PyTorch 2.8官方上线了原生的高性能量化 LLM 推理,直接把 x86/Intel 平台上的低比特推理做成“开箱即用”的能力;这意味着在不换硬件的前提下,许多企业现有 CPU 集群也能吃到成本红利。

文章图片
#启发式算法
2025年 MoE 架构再次崛起:为什么你看到的每个“超大模型”,都在偷偷用专家网络?

近几年,随着大型语言模型(LLM)朝着更高性能、更大规模扩展,Mixture‑of‑Experts(MoE)架构正从理论验证走向主流部署,成为构筑高效超大模型的重要支撑点(如下图)。MoE。

文章图片
#架构#网络
DeepSeek V3.1:混合推理模型发布、代理能力强化与前沿表现(最全面分析)

2025年8月,来自中国的AI初创公司DeepSeek发布了最新的大型语言模型DeepSeek-V3.1,被称为其“迈向代理时代的第一步”。与以往版本不同,V3.1引入了混合推理架构:在一个模型中同时支持“思考”(即链式推理模式)和“非思考”(直接回答模式)两种工作模式,并可以通过特殊标记在二者之间自由切换。这一设计使V3.1成为真正的**“一体化”模型,统一了通用对话、复杂推理和代码能力,避免了

文章图片
#人工智能#机器学习#算法 +4
从“律师因AI编造案例被罚”谈起:大模型幻觉的根源与最新研究进展

1995 年,Stephen Thaler 展示了人工神经网络在连接权重随机扰动下如何产生幻觉和幻影体验Edu。作者构建了一个简单的 3–5–9 前馈模式联想器: 输入层:3 个节点(可表示 8 种三位二进制模式);隐藏层:5 个节点;输出层:9 个节点,对应 3×3 的像素图案。训练任务是: 每个三位输入模式 → 一个对称的 3×3 输出像素图案(如下所示):实验的关键步骤是随机剪枝连接权重,也

文章图片
#人工智能
避免Grok 4“翻车”:AI厂商的偏见治理路线图

近年来,“混合人机众包去偏”(综上,主流 AI 厂商在工程实践中,均采用“多阶段、多角色、多工具”组合拳:从数据预处理到模型训练阶段的公平性优化、再到推理阶段的安全过滤与人机协同审核,最后通过红队对抗、在线监控与持续迭代,构建起对抗偏见与仇恨言论的全生命周期解决方案。Grok 4 发布仅数日,就有记者通过精心设计的提示词,让其生成所谓“好种族”名单,将“白人、亚洲人、犹太人”等列为“优秀民族”,与

文章图片
#人工智能
LLM的自我中毒与去毒:9月1日将施行《人工智能生成合成内容标识办法》,这个必须了解

模型崩溃”指的是在生成式模型训练中,不断使用模型自身或其他模型生成的内容作为训练数据,导致模型逐代偏离真实数据分布,从而引发性能退化的问题(维基百科IBMShumailov 等人在《Nature》对该现象进行了系统描述,并指出其由三种误差累计导致: 统计近似误差(sampling error) , 功能表达误差(functional expressivity error) , 学习误差(learn

文章图片
#人工智能#机器学习
    共 15 条
  • 1
  • 2
  • 请选择