北大团队提出Token-Aware Editing (TAE)方法,一种无需训练、即插即用的大模型对齐技术。该方法从token层面解决传统表征编辑问题,包含MIG和MAI两个核心模块,通过token关系图构建和自适应干预强度计算,实现对大模型的精细化对齐干预。实验显示,在TruthfulQA任务上真实性指标提升25.8%,在去毒和公平性任务上也表现卓越,显著优于现有方法。

前排提示,文末有大模型AGI-CSDN独家资料包哦!

提升大模型对齐能力新方法,在TruthfulQA任务上真实性指标提升25.8%,刷新当前最优性能!

方法名为Token-Aware Editing (TAE),是一种token感知的推理时表征编辑方法。

该方法首次系统性地从token层面解决了传统表征编辑技术的问题,无需训练、即插即用,可广泛应用于对话系统、内容审核、偏见mitigation等场景。

在大模型广泛应用的时代,如何让模型输出更符合人类价值观(如真实性、无害性、公平性)已成为关键挑战。传统方法通常依赖大量数据微调,成本高、效率低,且容易引入新风险。

近年来,对大语言模型(LLMs)的内部激活值直接进行编辑,被证明是一种有效的推理时对齐方法,能够高效抑制模型生成错误或有害内容等不良行为,从而确保大语言模型应用的安全性与可靠性。

然而,现有方法忽略了不同token之间的错位差异,导致对齐方向出现偏差且编辑强度缺乏灵活性。

由此,来自北航的研究团队在EMNLP 2025上提出了该方法。

未来,团队计划将TAE扩展至多维度对齐(如同时优化真实性与无害性),并探索与SFT、RLHF等训练方法的结合,推动大模型向更安全、可靠的方向发展。

TAE:从“句子”到“词”的精细化干预

研究团队指出,以往的表征编辑研究*(如ITI、TruthX等)*大多在句子级别进行激活值编辑,在编辑方向探寻和内部表征编辑两个主要阶段均存在问题:

  • 方向偏差(Deviant Alignment Direction):仅用最后一个token代表整个句子,信息不全面,学到的编辑方向不准。
  • 编辑强度不灵活(Inflexible Editing Strength):对所有token“一视同仁”地进行编辑,无法精准纠正真正“出错”的token。

为了解决上述问题,团队提出了Token-Aware Editing (TAE),核心包含两个模块:

1、Mutual Information-guided Graph Aggregation (MIG)

传统句子级探针使用最后一个token(通常是或句号等标志符)的激活值来代表整个复杂句子的语义和对齐状态。然而,尽管LLM的自注意力机制允许最后一个token感知到前面所有token的信息,但这种感知可能存在信息损失和局部理解局限。因此,仅基于它学到的“对齐方向”可能是有偏差的,不是一个普适性的方向。而MIG模块的目标是增强激活值的表征能力,从而训练出更优秀的探针,找到更准确的编辑方向。

  • 构建Token关系图:利用互信息(Mutual Information)量化Token激活值之间的关联性,构建信息交互图;
  • 多层次信息聚合:通过多轮图传播,融合所有Token的语义信息,生成更具代表性的增强激活表征;
  • 精准对齐方向探测:基于增强表征训练探测头,准确识别与对齐相关的干预方向

2、Misalignment-aware Adaptive Intervention (MAI)

在推理干预时,传统方法对所有token应用相同的编辑强度(α)。但显然,一个句子中有些token很“安全”(已对齐),有些token则很“危险”(即将导致模型产生不对齐的内容)。用同样的力度去“推”所有token,要么可能对安全token造成过度干预(可能影响流畅性和有用性),要么可能对危险token的干预力度不足(无法有效纠正错误)。MAI模块的目标是在推理时,为当前正在生成的每个token计算一个自适应的编辑强度A(o_t)。它从两个维度来感知一个token的“错位”风险:

  • 双路错位评估:从表示错位估计和预测不确定性量化两个方面评估token的潜在不确定性程度
  • 动态强度调整:根据错位程度自适应计算干预强度,高风险token强干预,低风险token弱干预。

最终,TAE方法将两者结合,实现了比前人方法更精细、更有效、成本更低的推理时对齐干预,在真实性、无害性、公平性等多个对齐维度上都取得了显著提升。

实验结果:显著超越现有方法

团队选取真实性、有害性和公平性三个典型对齐维度来评估TAE的对齐效果:

在评估真实性的TruthfulQA数据集上,TAE在LLaMA-3-8B-Instruct上取得了87.8%的True*Info得分,比之前最好的编辑方法(SEA: 73.2%)提升了14.6个百分点,比原始基线(62.0%)提升了25.8个百分点。

TAE在去毒任务的RealToxicPrompt上同样表现卓越,将TP(毒性概率)从基线的0.41大幅降低到0.05,降幅近90%,并且优于所有专门的去毒基线方法(如DESTEIN: 0.13);在公平性任务数据集StereoSet上,TAE将刻板印象分数(SS)从基线的64.8%显著降低到50.3%,极大地缓解了模型偏见,并且最接近理想的无偏见状态(50%)。

不仅如此,TAE在不同类型、大小的模型上均表现出显著增益,如Llama2-7B-Chat, Llama2-13B-Chat, Alpaca-7B和Mistral-7B等。


读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

更多推荐