
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
05-11 · LLM 最新论文速览
本文提出嵌入式语言流 ELF(Embedded Language Flows),将 diffusion/flow 模型直接用于连续 embedding 空间的语言生成。与主要在离散 token 上运作的现有 DLM 不同,ELF 几乎全程停留在连续空间,仅在最后一步借助共享权重网络映射为离散 token,因此能较容易迁移图像 diffusion 中成熟技巧,如 classifier-free gu

RPT:拿强化学习做 LLM 预训练
结合预训练的规模优势与强化学习的决策优势

RPT:拿强化学习做 LLM 预训练
结合预训练的规模优势与强化学习的决策优势

使用频域变换轻松压缩kv-cache
在不调整位置编码的情况下轻松扩展大模型上下文,简单有效

大模型推理加速: 使用多个异构的小模型加快投机解码
使用多个异构小模型改进投机算法

连续空间链式推理与SoftCoT++介绍
软思维链最新方法介绍

Qwen团队新发现:大模型推理能力的提高仅由少数高熵 Token 贡献
逻辑分叉、连词是提高推理能力的关键

准确识别检索头,提高大模型长上下文能力
可用于找回、排序、长文本推理等算法的改进

大模型为什么会有幻觉?如何溯源造成幻觉的文本?
像调试代码一样debug出导致幻觉的元凶

RelayLLM:token 级大小模型接力加速推理
不靠路由,大模型与小模型协作接力,兼顾准确性与成本效率








