在这里插入图片描述

📖标题:SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines
🌐来源:arXiv, 2509.21320v1

🌟摘要

我们提出了一个科学推理基础模型,该模型将自然语言与异构科学表示对齐。该模型是在跨越科学文本、纯序列和序列-文本对的206B-token语料库上进行预训练的,然后通过SFT在40M指令上对齐,退火冷启动引导,引发长形式的思维链,强化学习具有特定于任务的奖励塑造,这仍然浪费了深思熟虑的科学推理。它支持四个能力家族,涵盖跨工作流程多达 103 个任务:(i)文本和科学格式之间的忠实翻译,(ii)文本/知识提取,(iii)属性预测,(iv)属性分类,(v)无条件和条件序列生成和设计。与专家系统相比,我们的方法拓宽了指令覆盖率,提高了跨域泛化能力,提高了保真度。我们详细介绍了数据管理和训练,并表明跨学科学习增强了迁移和下游可靠性。该模型指导调整数据集和评估代码在 https://huggingface.co/SciReasonhttps://github.com/open-sciencelab/SciReason 开源。

🛎️文章简介

🔸研究问题:如何将多领域科学知识与大语言模型(LLM)结合,以实现科学推理和领域间的通用化?
🔸主要贡献:论文提出了一种结合多种表示形式预训练与指令驱动对齐的科学推理大语言模型,实现了跨领域通用化与任务的一体化支持。

📝重点思路

🔸论文提出了一个统一的科学语言模型框架,分为三个阶段:预训练、监督微调(SFT)和推理。
🔸在预训练阶段,设计了一种混合的预训练数据,以结合科学文本、纯序列和序列-文本/序列-序列配对数据。
🔸监督微调阶段整合了约100个科学子任务,适应模型以实现可操作的研究目标,如属性预测和序列-文本转换。
🔸推理阶段引入了增强的推理数据集,支持快速回答和逐步推理的两种使用模式。
🔸训练过程中采用了任务感知的标记化方式,将异构序列和符号映射到共享的模型基础中。

🔎分析总结

🔸实验表明,该模型在54个任务上的性能达到了最先进的水平,在101个任务中排名前列,证明了单一模型能够支持多领域通用化。
🔸通过混合数据预训练,模型能够有效理解科学术语和领域特定推理,显著提升各类科学任务的表现。
🔸针对不同任务类型,模型可以适应性地分配推理能力,保持在直回复和复杂推理任务中的表现。
🔸模型在科学知识提取、属性预测、分类和序列生成等多个方面显示出强大的功能和灵活性,尤其在跨学科问题上表现出色。

💡个人观点

论文的提出了一个综合的科学模型,将多种科学表示形式的预训练与任务对齐和推理过程结合。

🧩附录

在这里插入图片描述
在这里插入图片描述

Logo

更多推荐