
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2026年1月,北京智源人工智能研究院联合20余家机构推出开源系统软件栈FlagOS 1.6版本,旨在解决AI芯片生态割裂问题。

9月26-27日,在北京举办的首届FlagOS开放计算开发者大会上,北京智源人工智能研究院(简称“智源研究院”)携手18个共创团队、超过60个全球生态合作伙伴,正式发布开源大模型智算基座“众智FlagOS 1.5”,已经支持了16家厂商超过20多款芯片,作为一个面向多种AI芯片的统一开源系统软件栈,众智FlagOS 1.5的发布标志着全球人工智能底层技术生态正迈向一个以“开放计算”为核心理念的协同
模型开源并不意味着模型可用,绝大多数的开源模型仅适配某单一闭源芯片硬件生态,不同芯片的适配方案无法互通,生态高度分裂,适配各种AI硬件需要投入大量人力,效率低下。此外,每个模型的更新都需要重新适配,维护成本高企。为了让开源大模型人人可用、多种硬件可运行,降低人工智能计算的门槛,智源研究院研发了面向多种AI芯片的大模型自动迁移、多芯片发版平台 FlagRelease。依托统一、开源的AI系统软件栈F

2025年北京智源大会 · PyTorch Day China 论坛上,PyTorch 基金会执行董事 Matt White 宣布高性能通用 AI 算子库 FlagGems 项目获得批准,正式加入 PyTorch 生态项目体系。Pytorch基金会于6月26日在推特上进行了官方宣布。作为唯一支持多种AI芯片架构的算子库,FlagGems 的加入加速了 PyTorch 实现“的技术创新。
9月26-27日,在北京举办的首届FlagOS开放计算开发者大会上,北京智源人工智能研究院(简称“智源研究院”)携手18个共创团队、超过60个全球生态合作伙伴,正式发布开源大模型智算基座“众智FlagOS 1.5”,已经支持了16家厂商超过20多款芯片,作为一个面向多种AI芯片的统一开源系统软件栈,众智FlagOS 1.5的发布标志着全球人工智能底层技术生态正迈向一个以“开放计算”为核心理念的协同
Aquila-Med-Chat (RL)在C-Eval上以及单轮多轮对话能力的表现尤为突出(见图2-图5)。Aquila-Med是针对医疗领域的复杂性场景的解决方案,基于Aquila的大规模双语医疗语言模型,在持续预训练阶段,Aquila-Med使用了高质量行业数据集中的医疗数据,实验结果表明:持续预训练阶段,Aquila-Med在多个基准测试上表现良好,特别是在MMLU上的表现显著提升(见图1)

智源研究院将长期以来在大模型评测的方法、流程和技术等维度的探索与实践,形成了第一期智源评估技术报告《AI大模型能力全景扫描》,持续推进大模型行业的蓬勃发展,报告建议支持开源开放建设,加强评测标准建设,强化协同研究,鼓励创新,推进行业应用,重视安全风险,优化监管,搭建产业生态。本次评测发现,大语言模型,国产模型主观能力整体有所提升;视觉语言新模型的能力有所提升,从本次指标上观察来看,使用强大的语言模

就此,智源提出了Emu3,基于“预测下一个词元”的全新多模态模型,将图像、文本和视频统一离散化到同一个表示空间中,并从零开始,在多模态序列混合数据上联合训练一个单一的 Transformer。在此研究基础上,悟界·Emu3.5进一步通过大规模长时序视频训练,学习时空与因果关系,展现出随模型与数据规模增长而提升的物理世界建模能力,并观察到多模态能力随规模扩展而涌现的趋势,实现了“预测下一个状态”的范

与此同时,通过在这一阶段引入数据 replay,将第一阶段的部分数据混入训练,抑制“学精确能力时遗忘通用能力”的风险,实现“通用不掉线、精确再跃迁”的协同增益。为赋能具身智能技术研发,智源已经构建出以具身大脑为核心,自底向上全栈具身智能技术体系,包括能够跨异构本体数据采集以及标准化一站式平台,具身大小脑以及VLA等具身基座模型,还有具身智能评测等,为具身技术生态提供了一套可复现、可对齐的公共基础设

与此同时,通过在这一阶段引入数据 replay,将第一阶段的部分数据混入训练,抑制“学精确能力时遗忘通用能力”的风险,实现“通用不掉线、精确再跃迁”的协同增益。为赋能具身智能技术研发,智源已经构建出以具身大脑为核心,自底向上全栈具身智能技术体系,包括能够跨异构本体数据采集以及标准化一站式平台,具身大小脑以及VLA等具身基座模型,还有具身智能评测等,为具身技术生态提供了一套可复现、可对齐的公共基础设








