
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
它给用户带来以下几个重要价值。是由智源牵头,与多个厂商共同打造的面向多元AI芯片的统一、开源的系统软件技术栈,包括支持多种AI芯片的高效并行训推框架FlagScale、支持多种AI芯片架构的高性能算子库FlagAttention和FlagGems,以及支持多种AI芯片的统一通信库FlagCX等关键技术。智源秉承科学严谨的方法,发布的多芯片版本,在各个芯片服务器上,均与英伟达芯片上的DeepSeek
检索增强技术在代码及多模态场景中的发挥着重要作用,而向量模型是检索增强体系中的重要组成部分。针对这一需求,近日,智源研究院联合多所高校研发了三款向量模型,包括代码向量模型BGE-Code-v1,多模态向量模型BGE-VL-v1.5以及视觉化文档向量模型BGE-VL-Screenshot。这些模型取得了代码及多模态检索的最佳效果,并以较大优势登顶CoIR、Code-RAG、MMEB、MVRB等领域内
BGE系列模型自发布以来广受社区好评。近日,智源研究院联合多所高校开发了多模态向量模型BGE-VL,进一步扩充了原有生态体系。BGE-VL在图文检索、组合图像检索等主要多模态检索任务中均取得了最佳效果。BGE-VL借助大规模合成数据MegaPairs训练而成。MegaPairs 结合多模态表征模型、多模态大模型和大语言模型,在海量图文语料库中高效挖掘多模态三元组数据。。本次发布的版本涵盖 2600
DiDA 将传统的串行逐 token 生成过程,转变为一个多步并行的预测过程,在不牺牲性能的前提下,将每张图片的推理速度提升了近 20 倍,首次使自回归模型的生成效率媲美顶尖的闭源扩散模型。作为悟界·Emu 系列的最新成员,Emu3.5 延续了将图像、文本和视频等多模态数据统一建模的核心思想,并实现了从“下一Token 预测”(Next-Token Prediction)到“下一状态预测”(Nex

2025年6月6日,第七届“北京智源大会”在中关村展示中心开幕。北京智源大会是智源研究院主办的“AI内行学术盛会”,以“全球视野、思想碰撞、前沿引领”为特色,汇聚海内外研究者分享研究成果、探寻前沿知识、交流实践经验。2025北京智源大会邀请到了图灵奖得主、深度学习代表人物Yoshua Bengio,图灵奖得主、强化学习之父Richard S. Sutton,图灵奖得主Joseph Sifakis、

图1:Video-XL-2的模型架构示意图视觉编码器(Visual Encoder)动态 Token 合成模块以及大语言模型(LLM)。具体而言,Video-XL-2 采用 SigLIP-SO400M 作为视觉编码器,对输入视频进行逐帧处理,将每一帧编码为高维视觉特征。随后,DTS 模块对这些视觉特征进行融合压缩,并建模其时序关系,以提取更具语义的动态信息。处理后的视觉表征通过平均池化与多层感知机
【转载自:机器之心】语音交互作为人机通信的关键接口,长期以来受限于高延迟、低自然度的交替式对话架构。为突破这一瓶颈,北京智源人工智能研究院联合 Spin Matrix 与新加坡南洋理工大学,正式发布 RoboBrain-Audio(FLM-Audio) —— 首个支持 “自然独白 + 双训练范式” 的原生全双工语音对话大模型。在一段自然对话音频中,用户连续提出多个不同问题,并多次在模型回答过程中打

DrugCLIP 的价值不仅在于算力的飞跃,更在于其对全新靶点的硬核筛选能力。未来,DrugCLIP的广度筛选与OpenComplex2的深度模拟将形成合力,与科研产业生态合作伙伴深度协同,共同推进在肿瘤、感染性疾病、罕见病等领域的新靶点与First-in-class药物的发现,助力构建更智能、高效、普惠的全球药物创新生态。“DrugCLIP 大大提高药物发现的速度,不仅仅是时效的提升,更大的作用

近期,昇腾 AI 与 AI 芯片一体化评测引擎 FlagPerf 完成阶段性适配,共同推进 AI 硬件评测体系建立,赋能大模型技术创新能力提升,加速我国 AI 生态繁荣发展。

由于不同厂商的卡间互联协议不同,为了实现“英伟达芯片+其它AI芯片”高速互联,智源团队与天数智芯协作,优化天数智芯的iXCCL通信库,使其在通信元语操作上以及API接口上兼容英伟达NCCL,然后将框架编译链接到同一iXCCL通信库上,从而在用户和AI框架无感知的情况下实现异构算力芯片间高效通信,进而实现不同架构芯片混合训练。同时,为了加速多种AI芯片在大模型训练场景的使用,智源积极探索高效灵活的芯








