
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
依托面向多种AI芯片的统一开源系统软件栈众智FlagOS的跨芯能力,众智FlagOS社区在Qwen3.5模型发布后,即完成了397B MoE多模态模型的全量适配、精度对齐、及多芯片迁移,实现Qwen3.5在多款芯片的同步适配上线。

还在为云端大模型的隐私风险和高昂 Token 成本发愁?众智 FlagOS 联合腾讯云 HAI,正式将 Qwen3-4B-hygon-flagos 模型镜像上线!本文手把手教你在国产 AI 芯片上快速部署 FlagOS + OpenClaw,以小模型驱动智能体执行任务,并无缝接入 QQ 机器人 。带你零门槛体验本地 7×24 小时待命的“数字员工”,轻松实现“养虾”自由!

依托面向多种AI芯片的统一开源系统软件栈众智FlagOS的跨芯能力,众智FlagOS社区在Qwen3.5模型发布后,即完成了397B MoE多模态模型的全量适配、精度对齐、及多芯片迁移,实现Qwen3.5在多款芯片的同步适配上线。

FlagCX统一通信库发布v0.7.0版本,新增uniRunner全场景统一模式,实现同构/异构芯片的互联互通。该版本基于Kernel-free Non-reduce技术,通过Device-buffer IPC/RDMA能力实现芯片解耦,无需依赖厂商原生通信库。性能测试显示,异构场景下通信带宽提升最高达4.57倍,同时支持10款主流AI芯片。新版本还提供了多芯片编译指南和PyTorch DDP测试

2025年10月6日–17日,国际电信联盟(ITU-T)SG21 日内瓦全会期间,基于众智FlagOS(面向多种AI芯片的统一开源系统软件栈)的统一通信库FlagCX技术,由智源研究院联合中国信息通信研究院牵头的ITU国际标准项目——《F.FUCL Requirements and Framework of Cross-Platform Unified Communication Librarie

编者按: 针对 MoE 推理的性能瓶颈,众智 FlagOS 基于 Triton 语言扩展 TLE(Triton Language Extensions) 设计并实现两套针对性优化方案,目前已全量集成至 FlagTree 编译器中,开发者安装 FlagTree 后即可直接调用 TLE 接口编写高性能 MoE 算子: triton_atomic_fused 方案:面向大 token 场景优化,通过单

还在为云端大模型的隐私风险和高昂 Token 成本发愁?众智 FlagOS 联合腾讯云 HAI,正式将 Qwen3-4B-hygon-flagos 模型镜像上线!本文手把手教你在国产 AI 芯片上快速部署 FlagOS + OpenClaw,以小模型驱动智能体执行任务,并无缝接入 QQ 机器人 。带你零门槛体验本地 7×24 小时待命的“数字员工”,轻松实现“养虾”自由!

“FlagOS开放计算全球挑战赛”是众智FlagOS社区、北京智源人工智能研究院联合主办的一项多赛季、综合性赛事。大赛鼓励开发者基于统一AI系统软件栈FlagOS的能力进行创作实战和创新探索,促进AI开发者能力提升。 多赛季总奖金池累积会高达200万元,各个赛季的优胜者将共享奖金并获得主办方颁发的荣誉证书。无论你是专攻AI算法与系统的工程师,还是精通硬件与编译器的极客,只要你对破解A

大模型步入长上下文时代,高质量数据标注的“工业级”解法由谁定义?FlagOS 全球挑战赛的赛道三正在火热进行中,诚邀全球开发者基于 Qwen3-4B 特供模型与 FlagScale 框架,共同攻克超长文本标注瓶颈。这不仅是一场最高 3 万元奖金的竞技,更是亲手为 AI 基础设施打下“立基”之战。开源成果将收录至 OpenSeek 官方仓库。期待与每一位技术共建者,共同定义下一代数据基石!

还在为云端大模型的隐私风险和高昂 Token 成本发愁?众智 FlagOS 联合腾讯云 HAI,正式将 Qwen3-4B-hygon-flagos 模型镜像上线!本文手把手教你在国产 AI 芯片上快速部署 FlagOS + OpenClaw,以小模型驱动智能体执行任务,并无缝接入 QQ 机器人 。带你零门槛体验本地 7×24 小时待命的“数字员工”,轻松实现“养虾”自由!









