
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
统一:一套框架覆盖 LLM、VLM、VLA、Diffusion 等不同场景,内置 20+ 模型族标准组件,原生兼容 DeepSeek、Qwen、InternVL、LLaVA-OV、ERNIE、MiniMax、MIMO,以及 Pi0.5、WAN 等主流模型。面向真实业务场景中的视频理解需求,该模型在不丢帧的前提下,重构了视频理解路径,优化了帧级信息提取与视觉编码方式,显著减少了冗余计算,从而将视频
同时,在量化层面,百度百舸推出了「模型层 - 框架层 - 硬件层」的端到端的量化体系——通过昆仑芯自研量化工具链实现高精度、高效率的模型量化,对不同来源的 INT8 / INT4 量化模型实现最佳模型部署与量化推理,并基于昆仑芯 XPU 的计算特性,定制化开发高性能量化专用算子库。在适配效率上,基于昆仑芯成熟的高性能算子库,针对无新增算子的新模型(如从 GLM-5.0 版本迭代至 GLM-5.1)
在过去的十年,云原生数据湖发展势不可挡。目前基于对象存储底座的云原生数据湖,几乎已经成为了云上数据湖的共识。随着大量大数据分析、AI 训练等数据驱动的计算业务的不断铺开,我们注意到基于对象存储底座的云原生数据湖也存在一些问题。其中,导致上文第一点的主要原因是目前平坦 namespace 对象存储普遍采用以全路径作为 key 方式进行元数据的存储,因此不具备真正意义上的目录逻辑,所有的目录类操作都会

随着企业数据量的爆炸式增长,以及越来越多的企业上云,数据平台面临的数据存储、数据处理的挑战越来越大,采用什么样的技术来构建和迭代这个平台一直是业界研究的热点,新技术和新思路不断涌现。数据湖提倡所有的数据,不管是数据库的结构化数据,还是视频、图片、日志这类非结构化的数据,都以它们原始的格式存储到一个统一的存储底座中。数据的格式信息 (例如一个数据库表文件的字段定义) 、数据的位置信息 (例如数据存储

白皮书创作团队由负责和参与了高性能网络落地的一线专家组成,内容覆盖了高性能网络建设的各个方面,比如 RoCE 和 IB 的详细技术对比、不同规模集群的架构选择、云平台上的可视化运维工具建设、多租户的运营方案设计等,为 CTO 和技术负责人提供全流程指导,让复杂的高性能网络建设变得简单。高性能网络的成功落地,可以确保大模型用最短的时间训练出来,并节省大量费用。如果能够借鉴业界领先的技术积累和成熟的项

我们在设计 GPU 云服务器时,需要综合考虑上面 GPU 数据处理链路的每一个环节,然后结合业务特点和使用成本,进行 GPU 云服务器的设计。

同时,通过全生命周期锁页操作,避免 KV Cache 数据在传输过程中被换出,减少额外的内存拷贝与页错误开销,使数据能够以更稳定、更高带宽的方式直达显存。Agent 将大模型推理全面带入长上下文与多轮交互时代,百度百舸的 AttentionStore 让 KV Cache 从「短暂的显存数据结构」演进为「可持久、可调度、可规模化复用的系统资源」,通过对昆仑芯底层算力的深度调优与推理框架的无缝集成,

同时,在量化层面,百度百舸推出了「模型层 - 框架层 - 硬件层」的端到端的量化体系——通过昆仑芯自研量化工具链实现高精度、高效率的模型量化,对不同来源的 INT8 / INT4 量化模型实现最佳模型部署与量化推理,并基于昆仑芯 XPU 的计算特性,定制化开发高性能量化专用算子库。百度混合云基于昆仑芯硬件平台 Day0 完成 Kimi K2.6 的模型适配与集群部署,支持 INT4 权重,单机成功

在百度百舸 · AI 计算平台的全方位支持下,Dolphin V1.0 成功上线。Dolphin V1.0 在胎儿标准切面识别上的准确率超过 90%,在乳腺病灶分型任务中准确率达到 86%。与上一代仅能执行单任务的专用模型相比,Dolphin 实现了“一模多能”的通用能力,模型复用效率显著提升。未来,海豚智能将不断深化与百度智能云的合作,基于百舸平台全周期的 AI 工程支持,持续训练、提升模型能力
这一趋势,也给云平台带来了异构资源的统一管理调度、统一运维等挑战。在硬件方面,ABC Stack可实现多种芯片的统一调度,支持Intel、海光、鲲鹏、飞腾等CPU,以及昆仑、海光、昇腾、寒武纪等主流 GPU,并可实现和云平台中的AI加速组件协同,提升 AI 业务效率;这些能力,可以支撑用户复杂的应用场景,帮助客户构建全栈国产化云平台,并支撑客户业务平滑迁移,真正使客户「建好云,上好云,用好云」。百








