
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
GPU云服务器和神行工具包(DeepGPU)为AI计算提供强大支持。GPU服务器适用于视频转码(如双11直播支持6200路实时转码)、图片渲染(秒级完成5000张家居图)、AI训练(提供1000TFlops算力)和推理(130TOPS处理能力)等场景。神行工具包含AIACC加速引擎、ACSpeed优化库等组件,可深度优化PyTorch框架训练性能,并支持各类AI推理场景。两者结合容器服务使用,可简

阿里云cGPU是基于内核虚拟GPU隔离的容器共享技术,允许多个容器安全共享一张GPU卡,提高资源利用率并降低成本。该技术兼容Docker、Kubernetes等标准工作方式,无需重编译AI应用,支持GPU资源的灵活划分(显存和算力)和多种GPU实例类型。cGPU通过自研内核驱动提供虚拟GPU设备,实现性能隔离,适用于训练、推理等场景。阿里云GPU实例命名规则包含产品代号、规格族、规格大小等信息,如

DeepGPU-LLM是阿里云研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)的推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。DeepGPU-LLM作为阿里云开发的一套推理引擎,具有易用性和广泛适用性,旨在优化大语言模型在GPU云服务器上的推理过程,通过优化和并行计算等技术手段,为您提供免费的高性能、低延迟推理服务。:Qwe

DeepGPU-LLM是阿里云研发的基于GPU云服务器的大语言模型(Large Language Model,LLM)的推理引擎,在处理大语言模型任务中,该推理引擎可以为您提供高性能的大模型推理服务。DeepGPU-LLM作为阿里云开发的一套推理引擎,具有易用性和广泛适用性,旨在优化大语言模型在GPU云服务器上的推理过程,通过优化和并行计算等技术手段,为您提供免费的高性能、低延迟推理服务。:Qwe

DeepNCCL是阿里云为神龙异构产品开发的AI通信加速库,通过优化NCCL通信算子提升多GPU互联效率。该库针对单机PCIe/NVLink拓扑提供特定优化方案(如CPU-Reduce流水线、N-Trees拓扑组合),性能提升达20%以上;多机场景则通过分层通信、TCP多流等技术实现50%的性能提升,特别适用于Transformer等大模型训练。DeepNCCL支持Allreduce、Allgat

DeepNCCL是阿里云为神龙异构产品开发的AI通信加速库,通过优化NCCL通信算子提升多GPU互联效率。该库针对单机PCIe/NVLink拓扑提供特定优化方案(如CPU-Reduce流水线、N-Trees拓扑组合),性能提升达20%以上;多机场景则通过分层通信、TCP多流等技术实现50%的性能提升,特别适用于Transformer等大模型训练。DeepNCCL支持Allreduce、Allgat








