
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文档详细介绍了在昇腾910B平台上使用Docker容器配置Ubuntu 24.04环境并部署Swift训练框架的全过程。主要内容包括:1)基于Ubuntu镜像创建支持NPU的Docker容器;2)安装Conda环境和CANN工具链;3)配置Python 3.11环境并安装Torch_NPU适配版本;4)使用Swift框架进行Qwen3-Embedding和Qwen3-Reranker模型的训练配
本文详细介绍了在昇腾910B平台上部署ComfyUI的完整流程。首先通过Docker创建Ubuntu 24.04基础容器,配置NPU设备映射和目录挂载。然后安装系统依赖、Miniconda和CANN工具包,创建Python 3.11虚拟环境并配置PyTorch 2.5.1+torch_npu环境。接着部署ComfyUI主程序及其插件管理器,修改代码以适配NPU运行模式。最后指导用户通过魔搭社区下载
本文档详细介绍了在昇腾910B平台上使用Docker容器配置Ubuntu 24.04环境并部署Swift训练框架的全过程。主要内容包括:1)基于Ubuntu镜像创建支持NPU的Docker容器;2)安装Conda环境和CANN工具链;3)配置Python 3.11环境并安装Torch_NPU适配版本;4)使用Swift框架进行Qwen3-Embedding和Qwen3-Reranker模型的训练配
摘要: 本文详细介绍了基于MindIE框架在昇腾AI处理器上的模型服务化部署流程。主要内容包括:1) 拉取官方Docker镜像并创建特权容器;2) 单机部署步骤,涉及配置参数修改、服务启停;3) 多机分布式部署方案,涵盖网络检查、rank_table_file配置、环境变量设置等关键操作;4) 重点参数说明如NPU设备选择、模型路径、通信安全设置等。文档提供了完整的命令行操作指引,并附带昇腾社区官
本文详细介绍了在昇腾910B服务器上部署ComfyUI的完整流程。首先通过Docker创建基础容器环境,安装Ubuntu 24.04系统及相关依赖。然后配置Conda环境,安装昇腾CANN工具包和Python依赖库,包括PyTorch及其NPU适配版本。接着部署ComfyUI框架及插件,并对代码进行必要修改以适配NPU硬件。最后指导用户下载所需的AI模型权重文件,并提供了从魔搭社区获取模型的详细步
本文介绍了在华为Ascend环境下部署BGE-M3文本嵌入和重排序模型的方法。首先通过Docker容器环境配置NPU设备映射和路径挂载,然后启动embedding和rerank两个服务,分别监听不同端口。若模型自动下载失败,可使用魔塔平台手动下载。最后提供了curl命令测试接口,支持文本向量化和相关性排序功能。整个部署过程针对华为昇腾AI处理器进行了优化配置。
文章摘要 本文详细介绍了Linux系统下磁盘挂载与配置流程,主要内容包括: 使用lsblk查看新增数据盘,通过parted工具进行GPT分区并格式化ext4文件系统 配置fstab文件实现开机自动挂载,创建挂载点并验证挂载结果 昇腾AI处理器驱动固件的安装步骤和验证方法 Docker安装配置方案,包括手动安装最新版本和修改默认存储路径到大容量磁盘的详细操作步骤 文章提供了完整的命令行操作流程,适用
摘要: 本文详细介绍了基于MindIE框架在昇腾AI处理器上的模型服务化部署流程。主要内容包括:1) 拉取官方Docker镜像并创建特权容器;2) 单机部署步骤,涉及配置参数修改、服务启停;3) 多机分布式部署方案,涵盖网络检查、rank_table_file配置、环境变量设置等关键操作;4) 重点参数说明如NPU设备选择、模型路径、通信安全设置等。文档提供了完整的命令行操作指引,并附带昇腾社区官
本文介绍了在华为Ascend环境下部署BGE-M3文本嵌入和重排序模型的方法。首先通过Docker容器环境配置NPU设备映射和路径挂载,然后启动embedding和rerank两个服务,分别监听不同端口。若模型自动下载失败,可使用魔塔平台手动下载。最后提供了curl命令测试接口,支持文本向量化和相关性排序功能。整个部署过程针对华为昇腾AI处理器进行了优化配置。
本文摘要:详细介绍了在Docker容器中搭建基于Ubuntu 24.04的昇腾AI开发环境的完整流程。首先通过Docker创建特权容器并挂载必要的NPU设备,然后安装系统依赖、Miniconda和昇腾CANN工具包。接着创建Python 3.10虚拟环境,安装PyTorch 2.5.1及其昇腾适配版本torch_npu,最后通过简单的张量运算验证环境配置成功。整个过程涵盖了容器创建、系统配置、软件







