logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【昇腾】用MindIE服务化部署glm4-9b-chat模型,api访问报错

【昇腾】用MindIE服务化部署glm4-9b-chat模型,api访问报错:>>> Exception:ChatGLM4Tokenizer._pad() got an unexpected keyword argument 'padding_side'修改tokenization_chatglm.py脚本增加padding_side参数,或者下载最新的tokenization_chatglm.p

文章图片
【昇腾】双机直连组网配置

本文主要介绍昇腾训练/推理,双机直连组网环境准备和检查,不包括具体训练和推理过程。包括:组网要求链路状态检查配置服务器IP地址配置检测对象ip直连多口连通性检测使用HCCL TEST性能测试工具检查

文章图片
【昇腾】HCCL性能测试工具:HCCL TEST使用

HCCL性能测试工具:HCCL TEST使用HCCL TEST工具简介HCCL_SOCKET_IFNAME环境变量使用

文章图片
【昇腾】Deepseek双机:交换机组网配置

【昇腾】Deepseek双机交换机组网配置本文介绍Deepseek双机交换机组网,服务器侧如何进行配置,以及如何检测网络是否OK。组网介绍链路状态检查网络配置网络互联测试HCCL TEST测试

文章图片
#网络#服务器
【昇腾】用MindIE拉QwQ-32b模型报错:AttributeError: ‘ForkAwareLocal‘ object has no attribute ‘connection‘

用MindIE拉QwQ-32b模型报错:AttributeError: 'ForkAwareLocal' object has no attribute 'connection'权重文件下载不完整导致问题safetensors_rust.SafetensorError: Error while deserializing header: HeaderTooLarge

【昇腾】用MindIE(服务化方式)拉起glm4-9b-chat模型问题解决

【昇腾】用MindIE拉起glm4-9b-chat模型问题解决:LLMInferEngine failed to init LLMInferModelsERR: Failed to init endpoint! Please check the service log or console output.Killedmake sure the folder's owner has execute

文章图片
#人工智能
【昇腾】MindIE服务器推理,config.json权限问题解决

MindIE服务器推理,config.json权限问题:config.json failed, by: Check Other group permission failed: Current permission is 4, but required no greater than 0. Required permission: 750, but got 644failed to check c

【昇腾】用MindIE(服务化方式)拉起glm4-9b-chat模型问题解决

【昇腾】用MindIE拉起glm4-9b-chat模型问题解决:LLMInferEngine failed to init LLMInferModelsERR: Failed to init endpoint! Please check the service log or console output.Killedmake sure the folder's owner has execute

文章图片
#人工智能
【昇腾】Deepseek双机:交换机组网配置

【昇腾】Deepseek双机交换机组网配置本文介绍Deepseek双机交换机组网,服务器侧如何进行配置,以及如何检测网络是否OK。组网介绍链路状态检查网络配置网络互联测试HCCL TEST测试

#网络#服务器
到底了