简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
问题描述:参考models: Models of MindSpore - Gitee.com训练完成。使用bert推理,每次运行pooled_output结果不一致,日志如下load_path =/home/gitee/models/official/nlp/bert/model/bert_base_ascend_v130_zhwiki_official_nlp_bs256_acc91.72_re
问题已经解决,将kernel_size以tuple类型传入ops.Conv2D即可。原因是model.py部分使用了ops.Conv2D加weight组合的形式,传给Conv2D算子的kernel_size为int64类型, 而ops.Conv2D没有对此整型进行twice操作(nn.Conv2d算子中包含该操作)转换为tuple类型。该句得到的是空指针。代码: gitee中的mindspore/
如有更新一点的MindSpore版本,推荐使用mindyolo套件的自定义数据集finetune功能:https://github.com/mindspore-lab/mindyolo/tree/master/examples/finetune_SHWD。****************************************************解答******************
问题描述:训练出来的图像分类模型误差一直没有减少,分类15种,训练准确率也是1/15,跟没分类的一样学习步长调整过好多次也没用,不知道哪里出了问题解答:对于图像字段是需要提供 归一化 后的数据,如:我们官方示例脚本中 https://gitee.com/mindspore/models/blob/master/official/cv/lenet/src/dataset.py这两步操作,执行这两步操